KR101904125B1 - VIDEO PROCESSING Device and Method For Depth Video by Concave Curved Surface Modeling - Google Patents

VIDEO PROCESSING Device and Method For Depth Video by Concave Curved Surface Modeling Download PDF

Info

Publication number
KR101904125B1
KR101904125B1 KR1020170063052A KR20170063052A KR101904125B1 KR 101904125 B1 KR101904125 B1 KR 101904125B1 KR 1020170063052 A KR1020170063052 A KR 1020170063052A KR 20170063052 A KR20170063052 A KR 20170063052A KR 101904125 B1 KR101904125 B1 KR 101904125B1
Authority
KR
South Korea
Prior art keywords
depth
value
curved surface
predicted
equation
Prior art date
Application number
KR1020170063052A
Other languages
Korean (ko)
Inventor
권순각
이동석
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020170063052A priority Critical patent/KR101904125B1/en
Application granted granted Critical
Publication of KR101904125B1 publication Critical patent/KR101904125B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

According to an embodiment of the present invention, a depth image processing method through concave surface modeling can increase a compression ratio while maintaining the quality of a depth image. The depth image processing method comprises the steps of: modeling an equation of a first curved surface composed of a first coordinate and a parameter on a camera coordinate system; converting the equation of the first curved surface into an equation of a second curved surface composed of a second coordinate on a coordinate system of an image plane onto which the first coordinate is projected, the parameter, and a predicted depth variable; determining a value of the parameter based on the predicted depth variable and a measured depth value of a pixel of a depth image corresponding to the second coordinate, and generating a factor of the curved surface; and determining a value of the predicted depth variable based on the factor of the curved surface and the measured depth value and position information of the pixel of the depth image, and generating a predicted depth value.

Description

오목면 모델링을 통한 깊이 영상의 처리 방법 및 장치{VIDEO PROCESSING Device and Method For Depth Video by Concave Curved Surface Modeling}TECHNICAL FIELD [0001] The present invention relates to a method and apparatus for processing a depth image using a concave surface modeling method,

본 발명은 오목면 모델링을 통한 깊이 영상의 처리 방법 및 장치에 관한 것이다. 보다 상세하게는 깊이 영상 내의 표면의 정보를 검출하고 곡면의 정보를 모델링함으로써 깊이 영상을 보정 및/또는 부호화할 수 있는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for processing depth images through concave surface modeling. And more particularly, to a method and apparatus capable of correcting and / or encoding a depth image by detecting information of the surface in the depth image and modeling information of the surface.

영상 내 화소의 거리 정보를 나타내는 깊이 정보를 구성 화소 요소로 가지는 깊이 영상을 이용하여 영상 처리에 응용하는 방법에 대한 연구가 활발하게 연구되고 있다. 이 때, 깊이 영상을 이용하여 기존 색상 영상에서는 얻을 수 없었던, 객체의 위치 정보와 거리 정보를 획득하여, 이를 통한 새로운 객체의 정보를 획득할 수 있다. 이러한 깊이 영상의 특성으로 인해 깊이 영상을 이용한 새로운 응용분야에 대한 연구가 확대되고 있다. There has been actively studied a method of applying the depth image having the depth information indicating the distance information of the pixels in the image to the image processing using the depth image having the constituent pixel elements. At this time, it is possible to acquire the position information and the distance information of the object, which can not be obtained in the existing color image, using the depth image, and acquire the information of the new object through the acquiring. Due to the characteristics of depth images, new applications using depth images are being studied.

색상 영상에서의 환경에 민감하고, 객체내의 여러 다른 색상 정보가 존재한다는 단점을 깊이 카메라를 통해 극복하여 좀 더 정확한 객체 검출을 수행하는 연구가 이루어졌다. 깊이 영상의 거리를 이용하여 평면의 정보를 이용하여 이를 통해 영상의 왜곡과 잡음을 제거하는 연구도 이루어졌다. 또한, 깊이 영상의 거리정보를 이용하여 배경영역에 터치를 인식하는 연구와, 이를 이용하여 여러 이벤트를 제공하는 연구가 이루어졌다. 이뿐만 아니라 인물의 형태를 인식하여 사람의 얼굴을 인식하는 연구도 여러 이루어졌다.  In this paper, we propose a new method to detect objects in a color image by using depth camera. Using the information of the plane using the distance of the depth image, the image distortion and noise are removed through this. In addition, we study the recognition of the touch in the background area using the distance information of the depth image and to provide various events using it. In addition to this, several studies have been carried out to recognize the face of a person by recognizing the shape of the person.

이러한 깊이 영상의 응용분야의 확대로 인해 깊이 영상의 부호화에 대한 필요성이 증가되었다. 먼저 깊이 룩업 테이블(Depth Lookup Table)를 이용하여 깊이 영상을 부호화하는 방법이 연구되었다. 또한, 객체의 경계 정보를 깊이 영상 부호화에 이용하는 방법이 제안되었다. 깊이 영상을 히스토그램기반으로 분석하여 깊이 영상을 부호화 하는 방법도 제안되었다. 이처럼 깊이 영상에 나타나는 특징을 이용하여 영상 부호화 효율을 높이는 연구가 많이 이루어졌다. 하지만 지금까지 이루어진 깊이 영상 부호화 연구는 대체로 색상 영상 부호화에 대해 보조적으로 이루어지거나, 색상 영상과 연계하여 깊이 영상을 부호화하는 방법에 한정되었다.  Due to the increased application of depth images, the need for depth image coding has increased. First, a method of coding a depth image using a depth lookup table has been studied. In addition, a method of using boundary information of an object for depth image coding has been proposed. A method of coding the depth image by analyzing the depth image based on the histogram has also been proposed. Many studies have been carried out to improve the image coding efficiency by using the feature of depth image. However, the depth image coding study so far has been limited to the method of encoding the depth image in cooperation with the color image, or the supplementary processing of the color image coding.

대한민국특허공개공보 10-2011-0121003 A1Korean Patent Publication No. 10-2011-0121003 A1

본 발명은 깊이 영상 내의 오목면을 가진 객체를 효과적으로 검출하여 깊이 정보를 보정 및/또는 부호화할 수 있는 방법 및 장치를 제공할 수 있다.The present invention can provide a method and apparatus for effectively detecting an object having a concave surface in a depth image and correcting and / or encoding the depth information.

또한, 본 발명은 깊이 영상의 특성을 고려하여 깊이 영상의 품질을 유지하면서도 압축율을 높일 수 있는 깊이 영상의 처리 방법 및 장치를 제공할 수 있다.In addition, the present invention can provide a depth image processing method and apparatus capable of increasing the compression ratio while maintaining the quality of the depth image in consideration of the characteristics of the depth image.

또한, 본 발명은 깊이 영상 내의 오목면 영역에 대한 정보를 추출하여 깊이 값을 예측할 수 있는 깊이 영상의 처리 방법 및 장치를 제공할 수 있다.In addition, the present invention can provide a depth image processing method and apparatus capable of extracting information on a concave surface area in a depth image and predicting a depth value.

본 발명의 실시예에 따른 오목면 모델링을 통한 깊이 영상의 처리 방법은 카메라 좌표계 상의 제1 좌표와 매개변수로 이루어진 제1 곡면의 방정식을 모델링하는 단계; 상기 제1 곡면의 방정식을 상기 제1 좌표가 투영된 영상 평면의 좌표계 상의 제2 좌표와 상기 매개변수 및 예측깊이변수로 이루어진 제2 곡면의 방정식으로 변환하는 단계; 상기 예측깊이변수와 상기 제2 좌표에 대응하는 깊이 영상의 화소의 측정깊이값에 기초하여 상기 매개변수의 값을 결정하고 상기 곡면의 인자를 생성하는 단계; 및 상기 곡면의 인자 그리고 상기 깊이 영상의 화소의 위치 정보와 측정깊이값에 기초하여 상기 예측깊이변수의 값을 결정하고 예측깊이값을 생성하는 단계;를 포함할 수 있다.The method of processing a depth image through concave surface modeling according to an embodiment of the present invention includes: modeling an equation of a first curve consisting of a first coordinate and a parameter on a camera coordinate system; Converting the equation of the first curved surface into an equation of a second curved surface consisting of a second coordinate on the coordinate system of the projected image plane and the parameter and the predicted depth variable; Determining a value of the parameter based on the predicted depth variable and a measured depth value of a pixel of the depth image corresponding to the second coordinate and generating a factor of the curved surface; And determining a value of the predicted depth variable based on the position information of the pixel of the depth image and the measured depth value, and generating a predicted depth value.

다른 측면에서의 실시예에 따른 오목면 모델링을 통한 깊이 영상의 처리 방법은 상기 깊이 영상의 화소들의 깊이 값을 상기 예측깊이값으로 보정하는 단계;를 더 포함할 수 있다.According to another aspect of the present invention, there is provided a method of processing a depth image through concave surface modeling, the method further comprising: correcting a depth value of pixels of the depth image to the predicted depth value.

또 다른 측면에서의 실시예에 따른 오목면 모델링을 통한 깊이 영상의 처리 방법은 상기 예측깊이값과 상기 측정깊이값의 차이에 기초하여 상기 깊이 영상을 부호화하는 단계;를 더 포함할 수 있다.According to another aspect of the present invention, there is provided a method of processing a depth image through concave surface modeling, the method further comprising: encoding the depth image based on a difference between the predicted depth value and the measured depth value.

또 다른 측면에서의 실시예에 따른 오목면 모델링을 통한 깊이 영상의 처리 방법은 상기 곡면의 인자, 상기 예측깊이값과 상기 측정깊이값의 차이에 기초하여 상기 깊이 영상을 부호화하는 단계;를 더 포함할 수도 있다.According to another aspect of the present invention, there is provided a method of processing a depth image through concave surface modeling, the method further comprising: encoding the depth image based on a difference between the predicted depth value and the measured depth value; You may.

또 다른 측면에서의 실시예에 따른 오목면 모델링을 통한 깊이 영상의 처리 방법에서의 카메라 좌표계 상의 제1 좌표와 매개변수로 이루어진 제1 곡면의 방정식을 모델링하는 단계는, 상기 깊이 영상의 위치정보 및 측정깊이값에 기초하여 수학식 1을 충족하는 오목면의 방정식을 모델링할 수도 있다.The step of modeling an equation of a first curved surface consisting of a first coordinate and a parameter on a camera coordinate system in a depth image processing method using concave surface modeling according to another embodiment of the present invention includes: The equation of the concave surface satisfying Equation (1) may be modeled based on the measured depth value.

[수학식 1][Equation 1]

Figure 112017048665012-pat00001
Figure 112017048665012-pat00001

X, Y, Z는 제1 좌표, a, b는 매개변수이다.X, Y, and Z are first coordinates, and a and b are parameters.

또 다른 측면에서의 실시예에 따른 오목면 모델링을 통한 깊이 영상의 처리 방법에서의 상기 제1 곡면의 방정식을 상기 제1 좌표가 투영된 영상 평면의 좌표계 상의 제2 좌표와 상기 매개변수 및 예측깊이변수로 이루어진 제2 곡면의 방정식으로 변환하는 단계는, 3차원 카메라 좌표계 상의 상기 제1 좌표를 2차원 영상 평면 상의 상기 제2 좌표로 변환하여 상기 수학식 1을 수학식 2로 변환할 수도 있다.The method of processing a depth image through a concave surface modeling method according to another aspect of the present invention is characterized in that the equation of the first curved surface is transformed to a second coordinate on the coordinate system of the projected image plane, Transforming the first coordinate on the three-dimensional camera coordinate system into the second coordinate on the two-dimensional image plane, and converting the equation (1) into the equation (2).

[수학식 2]&Quot; (2) "

Figure 112017048665012-pat00002
Figure 112017048665012-pat00002

h, w는 영상 평면의 수직, 수평 좌표, f는 초점거리, d는 예측깊이변수이다.h and w are the vertical and horizontal coordinates of the image plane, f is the focal length, and d is the predicted depth variable.

또 다른 측면에서의 실시예에 따른 오목면 모델링을 통한 깊이 영상의 처리 방법에서의 상기 예측깊이변수와 상기 제2 좌표에 대응하는 깊이 영상의 화소의 측정깊이값에 기초하여 상기 매개변수의 값을 결정하고 상기 곡면의 인자를 생성하는 단계는, 상기 예측깊이변수와 상기 측정깊이값의 차이가 최소가 되도록 하는 상기 매개변수의 값을 결정할 수도 있다.The value of the parameter is calculated on the basis of the predicted depth variable in the depth image processing method through the concave surface modeling according to the embodiment of the present invention and the depth value of the pixel of the depth image corresponding to the second coordinate And generating the parameter of the curved surface may determine the value of the parameter to minimize the difference between the predicted depth variable and the measured depth value.

또 다른 측면에서의 실시예에 따른 오목면 모델링을 통한 깊이 영상의 처리 방법은 상기 예측깊이변수와 상기 측정깊이값 간의 오차 및 상기 깊이 영상의 크기에 기초하여 화소들의 깊이 값의 보정 여부를 판단하고, 판단 결과에 기초하여 화소들의 깊이 값을 상기 예측깊이값으로 보정하는 단계;를 더 포함할 수도 있다.According to another aspect of the present invention, there is provided a method of processing a depth image through concave surface modeling, the method comprising: determining whether a depth value of pixels is corrected based on an error between the depth value and the depth value, And correcting the depth value of the pixels to the predicted depth value based on the determination result.

또 다른 측면에서의 비일시적 컴퓨터 판독가능 매체는 명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서, 상기 명령어들은 적어도 하나의 프로세서로 하여금 동작들을 수행하게 하기 위해 상기 프로세서에 의해 실행가능하고, 상기 동작들은: 카메라 좌표계 상의 제1 좌표와 매개변수로 이루어진 제1 곡면의 방정식을 모델링하고, 상기 제1 곡면의 방정식을 상기 제1 좌표가 투영된 영상 평면의 좌표계 상의 제2 좌표와 상기 매개변수 및 예측깊이변수로 이루어진 제2 곡면의 방정식으로 변환하고, 상기 예측깊이변수와 상기 제2 좌표에 대응하는 깊이 영상의 화소의 측정깊이값에 기초하여 상기 매개변수의 값을 결정하고 상기 곡면의 인자를 생성하고, 상기 곡면의 인자 그리고 상기 깊이 영상의 화소의 위치 정보와 측정깊이값에 기초하여 상기 예측깊이변수의 값을 결정하고 예측깊이값을 생성하는 것을 포함하는 비일시적 컴퓨터 판독가능 매체를 제공할 수도 있다.In yet another aspect, a non-volatile computer readable medium is a non-volatile computer readable medium storing instructions that is executable by the processor to cause at least one processor to perform operations, : Modeling an equation of a first curved surface consisting of a first coordinate and a parameter on a camera coordinate system, and calculating an equation of the first curved surface based on a second coordinate on the coordinate system of the projected image plane, And determining a value of the parameter based on the depth value of the pixel of the depth image corresponding to the predicted depth variable and the second coordinate and generating a factor of the curved surface , The curvature of the curved surface, and the position information of the pixel of the depth image and the measured depth value, Side depth determines the value of the variable, and may provide a non-transient computer-readable medium, comprising: generating a predictive depth value.

또 다른 측면에서의 비일시적 컴퓨터 판독가능 매체의 상기 동작들은, 상기 깊이 영상의 화소들의 깊이 값을 상기 예측깊이값으로 보정 또는 상기 예측깊이값과 상기 측정깊이값의 차이에 기초하여 상기 깊이 영상을 부호화하는 것을 포함할 수 있다.In another aspect, the operations of the non-transitory computer-readable medium may include interpolating the depth value of pixels of the depth image to the predicted depth value, or interpolating the depth image based on the difference between the predicted depth value and the measured depth value And < / RTI >

또 다른 측면에서의 오목면 모델링을 통한 깊이 영상의 처리 장치는 적어도 하나의 메모리; 및 적어도 하나의 프로세서;를 포함하고, 상기 적어도 하나의 프로세서는 카메라 좌표계 상의 제1 좌표와 매개변수로 이루어진 제1 곡면의 방정식을 모델링하고, 상기 제1 곡면의 방정식을 상기 제1 좌표가 투영된 영상 평면의 좌표계 상의 제2 좌표와 상기 매개변수 및 예측깊이변수로 이루어진 제2 곡면의 방정식으로 변환하고, 상기 예측깊이변수와 상기 제2 좌표에 대응하는 깊이 영상의 화소의 측정깊이값에 기초하여 상기 매개변수의 값을 결정하고 상기 곡면의 인자를 생성하고, 상기 곡면의 인자 그리고 상기 깊이 영상의 화소의 위치 정보와 측정깊이값에 기초하여 상기 예측깊이변수의 값을 결정하고 예측깊이값을 생성하도록 구성될 수 있다.In another aspect, an apparatus for processing depth images through concave surface modeling includes at least one memory; And at least one processor, wherein the at least one processor models an equation of a first curved surface consisting of a first coordinate and a parameter on a camera coordinate system, and wherein the equation of the first curved surface is expressed as the projection of the first coordinate A second curve on the coordinate system of the image plane and a second curve comprising the parameter and the predicted depth variable; and based on the depth value of the pixel of the depth image corresponding to the predicted depth variable and the second coordinate, Determining a value of the parameter, generating a factor of the curved surface, determining a value of the predicted depth variable based on the factor of the curved surface, the position information of the pixel of the depth image and the measured depth value, .

또 다른 측면에서의 오목면 모델링을 통한 깊이 영상의 처리 장치의 상기 프로세서는, 상기 깊이 영상의 화소들의 깊이 값을 상기 예측깊이값으로 보정 또는 기 예측깊이값과 상기 측정깊이값의 차이에 기초하여 상기 깊이 영상을 부호화하도록 구성될 수도 있다.The processor of the apparatus for processing a depth image through a concave surface modeling method according to another aspect of the present invention is characterized in that the processor of the apparatus for processing a depth image through a concave surface modeling method includes a step of correcting a depth value of pixels of the depth image by the predicted depth value And may be configured to encode the depth image.

본 발명의 실시예는 원 깊이 영상에 포함된 중요한 정보는 보존하면서 기타 정보를 다소 제거하여 원 깊이 영상의 품질을 잃지 않으면서도 가능한 한 적은 디지털 부호량으로 깊이 영상을 표현할 수 있다.In the embodiment of the present invention, depth information can be represented with a digital code amount as small as possible without losing the quality of the original depth image, while preserving important information included in the original depth image while removing other information.

또한, 본 발명의 실시예는 깊이 영상 내의 곡면 정보를 블록내의 깊이 값을 이용하여 찾아내어 곡면을 포함하는 깊이 영상의 깊이 값을 예측하고, 예측된 깊이 값을 이용하여 깊이 정보를 보정할 수 있으므로 깊이 값에 대한 보정의 정확도가 향상된다.In the embodiment of the present invention, the depth information of the depth image including the curved surface is predicted by finding the curved surface information in the depth image using the depth value in the block, and the depth information can be corrected using the predicted depth value The accuracy of the correction to the depth value is improved.

또한, 본 발명의 실시예에 따라 곡면 객체를 부호화할 때 기존 부호화 방법에 비해 높은 부호화 효율을 보이는 효과가 있다.In addition, according to the embodiment of the present invention, when coding a curved surface object, a higher coding efficiency than the conventional coding method is obtained.

도 1은 본 발명의 실시예에 따른 깊이 영상을 영상 처리 할 수 있도록 구성된 깊이영상처리장치를 도시하는 블록도이다.
도 2는 본 발명의 실시예에 따른 오목면 모델링을 통한 깊이 영상의 처리 방법에 대한 예시적인 다이어그램이다.
도 3은 카메라 좌표계 상의 오목면과 카메라 좌표가 투영된 영상 평면의 관계에 관한 예시도이다.
도 4는 본 발명의 다른 실시예에 따른 오목면 모델링을 통한 깊이 영상의 처리 방법에 대한 예시적인 다이어그램이다.
도 5는 본 발명의 또 다른 실시예에 따른 오목면 모델링을 통한 깊이 영상의 처리 방법에 대한 예시적인 다이어그램이다.
1 is a block diagram illustrating a depth image processing apparatus configured to process a depth image according to an exemplary embodiment of the present invention.
2 is an exemplary diagram illustrating a method of processing depth images through concave surface modeling according to an embodiment of the present invention.
3 is an exemplary view showing the relationship between the concave surface on the camera coordinate system and the image plane on which the camera coordinates are projected.
4 is an exemplary diagram illustrating a method of processing a depth image through concave surface modeling according to another embodiment of the present invention.
5 is an exemplary diagram illustrating a method of processing a depth image through concave surface modeling according to another embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. The effects and features of the present invention and methods of achieving them will be apparent with reference to the embodiments described in detail below with reference to the drawings. However, the present invention is not limited to the embodiments described below, but may be implemented in various forms. In the following embodiments, the terms first, second, and the like are used for the purpose of distinguishing one element from another element, not the limitative meaning. Also, the singular expressions include plural expressions unless the context clearly dictates otherwise. Also, the terms include, including, etc. mean that there is a feature, or element, recited in the specification and does not preclude the possibility that one or more other features or components may be added. Also, in the drawings, for convenience of explanation, the components may be exaggerated or reduced in size. For example, the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of explanation, and thus the present invention is not necessarily limited to those shown in the drawings.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or corresponding components throughout the drawings, and a duplicate description thereof will be omitted .

도 1은 본 발명의 실시예에 따른 깊이 영상을 영상 처리 할 수 있도록 구성된 깊이영상처리장치를 도시하는 블록도이다.1 is a block diagram illustrating a depth image processing apparatus configured to process a depth image according to an exemplary embodiment of the present invention.

깊이영상처리장치(100)는 영상 데이터를 데이터수신장치(200)로 제공할 수 있다.The depth image processing apparatus 100 may provide image data to the data receiving apparatus 200. [

깊이영상처리장치(100)와 데이터수신장치(200)는 데스크톱 컴퓨터들, 노트북 (즉, 랩톱) 컴퓨터들, 태블릿 컴퓨터들, 셋톱 박스들, 이른바 "스마트" 폰들과 같은 전화기 핸드셋들, 이른바 "스마트" 패드들, 텔레비전들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들, 비디오 스트리밍 디바이스 등을 포함한 매우 다양한 디바이스들 중 임의의 것을 포함할 수도 있다.The depth image processing apparatus 100 and the data receiving apparatus 200 may be used in various applications such as desktop computers, notebook (i.e., laptop) computers, tablet computers, set top boxes, telephone handsets such as so- Quot; may include any of a wide variety of devices including pads, televisions, cameras, display devices, digital media players, video gaming consoles, video streaming devices, and the like.

일부 구현예에서는, 깊이영상처리장치(100)와 데이터수신장치(200)는 무선 통신을 위한 구성(10)이 갖추어질 수 있다.In some implementations, the depth image processing device 100 and the data receiving device 200 may be provided with a configuration 10 for wireless communication.

또한, 데이터수신장치(200)는 영상 처리된 영상 데이터를 컴퓨터 판독 가능 매체를 통해 수신할 수도 있다.Also, the data receiving apparatus 200 may receive the image data processed through the computer readable medium.

컴퓨터 판독 가능 매체는 깊이영상처리장치(100)로부터 영상처리된 영상 데이터를 데이터수신장치(200)로 이동시킬 수 있는 임의 유형의 매체 또는 디바이스를 포함할 수 있다. 일 예로, 컴퓨터 판독 가능 매체는 깊이영상처리장치(100)가 영상 데이터를 데이터수신장치(200)로 직접 실시간으로 송신하는 것을 가능하게 하는 통신 매체, 이를테면 송신 채널을 포함할 수 있다.The computer readable medium may include any type of media or device capable of moving image data processed by the depth image processing apparatus 100 to the data receiving apparatus 200. In one example, the computer readable medium may include a communications medium, such as a transmit channel, that enables depth image processing apparatus 100 to transmit image data directly to data receiving apparatus 200 in real time.

영상 처리된 영상 데이터는 통신 표준, 이를테면 무선 통신 프로토콜에 따라 변조되고 데이터수신장치(200)로 송신될 수도 있다. 통신 매체는 임의의 무선 또는 유선 통신 매체, 이를테면 라디오 주파수 스펙트럼 또는 하나 이상의 물리적 송신 라인들을 포함할 수도 있다. 통신 매체는 패킷 기반 네트워크, 이를테면 로컬 영역 네트워크, 광역 네트워크, 또는 인터넷과 같은 글로벌 네트워크의 부분을 형성할 수도 있다. 통신 매체는 라우터들, 스위치들, 기지국들, 또는 깊이영상처리장치(100)로부터 데이터수신장치(200)로의 통신을 용이하게 하는데 유용할 수도 있는 임의의 다른 장비를 포함할 수도 있다. 몇몇 예들에서 영상 처리된 영상 데이터가 출력 인터페이스(130)로부터 컴퓨터 판독 가능 저장 매체, 이를 테면 비일시적(non-transitory) 컴퓨터 판독가능 저장 매체, 즉, 데이터 저장 디바이스로 출력될 수도 있다. 마찬가지로 영상 데이터는 데이터수신장치(200)의 입력 인터페이스(230)에 의해 저장 디바이스로부터 엑세스될 수도 있다. 저장 디바이스는 하드 드라이브, 블루-레이 디스크들, DVD들, CD-ROM들, 플래시 메모리, 휘발성 또는 비휘발성 메모리, 또는 영상 데이터를 저장하기 위한 임의의 다른 적합한 디지털 저장 매체들과 같은 다양한 분산형 또는 국부적으로 액세스되는 비일시적 데이터 저장 매체들 중 임의의 것을 포함할 수도 있다. 추가의 예에서, 저장 디바이스는 깊이영상처리장치(100)에 의해 생성된 영상 데이터를 저장할 수도 있는 파일 서버 또는 다른 중간 저장 디바이스에 해당할 수도 있다.The processed image data may be modulated according to a communication standard, such as a wireless communication protocol, and transmitted to the data receiving apparatus 200. The communication medium may comprise any wireless or wired communication medium, such as a radio frequency spectrum or one or more physical transmission lines. The communication medium may form part of a packet based network, such as a global network such as a local area network, a wide area network, or the Internet. The communication medium may include routers, switches, base stations, or any other equipment that may be useful for facilitating communication from the depth imaging device 100 to the data receiving device 200. In some instances, image processed image data may be output from the output interface 130 to a computer readable storage medium, such as a non-transitory computer readable storage medium, i.e., a data storage device. Similarly, the image data may be accessed from the storage device by the input interface 230 of the data receiving apparatus 200. [ The storage device may be a variety of distributed or removable media such as hard drives, Blu-ray discs, DVDs, CD-ROMs, flash memory, volatile or nonvolatile memory, or any other suitable digital storage media for storing image data. And non-volatile data storage media that are locally accessed. In a further example, the storage device may correspond to a file server or other intermediate storage device that may store image data generated by the depth image processing device 100. [

데이터수신장치(200)는 저장 디바이스로부터의 저장된 영상 데이터에 스트리밍 또는 다운로드를 통해 액세스할 수도 있다.The data receiving apparatus 200 may access the stored image data from the storage device through streaming or downloading.

도 1의 예에서 깊이영상처리장치(100)는 영상 소스(110) 및 영상처리부(120)를 포함할 수 있다. 또한, 깊이영상처리장치(100)는 출력 인터페이스(130)를 더 포함할 수 있다. In the example of FIG. 1, the depth image processing apparatus 100 may include an image source 110 and an image processing unit 120. In addition, the depth image processing apparatus 100 may further include an output interface 130.

데이터수신장치(200)는 입력 인터페이스(230) 및 데이터처리부(220)를 포함할 수 있다. 또한, 데이터수신장치(200)는 디스플레이 디바이스(210)를 더 포함할 수 있다.The data receiving apparatus 200 may include an input interface 230 and a data processing unit 220. In addition, the data receiving apparatus 200 may further include a display device 210.

다른 예에서 깊이영상처리장치(100)와 데이터처리부(220)는 다른 컴포넌트들을 포함할 수 있다.In another example, the depth image processing apparatus 100 and the data processing unit 220 may include other components.

예를 들어 깊이영상처리장치(100)는 외부 비디오 소스, 이를테면 외부 카메라로부터 영상을 수신할 수 있고, 외부 카메라는 깊이 영상(depth image)을 생성하는 깊이 영상 촬영 디바이스가 될 수 있다. 마찬가지로, 데이터수신장치(200)는 통합형 디스플레이 디바이스(210)를 구비하기 보다는 외부 디스플레이 디바이스(210)와 인터페이싱할 수도 있다.For example, the depth image processing apparatus 100 may receive an external video source, such as an image from an external camera, and the external camera may be a depth image capturing device that generates a depth image. Likewise, the data receiving device 200 may interface with the external display device 210 rather than with the integrated display device 210.

깊이영상처리장치(100)의 영상 소스(110)는 깊이 영상 촬영 디바이스, 이를테면 카메라, 이전에 촬영된 깊이 영상을 포함하는 아카이브 (archive), 및/또는 깊이 영상 콘텐츠 제공자로부터의 깊이 영상을 수신하는 인터페이스를 포함할 수도 있다.The image source 110 of the depth image processing apparatus 100 may include a depth image capture device, such as a camera, an archive that includes previously captured depth images, and / or a depth image from a depth image content provider Interface.

일부 구현예에서 깊이 영상 촬영 디바이스는 장면의 깊이 정보를 256 단계의 8비트 영상 등으로 표현한 깊이 영상을 제공할 수 있다. 깊이 영상의 한 픽셀을 표현하기 위한 비트수는 8비트가 아니라 변경될 수 있다. 깊이 영상 촬영 디바이스는 적외선 등을 이용하여 깊이 영상 촬영 디바이스로부터 객체 및 배경까지의 거리를 측정하면 거리에 비례 또는 반비례하는 값을 갖는 깊이 영상을 제공할 수 있다.In some embodiments, the depth imaging device may provide a depth image that represents scene depth information in 256-level 8-bit images or the like. The number of bits for representing one pixel of the depth image can be changed instead of 8 bits. The depth image capturing device can provide a depth image having a value proportional to or inversely proportional to the distance by measuring the distance from the depth image capturing device to the object and the background using an infrared ray or the like.

깊이 영상의 화소 값은 예를 들어, RGB의 색상 정보가 아닌 일 예로 mm 단위(이에 한정하는 것은 아님)의 정수로 된 깊이 정보가 될 수 있다.The pixel value of the depth image may be, for example, depth information in the form of integers in mm, but not limited to, RGB color information, for example.

깊이영상처리장치(100)와 데이터수신장치(200) 각각은 하나 이상의 메모리와 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSP들), 주문형 집적회로들 (ASIC들), 필드 프로그램가능 게이트 어레이들 (FPGA들), 개별 로직 회로, 소프트웨어, 하드웨어, 펌웨어 또는 그것들의 임의의 조합과 같은 다양한 형태로 구성될 수 있다.Each of the depth image processing apparatus 100 and the data receiving apparatus 200 may include one or more memories and one or more microprocessors, digital signal processors (DSPs), application specific integrated circuits (ASICs), field programmable gate arrays (FPGAs), discrete logic circuits, software, hardware, firmware, or any combination thereof.

메모리는 컴퓨터 판독가능 명령들 또는 프로세서 판독가능 명령들과 같은 명령들(예를 들어, 실행가능 명령들)을 포함한다. 명령들은 하나 이상의 프로세서들 각각에 의해서와 같이 컴퓨터에 의해 실행가능한 하나 이상의 명령어들을 포함할 수도 있다.The memory includes instructions (e.g., executable instructions) such as computer readable instructions or processor readable instructions. The instructions may include one or more instructions executable by the computer, such as by each of the one or more processors.

예를 들어 하나 이상의 명령들은 하나 이상의 프로세서들로 하여금 깊이 영상의 깊이 값을 보정 및/또는 깊이 영상을 부호화하기 위해 깊이 영상을 프로세싱하는 것을 포함하는 동작들을 수행하기 위한 하나 이상의 프로세서들에 의해 실행가능 할 수도 있다.For example, the one or more instructions may be executed by one or more processors for performing operations, including processing depth images to correct depth values of depth images and / or to encode depth images, You may.

상세하게는, 영상처리부(120)는 명령어들을 저장하는 하나 이상의 메모리(121)와 상기 명령어들을 실행하는 적어도 하나의 프로세서(122)를 포함할 수 있다.In particular, the image processing unit 120 may include one or more memories 121 for storing instructions and at least one processor 122 for executing the instructions.

영상처리부(120)의 프로세서(122)는 깊이 영상의 깊이 값을 보정하기 위한 기법들이 적용되도록 구성될 수 있다.The processor 122 of the image processing unit 120 may be configured to apply the techniques for correcting the depth value of the depth image.

일부 구현예에서는, 영상처리부(120)의 프로세서(122)는 깊이 영상을 부호화하기 위한 기법들이 적용되도록 구성될 수 있다. In some implementations, the processor 122 of the image processing unit 120 may be configured to apply techniques for encoding depth images.

다른 구현예에서는 영상처리부(120)의 프로세서(122)는 깊이 영상의 깊이 값을 보정하는 기법 및 깊이 영상을 부호화하는 기법이 적용되도록 구성될 수도 있다.In another embodiment, the processor 122 of the image processing unit 120 may be configured to apply a technique of correcting a depth value of a depth image and a technique of encoding a depth image.

데이터처리부(220)는 영상처리부(120)로부터의 영상 데이터를 외부 장치로 전송, 디스플레이, 분석 등을 수행할 수 있도록 구성될 수 있다.The data processing unit 220 may be configured to transmit image data from the image processing unit 120 to an external device, perform display, analysis, and the like.

일부 구현예에서는, 데이터처리부(220)는 영상처리부(120)로부터의 부호화된 영상 데이터를 복호화할 수 있도록 구성될 수도 있다.In some implementations, the data processing unit 220 may be configured to decode the encoded image data from the image processing unit 120.

도 1에 도시되지 않았지만, 몇몇 실시예에서, 깊이영상처리장치(100)와 데이터처리장치는 통합된 장치가 될 수 있다. 이를테면 깊이영상처리장치(100)는 깊이 영상을 부호화하고, 부호화된 영상 데이터를 복호화할 수 있도록 구성될 수도 있다.Although not shown in FIG. 1, in some embodiments, the depth image processing apparatus 100 and the data processing apparatus may be an integrated apparatus. For example, the depth image processing apparatus 100 may be configured to encode the depth image and to decode the encoded image data.

도 2는 본 발명의 실시예에 따른 오목면 모델링을 통한 깊이 영상의 처리 방법에 대한 예시적인 다이어그램이다. 그리고 도 3은 카메라 좌표계 상의 오목면과 카메라 좌표가 투영된 영상 평면의 관계에 관한 예시도이다.2 is an exemplary diagram illustrating a method of processing depth images through concave surface modeling according to an embodiment of the present invention. 3 is an exemplary view showing the relationship between the concave surface on the camera coordinate system and the image plane on which the camera coordinate is projected.

도 2 및 도 3을 참조하면, 오목면 모델링을 통한 깊이 영상의 처리 방법은 카메라 좌표계 상의 제1 좌표와 매개변수로 이루어진 제1 곡면의 방정식을 모델링하는 단계(S110), 제1 곡면의 방정식을 제1 좌표가 투영된 영상 평면의 좌표계 상의 제2 좌표와 매개변수 및 예측깊이변수로 이루어진 제2 곡면의 방정식으로 변환하는 단계(S120), 예측깊이변수와 제2 좌표에 대응하는 깊이 영상의 화소의 측정깊이값에 기초하여 매개변수의 값을 결정하고 곡면의 인자를 생성하는 단계(S130) 및 곡면의 인자 그리고 깊이 영상의 화소의 위치 정보와 측정깊이값에 기초하여 예측깊이변수의 값을 결정하고 예측깊이값을 생성하는 단계(S140)를 포함할 수 있다.Referring to FIGS. 2 and 3, a depth image processing method using concave surface modeling includes a step S110 of modeling an equation of a first curved surface composed of a first coordinate and a parameter on a camera coordinate system (S110), an equation of a first curved surface (S120) of transforming the first coordinate into a second curved surface equation consisting of a second coordinate on the coordinate system of the projected image plane and a parameter and a predictive depth variable, Determining a value of the parameter based on the measured depth value of the depth image and generating a factor of the curved surface (S130); determining a value of the predicted depth variable based on the surface information and the measured depth value And generating a predicted depth value (S140).

또한, 일부 구현예에서, 오목면 모델링을 통한 깊이 영상의 처리 방법은 영상처리하는 단계(S150)를 더 포함할 수 있고, 영상처리하는 단계(S150)는 깊이 영상의 화소들의 깊이 값을 예측깊이값으로 보정하는 단계(S151) 및/또는 예측깊이값과 측정깊이값의 차이에 기초하여 깊이 영상을 부호화하는 단계(S152)를 포함할 수 있다.Also, in some embodiments, the method of processing the depth image through the concave surface modeling may further include an image processing step (S150), wherein the image processing step (S150) (S151) of correcting the depth value and / or encoding the depth image based on the difference between the predicted depth value and the measured depth value (S152).

도 4는 본 발명의 다른 실시예에 따른 오목면 모델링을 통한 깊이 영상의 처리 방법에 대한 예시적인 다이어그램이다.4 is an exemplary diagram illustrating a method of processing a depth image through concave surface modeling according to another embodiment of the present invention.

다른 실시예에 따르면, 오목면 모델링을 통한 깊이 영상의 처리 방법은 깊이 영상을 기 설정된 블록 단위로 분할하는 단계(S210), 대상 블록 내의 화소들의 깊이 값에 기초하여 객체의 형상 정보를 검출하는 단계(S220), 카메라 좌표계 상의 제1 좌표와 매개변수로 이루어진 제1 곡면의 방정식을 모델링하는 단계(S230), 제1 곡면의 방정식을 제1 좌표가 투영된 영상 평면의 좌표계 상의 제2 좌표와 매개변수 및 예측깊이변수로 이루어진 제2 곡면의 방정식으로 변환하는 단계(S240), 예측깊이변수와 제2 좌표에 대응하는 대상 블록의 화소의 측정깊이값에 기초하여 매개변수의 값을 결정하고 곡면의 인자를 생성하는 단계(S250) 및 곡면의 인자 그리고 대상 블록의 화소의 위치 정보와 측정깊이값에 기초하여 예측깊이변수의 값을 결정하고 예측깊이값을 생성하는 단계(S260)를 포함할 수 있다.According to another embodiment, a depth image processing method using concave surface modeling includes dividing a depth image into a predetermined block unit (S210), detecting shape information of an object based on depth values of pixels in the object block (S230) of modeling an equation of a first curved surface made up of a first coordinate and a parameter on the camera coordinate system (S230), calculating an equation of the first curved surface by using the second coordinate on the coordinate system of the projected image plane (S240) of transforming the predicted depth variable into an equation of a second curved surface composed of a variable and a predictive depth variable, determining the value of the parameter based on the predicted depth variable and the measured depth value of the pixel of the object block corresponding to the second coordinate, A step of generating an argument (S250) and a step of determining a value of the predicted depth variable based on the printing of the curved surface, the position information of the pixel of the target block and the measured depth value, It may include a system (S260).

또한, 일부 구현예에서, 오목면 모델링을 통한 깊이 영상의 처리 방법은 영상처리하는 단계(S270)를 더 포함할 수 있고, 영상처리하는 단계(S270)는 깊이 영상의 화소들의 깊이 값을 예측깊이값으로 보정하는 단계(S271) 및/또는 예측깊이값과 측정깊이값의 차이에 기초하여 깊이 영상을 부호화하는 단계(S272)를 포함할 수 있다.Also, in some embodiments, the method of processing the depth image through the concave surface modeling may further include image processing (S270), and the image processing step (S270) (Step S271) of encoding the depth image and / or encoding the depth image based on the difference between the predicted depth value and the measured depth value (S272).

이하 도 4의 각 단계를 보다 상세하게 설명한다.Each step of FIG. 4 will now be described in more detail.

프로세서(122)는 깊이 영상을 기 설정된 블록 단위로 분할할 수 있다(S210). The processor 122 may divide the depth image into a predetermined block unit (S210).

예를 들어 깊이 영상은 m*n의 블록 단위로 분할될 수 있다. 복수의 블록 각각은 m*n(m, n은 자연수) 화소로 이루어진 영역으로 정의할 수 있다. For example, the depth image can be divided into blocks of m * n. Each of the plurality of blocks can be defined as an area made up of m * n (m, n is a natural number) pixels.

예를 들어 m*n의 블록은 8*8화소나 16*16화소로 이루어진 영역으로 정의할 수 있고 해상도가 증가하면 기본 단위는 32*32나 64*64 화소로 이루어진 영역으로 정의할 수도 있다. 다만 이에 한정하는 것은 아니고, 프로세서(122)는 도 3에서의 구현예와 같이 깊이 영상을 분할하지 않고 깊이 영상 내의 깊이 값을 보정 및/또는 부호화할 수도 있다.For example, a block of m * n can be defined as an area consisting of 8 * 8 pixels or 16 * 16 pixels, and when the resolution is increased, the basic unit can be defined as an area consisting of 32 * 32 or 64 * 64 pixels. However, the present invention is not limited thereto, and the processor 122 may correct and / or code the depth value in the depth image without dividing the depth image as in the embodiment of FIG.

프로세서(122)는 각 블록내의 화소 값에 기초하여 객체의 형상 정보를 검출할 수 있다(S220). 예를 들어 프로세서(122)는 블록 내의 화소와 해당 화소의 인접 화소들의 깊이 값에 기초하여 객체의 형상 정보를 검출할 수 있다. 화소들 각각은 깊이 값을 가지고, 화소들간의 상대적인 깊이 차이, 기준 화소와 기준 화소 주변의 화소들의 깊이 값의 분포에 기초하여 객체의 형상 정보를 검출할 수 있다.The processor 122 may detect the shape information of the object based on the pixel values in each block (S220). For example, the processor 122 may detect the shape information of the object based on the depth value of the pixel in the block and the adjacent pixels of the pixel. Each of the pixels has a depth value, and can detect the shape information of the object based on a relative depth difference between the pixels, and a distribution of depth values of pixels around the reference pixel and the reference pixel.

프로세서(122)는 각 블록내의 화소 값에 기초하여 객체의 형상이 평면, 구면, 곡면 중 어느 하나의 형상을 가지는 것으로 판단할 수 있고, 여기서의 곡면은 오목면이 될 수 있으나 이에 한정하는 것은 아니다.The processor 122 may determine that the shape of the object has a shape of either a plane, a spherical surface, or a curved surface based on pixel values in each block, and the curved surface may be a concave surface, but the present invention is not limited thereto .

예를 들어, 카메라 좌표계 상에서 객체의 임의의 한 점은 (X, Y, Z) 좌표를 가지고, 여기서 (X, Y)는 영상 평면의 (w, h) 좌표를 가진 점으로 투영되고, Z 값은 (w, h) 좌표에서의 이상적인 깊이 값이 되며, 해당 이상적인 깊이 값은 각 화소 단위로 표현될 수 있다. 그리고 임의의 화소에서 주변 화소로 갈수록 깊이 값 Z 값이 점진적으로 점진적으로 감소하는 경우, 해당 객체는 적어도 일부 영역이 오목면을 가진 것으로 볼 수 있다. 따라서 프로세서(122)는 각 화소의 좌표와 각 화소별 깊이 값에 기초하여 객체의 형상 정보를 검출할 수 있다.For example, an arbitrary point of an object on a camera coordinate system has (X, Y, Z) coordinates, where (X, Y) is projected onto a point having (w, h) Is an ideal depth value in (w, h) coordinates, and the ideal depth value can be expressed in each pixel unit. If the depth value Z gradually decreases gradually from an arbitrary pixel to a neighboring pixel, it can be seen that at least a part of the object has a concave surface. Accordingly, the processor 122 can detect the shape information of the object based on the coordinates of each pixel and the depth value of each pixel.

또한, 프로세서(122)는 카메라 좌표계 상의 제1 좌표(X, Y, Z)와 매개변수(a, b)로 이루어진 제1 곡면의 방정식을 모델링할 수 있다(S230). 일 예로 제1 곡면의 방정식은 수학식 1과 같은 오목면의 방정식이 될 수 있다.In addition, the processor 122 may model the equation of the first curved surface composed of the first coordinates (X, Y, Z) on the camera coordinate system and the parameters (a, b) (S230). For example, the equation of the first curved surface may be a concave surface equation as shown in Equation (1).

[수학식 1][Equation 1]

Figure 112017048665012-pat00003
Figure 112017048665012-pat00003

X, Y, Z는 3차원 공간의 카메라 좌표계 상의 임의의 점인 제1 좌표이고, a, b는 매개변수 제1 곡면의 방정식을 이루는 매개변수이다.X, Y and Z are first coordinates, which are arbitrary points on the camera coordinate system in the three-dimensional space, and a and b are parameters constituting the equation of the first surface of the parameter.

다만, S230에서 설명한 단계를 수행하기에 앞서 3차원 좌표계인 세계 좌표계(world coordinate system)와 3차원 좌표계인 카메라 좌표계(camera coordinate system)가 서로 불일치한 경우라면, 세계 좌표계를 3차원 좌표계로 변환하는 좌표 변환이 수행될 수도 있다. However, if the world coordinate system, which is a three-dimensional coordinate system, and the camera coordinate system, which is a three-dimensional coordinate system, are inconsistent with each other before the steps described in S230 are performed, the world coordinate system is converted into a three- Coordinate transformation may be performed.

또한, 프로세서(122)는 수학식 1의 제1 곡면의 방정식을 제1 좌표(X, Y, Z)가 투영된 영상 평면의 좌표계 상의 제2 좌표(h, w)와 매개변수(a, b) 및 예측깊이변수(d)로 이루어진 수학식 2를 충족하는 제2 곡면의 방정식으로 변환할 수 있다(S240).In addition, the processor 122 calculates the equation of the first curved surface of Equation 1 by using the second coordinates (h, w) on the coordinate system of the image plane in which the first coordinates (X, Y, Z) ) And the predicted depth variable (d) (S240).

[수학식 2]&Quot; (2) "

Figure 112017048665012-pat00004
Figure 112017048665012-pat00004

h, w는 영상 평면의 수직, 수평 좌표이고, f는 초점거리이며, d는 예측깊이변수이다.h and w are the vertical and horizontal coordinates of the image plane, f is the focal length, and d is the predicted depth variable.

다만, S240에서 설명한 단계를 수행하기에 앞서 카메라 좌표계와 영상 평면 좌표계의 중심이 일치하지 않는 경우 중심의 위치를 일치 시키기 위한 좌표 변환이 수행될 수도 있다.However, before performing the steps described in S240, if the centers of the camera coordinate system and the image plane coordinate system do not coincide with each other, a coordinate transformation may be performed to match the center positions.

또한, 프로세서(122)는 예측깊이변수(d)와 제2 좌표(h, w)에 대응하는 대상 블록 내 화소의 측정깊이값에 기초하여 매개변수(a, b)의 값을 결정할 수 있다(S250). 그리고 매개변수(값이 결정된 a, b)는 곡면의 인자가 된다.The processor 122 may also determine the value of the parameter a, b based on the predicted depth variable d and the measured depth value of the pixel in the object block corresponding to the second coordinate h, w S250). And the parameters (values a and b) are the parameters of the curved surface.

일 예로 프로세서(122)는 수학식 3에 따른 예측깊이변수(d)와 측정깊이값

Figure 112017048665012-pat00005
의 차이(수학식 4에 따라)가 최소가 되도록 하는 매개변수(a, b)의 값을 결정할 수 있다.For example, the processor 122 may calculate the predicted depth variable d and the measured depth value d in accordance with Equation (3)
Figure 112017048665012-pat00005
(A, b) that minimizes the difference (in accordance with equation (4)) of the parameters a and b.

[수학식 3]&Quot; (3) "

Figure 112017048665012-pat00006
Figure 112017048665012-pat00006

수학식 3에서의 d는 예측깊이변수로써 수학식 2의 제2 곡면의 방정식의 매개변수 a, b의 값이 결정되었을 때, 영상 평면의 제2 좌표별로 대응하는 화소들의 이상적인 깊이 값이 될 수 있다. 다만, 현 단계에서 d의 값은 결정되지 않았으므로 예측깊이변수로 정의된다.In Equation (3), d is the predicted depth variable, and when the values of the parameters a and b of the equation of the second curved surface of Equation 2 are determined, the ideal depth value of the pixels corresponding to the second coordinates of the image plane have. However, at this stage, the value of d is not determined and is therefore defined as the predicted depth variable.

[수학식 4]&Quot; (4) "

Figure 112017048665012-pat00007
Figure 112017048665012-pat00007

수학식 4에서 표시된 바와 같이 예측깊이변수 d와 (h, w)에서 실제로 측정된 깊이 값

Figure 112017048665012-pat00008
의 차이(
Figure 112017048665012-pat00009
은 오차)가 제일 작을 때의 매개변수 a, b를 구함으로써 대상 블록에서 최적의 곡면 방정식을 구하고 예측깊이변수 d의 값을 결정할 수 있다. 이 때 모델링된 표면의 (h, w)에서의 근사된 곡면의 예측깊이변수 d와 실제로 측정된 깊이
Figure 112017048665012-pat00010
의 오차
Figure 112017048665012-pat00011
가 최소가 되도록 인자를 결정하기 위해 최소자승법을 적용할 수 있다. 이 때
Figure 112017048665012-pat00012
는 매개변수에 대해 비선형식으로 나타나므로 가우스-뉴턴법을 적용할 수 있다.As shown in equation (4), the depth value actually measured in the predicted depth variable d and (h, w)
Figure 112017048665012-pat00008
Difference between
Figure 112017048665012-pat00009
The optimal curved surface equation can be obtained in the target block and the value of the predicted depth variable d can be determined by obtaining the parameters a and b when the error is smallest. At this time, the predicted depth variable d of the approximated curved surface at (h, w) of the modeled surface and the actually measured depth
Figure 112017048665012-pat00010
Error of
Figure 112017048665012-pat00011
The least squares method can be applied to determine the factor to be the minimum. At this time
Figure 112017048665012-pat00012
Gauss-Newton method can be applied since it appears in a non-linear form with respect to the parameter.

가우스-뉴턴 법에서 n단계에서 대상 블록 내 각 화소에서의 d와 실제 측정된 깊이 값

Figure 112017048665012-pat00013
의 차로 이루어진 행렬
Figure 112017048665012-pat00014
Figure 112017048665012-pat00015
에서의 자코비안 행렬
Figure 112017048665012-pat00016
, 미결정매개변수 값을 나타내는
Figure 112017048665012-pat00017
은 수학식 5를 충족한다.In the Gauss-Newton method, at step n, the value of d and the actually measured depth value
Figure 112017048665012-pat00013
A matrix consisting of
Figure 112017048665012-pat00014
and
Figure 112017048665012-pat00015
Jacobian procession in
Figure 112017048665012-pat00016
, Indicating the value of the indeterminate parameter
Figure 112017048665012-pat00017
Satisfies the expression (5).

[수학식 5]&Quot; (5) "

Figure 112017048665012-pat00018
Figure 112017048665012-pat00018

Figure 112017048665012-pat00019
Figure 112017048665012-pat00019

Figure 112017048665012-pat00020
Figure 112017048665012-pat00020

또한, 가우스-뉴턴법을 적용하여 수학식 6과 같이 다음 단계의 인자 값인

Figure 112017048665012-pat00021
을 구할 수 있다. In addition, by applying the Gauss-Newton method, as shown in Equation 6,
Figure 112017048665012-pat00021
Can be obtained.

[수학식 6]&Quot; (6) "

Figure 112017048665012-pat00022
Figure 112017048665012-pat00022

프로세서(122)는 전술한 동작을 P회 반복하여 주어진 깊이 값으로 이루어진 곡면과 제일 근접한 곡면을 구하고 제1 곡면의 방정식의 매개변수의 값을 결정할 수 있다. 그리고 프로세서(122)는 값이 결정된 인자와 대상 블록 내 화소들의 좌표 값 그리고 초점거리(f)를 수학식 2에 대입하여 연산함에 따라 대상 블록 내의 화소

Figure 112017048665012-pat00023
의 이상적인 깊이 값 d(예측깊이값)를 결정할 수 있다(S260).The processor 122 can repeat the above-described operation P times to obtain a curved surface having a given depth value and the closest curved surface, and determine the value of the parameter of the equation of the first curved surface. Then, the processor 122 substitutes the determined factor, the coordinate values of the pixels in the object block, and the focal length f into Equation (2)
Figure 112017048665012-pat00023
An ideal depth value d (predicted depth value) of the target pixel can be determined (S260).

또한, 영상처리하는 단계(S270)에서 프로세서(122)는 대상 블록 내의 보정 대상 화소

Figure 112017048665012-pat00024
의 측정된 깊이 값을 이상적인 깊이 값(결정깊이값)으로 보정할 수 있다(S271).Also, in the image processing step S270, the processor 122 sets the correction target pixel
Figure 112017048665012-pat00024
Can be corrected to an ideal depth value (crystal depth value) (S271).

또한, 영상처리하는 단계(S270)에서 프로세서(122)는 대상 블록 내 각 화소

Figure 112017048665012-pat00025
에서의
Figure 112017048665012-pat00026
와 모델링 과정을 수행하여 찾은 매개변수에서의 깊이 값
Figure 112017048665012-pat00027
(결정깊이값)의 차이를 이용하여 각 화소를 부호화할 수 있다. 그 후 부호화된 블록과 곡면의 매개변수 값을 함께 부호화하여 전체 깊이 영상을 부호화할 수도 있다.Further, in the image processing step S270, the processor 122 determines whether or not each pixel
Figure 112017048665012-pat00025
In
Figure 112017048665012-pat00026
And the depth value of the parameter found by performing the modeling process
Figure 112017048665012-pat00027
(The depth value of the crystal). Then, the parameter values of the encoded block and the curved surface may be encoded together to encode the entire depth image.

실시예는 종래의 DPCM(Differential Pulse Code Modulation)을 통해 부호화를 한 경우에 비해 엔트로피 파워가 줄어들어 부호화 효율이 높아지는 효과를 가진다. The embodiment has an effect that the entropy power is reduced and the coding efficiency is increased as compared with the case where coding is performed through the conventional DPCM (Differential Pulse Code Modulation).

도 5는 본 발명의 또 다른 실시예에 따른 오목면 모델링을 통한 깊이 영상의 처리 방법에 대한 예시적인 다이어그램이다.5 is an exemplary diagram illustrating a method of processing a depth image through concave surface modeling according to another embodiment of the present invention.

도 5를 참조하면, 또 다른 실시예에 오목면 모델링을 통한 깊이 영상의 처리 방법은 깊이 영상을 기 설정된 블록 단위로 분할하는 단계(S310), 대상 블록 내의 화소들의 깊이 값에 기초하여 객체의 형상 정보를 검출하는 단계(S320), 카메라 좌표계 상의 제1 좌표와 매개변수로 이루어진 제1 곡면의 방정식을 모델링하는 단계(S330), 제1 곡면의 방정식을 제1 좌표가 투영된 영상 평면의 좌표계 상의 제2 좌표와 매개변수 및 예측깊이변수로 이루어진 제2 곡면의 방정식으로 변환하는 단계(S340), 예측깊이변수와 제2 좌표에 대응하는 대상 블록의 화소의 측정깊이값에 기초하여 매개변수의 값을 결정하고 곡면의 인자를 생성하는 단계(S350), 곡면의 인자 그리고 대상 블록의 화소의 위치 정보와 측정깊이값에 기초하여 예측깊이변수의 값을 결정하고 예측깊이값을 생성하는 단계(S360) 및 예측깊이변수와 측정된깊이값의 오차 및 블록의 크기에 기초하여 대상 블록 내 화소들의 깊이 값의 보정 여부를 판단하고, 판단 결과에 기초하여 화소들의 깊이 값을 보정하는 단계(S370)를 포함할 수 있다.Referring to FIG. 5, in still another embodiment, a depth image processing method using concave surface modeling includes dividing a depth image into units of predetermined blocks (S310), calculating a shape of the object based on depth values of pixels in the object block (S330) of modeling an equation of a first curved surface made up of a first coordinate and a parameter on the camera coordinate system (S330), calculating an equation of the first curved surface on the coordinate system of the projected image plane (S340) of transforming the second depth value into a second surface equation consisting of a second coordinate, a parameter, and a predictive depth variable, calculating a value of the parameter based on the depth value of the target block corresponding to the predicted depth variable and the second coordinate (S350), determining the value of the predicted depth variable based on the curved surface, the position information of the pixel of the target block and the measured depth value, and determining the predicted depth value (S360), and determines whether the depth value of the pixels in the target block is corrected based on the error between the predicted depth variable and the measured depth value and the size of the block, and corrects the depth value of the pixels based on the determination result Step S370.

또한, 프로세서(122)가 예측깊이변수(d)와 측정된깊이값(

Figure 112017048665012-pat00028
)의 오차(
Figure 112017048665012-pat00029
) 및 블록의 크기에 기초하여 대상 블록 내 화소들의 깊이 값의 보정 여부를 판단하고, 판단 결과에 기초하여 화소들의 깊이 값을 보정하는 단계(S370)는 프로세서(122)가 오차(
Figure 112017048665012-pat00030
)에 대상 블록의 크기를 나누는 연산을 수행하여 평가치를 생성하는 단계(S371), 프로세서(122)가 평가치와 기 설정된 임계값(T)과 비교하는 단계(S372) 및 프로세서(122)는 평가치가 임계값(T)보다 작은 경우 대상 블록 내의 화소들의 깊이 값을 예측깊이값으로 보정하고, 평가치가 임계값(T) 이상 경우 대상 블록 내의 화소들의 깊이 값을 예측깊이값으로 보정하지 않는 단계(S373)를 포함할 수 있다.In addition, if the processor 122 determines that the predicted depth variable d and the measured depth value < RTI ID = 0.0 >
Figure 112017048665012-pat00028
) Of the error
Figure 112017048665012-pat00029
(Step S370) of determining whether the depth value of the pixels in the target block is corrected based on the size of the block and the depth value of the pixels based on the determination result,
Figure 112017048665012-pat00030
(Step S371). The processor 122 compares the evaluation value with a predetermined threshold value T (step S372), and the processor 122 evaluates the evaluation value Correcting the depth value of the pixels in the target block to a predicted depth value when the value is smaller than the threshold value T and not correcting the depth value of the pixels in the target block to the predicted depth value when the evaluated value is equal to or greater than the threshold value T S373).

일부 실시예에서 깊이 영상을 블록으로 분할하지 않는 경우라면, 프로세서(122)는 오차(

Figure 112017048665012-pat00031
)에 깊이 영상 자체의 크기를 나누는 연산을 수행하여 평가치를 생성할 수도 있다.In some embodiments, if the depth image is not to be partitioned into blocks,
Figure 112017048665012-pat00031
) By dividing the size of the depth image itself.

실시예는 오목면 모델링을 평가하여 모델링 수행이 적절한 경우에 화소들의 깊이 값을 보정함으로써 깊이값 보정의 정확도를 향상시킬 수 있다.The embodiment can improve the accuracy of the depth value correction by evaluating the concave surface modeling and correcting the depth value of the pixels when the modeling performance is appropriate.

이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments of the present invention described above can be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination. The program instructions recorded on the computer-readable recording medium may be those specifically designed and configured for the present invention or may be those known and used by those skilled in the computer software arts. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, medium, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code, such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be modified into one or more software modules for performing the processing according to the present invention, and vice versa.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific acts described in the present invention are, by way of example, not intended to limit the scope of the invention in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections. Also, unless explicitly mentioned, such as " essential ", " importantly ", etc., it may not be a necessary component for application of the present invention.

또한, 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.While the present invention has been described in connection with what is presently considered to be practical and exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the technical scope of the present invention should not be limited to the contents described in the detailed description of the specification, but should be defined by the claims.

100: 깊이영상처리장치
110: 영상 소스
120: 영상처리부
121: 메모리
122: 프로세서
130: 출력인터페이스
200: 데이터수신장치
210: 디스플레이 다비이스
220: 데이터 처리부
230: 입력 인터페이스
100: Depth image processing device
110: image source
120:
121: Memory
122: Processor
130: Output interface
200: Data receiving device
210: Display Device
220:
230: Input Interface

Claims (12)

카메라 좌표계 상의 제1 좌표와 매개변수로 이루어진 제1 곡면의 방정식을 모델링하는 단계;
상기 제1 곡면의 방정식을 상기 제1 좌표가 투영된 영상 평면의 좌표계 상의 제2 좌표와 상기 매개변수 및 예측깊이변수로 이루어진 제2 곡면의 방정식으로 변환하는 단계;
상기 예측깊이변수와 상기 제2 좌표에 대응하는 깊이 영상의 화소의 측정깊이값에 기초하여 상기 매개변수의 값을 결정하고 상기 곡면의 인자를 생성하는 단계; 및
상기 곡면의 인자 그리고 상기 깊이 영상의 화소의 위치 정보와 측정깊이값에 기초하여 상기 예측깊이변수의 값을 결정하고 예측깊이값을 생성하는 단계;를 포함하는
오목면 모델링을 통한 깊이 영상의 처리 방법.
Modeling an equation of a first curved surface consisting of a first coordinate and a parameter on a camera coordinate system;
Converting the equation of the first curved surface into an equation of a second curved surface consisting of a second coordinate on the coordinate system of the projected image plane and the parameter and the predicted depth variable;
Determining a value of the parameter based on the predicted depth variable and a measured depth value of a pixel of the depth image corresponding to the second coordinate and generating a factor of the curved surface; And
Determining a value of the predicted depth variable based on the position of the pixel of the depth image and the measured depth value and generating a predicted depth value;
A method for processing depth images through concave surface modeling.
제1 항에 있어서,
상기 깊이 영상의 화소들의 깊이 값을 상기 예측깊이값으로 보정하는 단계;를 더 포함하는
오목면 모델링을 통한 깊이 영상의 처리 방법.
The method according to claim 1,
And correcting the depth value of the pixels of the depth image to the predicted depth value
A method for processing depth images through concave surface modeling.
제1 항에 있어서,
상기 예측깊이값과 상기 측정깊이값의 차이에 기초하여 상기 깊이 영상을 부호화하는 단계;를 더 포함하는
오목면 모델링을 통한 깊이 영상의 처리 방법.
The method according to claim 1,
And encoding the depth image based on a difference between the predicted depth value and the measured depth value
A method for processing depth images through concave surface modeling.
제2 항에 있어서,
상기 곡면의 인자, 상기 예측깊이값과 상기 측정깊이값의 차이에 기초하여 상기 깊이 영상을 부호화하는 단계;를 더 포함하는
오목면 모델링을 통한 깊이 영상의 처리 방법.
3. The method of claim 2,
And encoding the depth image based on a factor of the curved surface, a difference between the predicted depth value and the measured depth value
A method for processing depth images through concave surface modeling.
제1 항에 있어서,
카메라 좌표계 상의 제1 좌표와 매개변수로 이루어진 제1 곡면의 방정식을 모델링하는 단계는,
상기 깊이 영상의 위치정보 및 측정깊이값에 기초하여 수학식 1을 충족하는 오목면의 방정식을 모델링하는
오목면 모델링을 통한 깊이 영상의 처리 방법.
[수학식 1]
Figure 112017048665012-pat00032

X, Y, Z는 제1 좌표, a, b는 매개변수이다.
The method according to claim 1,
Modeling an equation of a first curved surface consisting of a first coordinate and a parameter on a camera coordinate system,
Modeling the concave surface equation satisfying the equation (1) based on the position information of the depth image and the measured depth value
A method for processing depth images through concave surface modeling.
[Equation 1]
Figure 112017048665012-pat00032

X, Y, and Z are first coordinates, and a and b are parameters.
제5 항에 있어서,
상기 제1 곡면의 방정식을 상기 제1 좌표가 투영된 영상 평면의 좌표계 상의 제2 좌표와 상기 매개변수 및 예측깊이변수로 이루어진 제2 곡면의 방정식으로 변환하는 단계는,
3차원 카메라 좌표계 상의 상기 제1 좌표를 2차원 영상 평면 상의 상기 제2 좌표로 변환하여 상기 수학식 1을 수학식 2로 변환하는
오목면 모델링을 통한 깊이 영상의 처리 방법.
[수학식 2]
Figure 112018038723567-pat00033

h, w는 영상 평면의 수직, 수평 좌표, f는 초점거리, d는 예측깊이변수이다.
6. The method of claim 5,
Converting the equation of the first curved surface into an equation of a second curved surface consisting of the second coordinate on the coordinate system of the projected image plane and the parameter and the predicted depth variable,
Transforming the first coordinate on the three-dimensional camera coordinate system into the second coordinate on the two-dimensional image plane, and converting the equation (1) into the equation (2)
A method for processing depth images through concave surface modeling.
&Quot; (2) "
Figure 112018038723567-pat00033

h and w are the vertical and horizontal coordinates of the image plane, f is the focal length, and d is the predicted depth variable.
제1 항에 있어서,
상기 예측깊이변수와 상기 제2 좌표에 대응하는 깊이 영상의 화소의 측정깊이값에 기초하여 상기 매개변수의 값을 결정하고 상기 곡면의 인자를 생성하는 단계는,
상기 예측깊이변수와 상기 측정깊이값의 차이가 최소가 되도록 하는 상기 매개변수의 값을 결정하는
오목면 모델링을 통한 깊이 영상의 처리 방법.
The method according to claim 1,
Determining the value of the parameter based on the predicted depth variable and the measured depth value of the pixel of the depth image corresponding to the second coordinate and generating the parameter of the curved surface,
Determining a value of the parameter that minimizes the difference between the predicted depth variable and the measured depth value
A method for processing depth images through concave surface modeling.
제1 항에 있어서,
상기 예측깊이변수와 상기 측정깊이값 간의 오차 및 상기 깊이 영상의 크기에 기초하여 화소들의 깊이 값의 보정 여부를 판단하고, 판단 결과에 기초하여 화소들의 깊이 값을 상기 예측깊이값으로 보정하는 단계;를 더 포함하는
오목면 모델링을 통한 깊이 영상의 처리 방법.
The method according to claim 1,
Determining whether the depth value of the pixels is corrected based on the error between the predicted depth variable and the measured depth value and the size of the depth image, and correcting the depth value of the pixels to the predicted depth value based on the determination result; Further comprising
A method for processing depth images through concave surface modeling.
명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서,
상기 명령어들은 적어도 하나의 프로세서로 하여금 동작들을 수행하게 하기 위해 상기 프로세서에 의해 실행가능하고,
상기 동작들은:
카메라 좌표계 상의 제1 좌표와 매개변수로 이루어진 제1 곡면의 방정식을 모델링하고,
상기 제1 곡면의 방정식을 상기 제1 좌표가 투영된 영상 평면의 좌표계 상의 제2 좌표와 상기 매개변수 및 예측깊이변수로 이루어진 제2 곡면의 방정식으로 변환하고,
상기 예측깊이변수와 상기 제2 좌표에 대응하는 깊이 영상의 화소의 측정깊이값에 기초하여 상기 매개변수의 값을 결정하고 상기 곡면의 인자를 생성하고,
상기 곡면의 인자 그리고 상기 깊이 영상의 화소의 위치 정보와 측정깊이값에 기초하여 상기 예측깊이변수의 값을 결정하고 예측깊이값을 생성하는 것을 포함하는
비일시적 컴퓨터 판독가능 매체.
17. A non-transitory computer readable medium storing instructions,
Wherein the instructions are executable by the processor to cause at least one processor to perform operations,
The operations include:
Modeling an equation of a first curved surface consisting of a first coordinate and a parameter on a camera coordinate system,
Transforming the equation of the first curved surface into an equation of a second curved surface composed of a second coordinate on the coordinate system of the projected image plane and the parameter and the predicted depth variable,
Determining a value of the parameter based on the predicted depth variable and a measured depth value of a pixel of the depth image corresponding to the second coordinate, generating a factor of the curved surface,
Determining a value of the predicted depth variable based on the parameter of the curved surface, the position information of the pixel of the depth image and the measured depth value, and generating a predicted depth value
Non-transitory computer readable medium.
제9 항에 있어서,
상기 동작들은,
상기 깊이 영상의 화소들의 깊이 값을 상기 예측깊이값으로 보정 또는
상기 예측깊이값과 상기 측정깊이값의 차이에 기초하여 상기 깊이 영상을 부호화하는 것을 포함하는
비일시적 컴퓨터 판독가능 매체.
10. The method of claim 9,
The operations include,
The depth value of the pixels of the depth image is corrected to the predicted depth value or
And encoding the depth image based on a difference between the predicted depth value and the measured depth value
Non-transitory computer readable medium.
적어도 하나의 메모리; 및
적어도 하나의 프로세서;를 포함하고,
상기 적어도 하나의 프로세서는
카메라 좌표계 상의 제1 좌표와 매개변수로 이루어진 제1 곡면의 방정식을 모델링하고,
상기 제1 곡면의 방정식을 상기 제1 좌표가 투영된 영상 평면의 좌표계 상의 제2 좌표와 상기 매개변수 및 예측깊이변수로 이루어진 제2 곡면의 방정식으로 변환하고,
상기 예측깊이변수와 상기 제2 좌표에 대응하는 깊이 영상의 화소의 측정깊이값에 기초하여 상기 매개변수의 값을 결정하고 상기 곡면의 인자를 생성하고,
상기 곡면의 인자 그리고 상기 깊이 영상의 화소의 위치 정보와 측정깊이값에 기초하여 상기 예측깊이변수의 값을 결정하고 예측깊이값을 생성하도록 구성되는
오목면 모델링을 통한 깊이 영상의 처리 장치.
At least one memory; And
At least one processor,
The at least one processor
Modeling an equation of a first curved surface consisting of a first coordinate and a parameter on a camera coordinate system,
Transforming the equation of the first curved surface into an equation of a second curved surface composed of a second coordinate on the coordinate system of the projected image plane and the parameter and the predicted depth variable,
Determining a value of the parameter based on the predicted depth variable and a measured depth value of a pixel of the depth image corresponding to the second coordinate, generating a factor of the curved surface,
And determining a value of the predicted depth variable based on position information of the pixel of the depth image and a measured depth value and generating a predicted depth value
An apparatus for processing depth images through concave surface modeling.
제11 항에 있어서,
상기 프로세서는,
상기 깊이 영상의 화소들의 깊이 값을 상기 예측깊이값으로 보정 또는
기 예측깊이값과 상기 측정깊이값의 차이에 기초하여 상기 깊이 영상을 부호화하도록 구성되는
오목면 모델링을 통한 깊이 영상의 처리 장치.
12. The method of claim 11,
The processor comprising:
The depth value of the pixels of the depth image is corrected to the predicted depth value or
And to code the depth image based on a difference between the prediction depth value and the measurement depth value
An apparatus for processing depth images through concave surface modeling.
KR1020170063052A 2017-05-22 2017-05-22 VIDEO PROCESSING Device and Method For Depth Video by Concave Curved Surface Modeling KR101904125B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170063052A KR101904125B1 (en) 2017-05-22 2017-05-22 VIDEO PROCESSING Device and Method For Depth Video by Concave Curved Surface Modeling

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170063052A KR101904125B1 (en) 2017-05-22 2017-05-22 VIDEO PROCESSING Device and Method For Depth Video by Concave Curved Surface Modeling

Publications (1)

Publication Number Publication Date
KR101904125B1 true KR101904125B1 (en) 2018-10-04

Family

ID=63862638

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170063052A KR101904125B1 (en) 2017-05-22 2017-05-22 VIDEO PROCESSING Device and Method For Depth Video by Concave Curved Surface Modeling

Country Status (1)

Country Link
KR (1) KR101904125B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110047117A (en) * 2019-04-18 2019-07-23 武汉轻工大学 Method for drafting, device, equipment and the storage medium of curved surface figure
KR20210027768A (en) * 2019-09-03 2021-03-11 동의대학교 산학협력단 VIDEO PROCESSING Device and Method For Depth Video by Surface Modeling, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014085351A (en) 2012-10-23 2014-05-12 Electronics And Telecommunications Research Institute Depth image correction device and method based on relation between depth sensor and image capturing camera

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014085351A (en) 2012-10-23 2014-05-12 Electronics And Telecommunications Research Institute Depth image correction device and method based on relation between depth sensor and image capturing camera

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110047117A (en) * 2019-04-18 2019-07-23 武汉轻工大学 Method for drafting, device, equipment and the storage medium of curved surface figure
CN110047117B (en) * 2019-04-18 2023-03-17 武汉轻工大学 Method, device and equipment for drawing curved surface graph and storage medium
KR20210027768A (en) * 2019-09-03 2021-03-11 동의대학교 산학협력단 VIDEO PROCESSING Device and Method For Depth Video by Surface Modeling, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM
KR102231759B1 (en) * 2019-09-03 2021-03-23 동의대학교 산학협력단 VIDEO PROCESSING Device and Method For Depth Video by Surface Modeling, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM

Similar Documents

Publication Publication Date Title
US11501507B2 (en) Motion compensation of geometry information
KR101904120B1 (en) VIDEO PROCESSING Device and Method For Depth Video by Eclipse Surface Modeling
US8755630B2 (en) Object pose recognition apparatus and object pose recognition method using the same
KR102080694B1 (en) Method and Device of Motion Estimation for Depth Video Coding by curved surface Modeling, and NON-TRANSITORY COMPUTER READABLE RECORDING MEDIUM
US10165248B2 (en) Optimization method of image depth information and image processing apparatus
KR101865826B1 (en) Intra Prediction Coding Method and Device for Depth Image
JP2017050864A (en) Methods, systems and apparatus for over-exposure correction
KR20120072245A (en) Apparatus and method for stereo matching
EP2221763A1 (en) Image generation method, device, its program and recording medium stored with program
KR102013372B1 (en) Apparatus and method of image saliency map
Steffens et al. Cnn based image restoration: Adjusting ill-exposed srgb images in post-processing
KR101904125B1 (en) VIDEO PROCESSING Device and Method For Depth Video by Concave Curved Surface Modeling
KR102122905B1 (en) Luminance Correction Method for Stereo Images using Histogram Interval Calibration and Recording medium use to the Method
KR102074929B1 (en) METHOD AND DEVICE FOR DETECTING PLANE AREA USING DEPTH IMAGE, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM
JP2011250013A (en) Image quality evaluation method, image quality evaluation apparatus, and program
KR101906173B1 (en) Method and Device of Zoom Motion Estimation for Depth Video
KR102098322B1 (en) Method and Device of Motion Estimation for Depth Video Coding by Plane Modeling, and NON-TRANSITORY COMPUTER READABLE RECORDING MEDIUM
KR101904108B1 (en) Variable Block Coding Method and device for Depth Video by Plane Modeling
KR102224272B1 (en) METHOD AND DEVICE FOR DETECTING PLANAR SURFACE USING DEPTH IMAGE, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM
KR102231759B1 (en) VIDEO PROCESSING Device and Method For Depth Video by Surface Modeling, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM
KR102224315B1 (en) Intra Prediction Coding Method and Device for Depth Image
KR102262030B1 (en) VIDEO PROCESSING Device and Method For Depth Video by Spherical Modeling, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM
KR102224321B1 (en) Coding Method and Device for Depth Video Plane Modeling
JP2020170550A (en) Image processing device, camera, image processing method, and program
KR102329383B1 (en) Method, Device And Non-Transitory Computer Readable Recording Medium For Depth Picture Encoding Using Plane Modeling Coefficient Prediction

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant