KR20140052824A - Apparatus and method for calibrating depth image based on depth sensor-color camera relations - Google Patents

Apparatus and method for calibrating depth image based on depth sensor-color camera relations Download PDF

Info

Publication number
KR20140052824A
KR20140052824A KR1020130105538A KR20130105538A KR20140052824A KR 20140052824 A KR20140052824 A KR 20140052824A KR 1020130105538 A KR1020130105538 A KR 1020130105538A KR 20130105538 A KR20130105538 A KR 20130105538A KR 20140052824 A KR20140052824 A KR 20140052824A
Authority
KR
South Korea
Prior art keywords
image
depth image
depth
equation
correction information
Prior art date
Application number
KR1020130105538A
Other languages
Korean (ko)
Other versions
KR101770866B1 (en
Inventor
김재헌
추창우
박일규
차영미
최진성
구본기
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to JP2013219327A priority Critical patent/JP6359259B2/en
Priority to US14/059,685 priority patent/US9147249B2/en
Publication of KR20140052824A publication Critical patent/KR20140052824A/en
Application granted granted Critical
Publication of KR101770866B1 publication Critical patent/KR101770866B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • G06T5/80
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras

Abstract

Disclosed is a method for calibrating a depth image based on the relationship between a depth sensor and a photographing camera. A depth image calibrating apparatus comprises a 3D point determiner for determining a 3D point of a camera image and a 3D point of a depth image simultaneously captured with the camera image; a calibration information determiner for determining calibration information in order to calibrate an error of a depth sensor photographing the depth image and the geometric relationship between the depth sensor and a photographing camera, by using the 3D point of the camera image and the 3D point of the depth image; and a depth image calibrator for calibrating the depth image based on the calibration information and the 3D point of the depth image.

Description

뎁스 센서와 촬영 카메라 간의 관계에 기초한 뎁스 영상 보정 장치 및 방법{APPARATUS AND METHOD FOR CALIBRATING DEPTH IMAGE BASED ON DEPTH SENSOR-COLOR CAMERA RELATIONS}TECHNICAL FIELD [0001] The present invention relates to a depth image correcting apparatus and method based on a relationship between a depth sensor and a photographing camera,

본 발명은 뎁스 영상을 보정하는 장치 및 방법에 관한 것으로, 보다 상세하게는 뎁스 센서와 촬영 카메라 간의 관계에 기초하여 뎁스 영상을 보정하는 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for correcting a depth image, and more particularly, to an apparatus and method for correcting a depth image based on a relationship between a depth sensor and a photographing camera.

마이크로소프트의 키넥트와 같이 구조광을 이용하여 삼각 측량하는 뎁스 센서는 생산시의 조립 공차 및 광학 부분의 오차에 의해 최종 사용자가 사용하게 될 때 오차를 내포한 결과를 얻을 수 있다.Depth sensors that triangulate using structured light, such as Microsoft's Kinect, can result in errors when they are used by the end user due to assembly tolerances in manufacturing and errors in the optics.

또한, 뎁스 센서와 촬영 카메라를 같이 사용하여 대상의 텍스처를 동시에 추출할 때에는 뎁스 센서와 카메라 사이의 기하학적인 기하 관계를 구해야 한다. 상기 기하 관계를 정밀하게 구하지 않는 경우, 3차원 복원되는 대상에 대한 텍스처 정보에 오류가 발생하게 된다.In addition, when extracting the texture of the object simultaneously using the depth sensor and the photographing camera, the geometric relationship between the depth sensor and the camera must be obtained. If the geometric relationship is not precisely determined, an error occurs in the texture information about the object to be reconstructed three-dimensionally.

종래의 뎁스 영상 보정 장치는 뎁스 센서가 측정한 뎁스 영상을 기초로 촬영 카메라와의 기하관계를 구하고 있으므로, 종래의 뎁스 영상 보정 장치가 보정한 뎁스 영상은 뎁스 센서에 포함된 오차에 따른 오차를 포함할 수 있다.Since the conventional depth image correction apparatus obtains the geometrical relationship with the photographing camera based on the depth image measured by the depth sensor, the depth image corrected by the conventional depth image correcting apparatus includes the error according to the error included in the depth sensor can do.

따라서, 뎁스 센서의 오차를 보정하며, 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 구하여 뎁스 영상을 보정하는 방법이 요청되고 있다.Therefore, there is a demand for a method of correcting an error of a depth sensor and correcting a depth image by obtaining a geometric relationship between a depth sensor and a photographing camera.

본 발명은 대상과의 거리를 측정하는 뎁스 센서와 대상을 촬영하는 촬영 카메라를 동시에 이용하여 뎁스 영상을 보정할 경우, 뎁스 센서의 부 정확도를 개선하며, 뎁스 센서와 촬영 카메라 간의 기하관계를 보정하는 장치 및 방법을 제공할 수 있다.The present invention improves the accuracy of the depth sensor when the depth image is corrected using the depth sensor for measuring the distance to the object and the photographing camera for photographing the object simultaneously and corrects the geometric relationship between the depth sensor and the photographing camera Apparatus and method.

본 발명의 일실시예에 따른 뎁스 영상 보정 장치는 카메라 영상의 3차원 상의 점과 상기 카메라 영상과 동시에 촬영된 뎁스 영상의 3차원 상의 점을 결정하는 3차원 점 결정부; 상기 카메라 영상의 3차원 상의 점과 상기 뎁스 영상의 3차원 상의 점을 이용하여 상기 뎁스 영상을 촬영한 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정하는 보정 정보 결정부; 및 상기 보정 정보를 기초로 하여 상기 뎁스 영상의 3차원 상의 점을 카메라 좌표계로 옮기는 뎁스 영상 보정부를 포함할 수 있다.The depth image correction apparatus according to an embodiment of the present invention includes a three-dimensional point determiner for determining a three-dimensional point of a camera image and a three-dimensional point of a depth image photographed simultaneously with the camera image; Determining a correction information for correcting an error of the depth sensor that captures the depth image and a geometric geometric relationship between the depth sensor and the photographing camera using a point on the three-dimensional image of the camera image and a point on the three- A correction information determination unit for determining a correction information; And a depth image correction unit for shifting the three-dimensional point of the depth image to a camera coordinate system based on the correction information.

본 발명의 일실시예에 따른 뎁스 영상 보정 장치의 3차원 점 결정부는 상기 카메라 영상을 자체 보정하고, 상기 카메라 영상을 자체 보정하기 위하여 이용한 카메라 영상 특징 점의 3차원 상의 점을 상기 카메라 영상의 3차원 점으로 결정할 수 있다. The three-dimensional point determination unit of the depth image correction apparatus according to an embodiment of the present invention self-corrects the camera image, and a point on the three-dimensional image of the camera image feature point used for self-correction of the camera image is divided into three It can be decided by the dimension point.

본 발명의 일실시예에 따른 뎁스 영상 보정 장치의 3차원 점 결정부는 상기 뎁스 영상에서 상기 카메라 영상 특징 점에 대응하는 뎁스 영상 특징 점을 추출하고, 추출한 뎁스 영상 특징 점에 대응하는 3차원 상의 점을 상기 뎁스 영상의 3차원 점으로 결정할 수 있다.The three-dimensional point determination unit of the depth image correction apparatus according to an exemplary embodiment of the present invention extracts a depth image feature point corresponding to the camera image feature point from the depth image, Dimensional point of the depth image.

본 발명의 일실시예에 따른 뎁스 영상 보정 장치의 보정 정보 결정부는 상기 카메라 영상의 3차원 점과 상기 뎁스 영상의 3차원 점을 이용하여 수학식 1, 수학식 2, 및 수학식 3을 생성할 수 있다.The correction information determination unit of the depth image correction apparatus according to an exemplary embodiment of the present invention generates Equation 1, Equation 2, and Equation 3 using the three-dimensional point of the camera image and the three-dimensional point of the depth image .

본 발명의 일실시예에 따른 뎁스 영상 보정 장치의 뎁스 영상 보정부는 상기 보정 정보를 초기값으로 하는 비용 함수를 정의하고, 정의한 비용 함수를 최소화하는 비선형 최적화 과정을 수행하여 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정할 수 있다.The depth image correction unit of the depth image correction apparatus according to an exemplary embodiment of the present invention defines a cost function having an initial value of the correction information and performs a nonlinear optimization process to minimize a defined cost function to calculate an error of a depth sensor, It is possible to correct the geometric relationship between the photographing camera and the photographing camera.

본 발명의 일실시예에 따른 뎁스 영상 보정 장치는 촬영 카메라가 복원한 패턴 면의 방정식과, 뎁스 센서가 복원한 패턴 면의 방정식을 이용하여 상기 뎁스 영상을 촬영한 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정하는 보정 정보 결정부; 및 상기 보정 정보를 기초로 하여 상기 뎁스 영상의 3차원 상의 점을 카메라 좌표계로 옮기는 뎁스 영상 보정부를 포함할 수 있다.The depth image correcting apparatus according to an embodiment of the present invention corrects the depth image of the depth image by using the equation of the pattern surface restored by the photographing camera and the equation of the pattern surface restored by the depth sensor, A correction information determination unit for determining correction information for correcting the geometrical relationship between the photographing cameras; And a depth image correction unit for shifting the three-dimensional point of the depth image to a camera coordinate system based on the correction information.

본 발명의 일실시예에 따른 뎁스 영상 보정 장치의 보정 정보 결정부는 촬영 카메라가 복원한 패턴 면의 방정식이 수학식 5이고, 뎁스 센서가 복원한 패턴 면의 방정식이 수학식 6인 경우, 수학식 5와 수학식 6을 기초로 수학식 7, 수학식 8, 및 수학식 9를 생성할 수 있다.The correction information determination unit of the depth image correction apparatus according to an embodiment of the present invention may be configured such that the equation of the pattern surface restored by the photographing camera is Equation 5 and the equation of the pattern surface restored by the depth sensor is Equation 6, (7), (8), and (9) based on Equation (5) and Equation (6).

본 발명의 일실시예에 따른 뎁스 영상 보정 장치의 보정 정보 결정부는 상기 보정 정보가 포함된 행렬 H의 역전치 행렬인 행렬 L에 포함된 인자를 상기 수학식 1, 수학식 2, 및 수학식 3에 포함된 보정 정보와 교체하여 상기 뎁스 영상의 좌표와 상기 카메라 좌표 간의 관계 정보를 결정할 수 있다.The correction information determination unit of the depth image correction apparatus according to an exemplary embodiment of the present invention calculates a factor included in the matrix L, which is the inverse matrix of the matrix H including the correction information, according to Equation 1, Equation 2, and Equation 3 The relationship information between the coordinates of the depth image and the camera coordinates can be determined by replacing the correction information included in the depth image.

본 발명의 일실시예에 따른 영상 보정 방법은 카메라 영상의 3차원 상의 점과 상기 카메라 영상과 동시에 촬영된 뎁스 영상의 3차원 상의 점을 결정하는 단계; 상기 카메라 영상의 3차원 상의 점과 상기 뎁스 영상의 3차원 상의 점을 이용하여 상기 뎁스 영상을 촬영한 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정하는 단계; 및 상기 보정 정보를 기초로 하여 상기 뎁스 영상의 3차원 상의 점을 카메라 좌표계로 옮기는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method of correcting an image, comprising: determining a three-dimensional point of a camera image and a three-dimensional point of a depth image photographed simultaneously with the camera image; Determining a correction information for correcting an error of the depth sensor that captures the depth image and a geometric geometric relationship between the depth sensor and the photographing camera using a point on the three-dimensional image of the camera image and a point on the three- ; And moving the three-dimensional point of the depth image to the camera coordinate system based on the correction information.

본 발명의 일실시예에 따른 뎁스 영상 보정 장치는 촬영 카메라가 복원한 패턴 면의 방정식과, 뎁스 센서가 복원한 패턴 면의 방정식을 이용하여 상기 뎁스 영상을 촬영한 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정하는 단계; 및 상기 보정 정보를 기초로 하여 상기 뎁스 영상의 3차원 상의 점을 카메라 좌표계로 옮기는 단계를 포함할 수 있다.The depth image correcting apparatus according to an embodiment of the present invention corrects the depth image of the depth image by using the equation of the pattern surface restored by the photographing camera and the equation of the pattern surface restored by the depth sensor, Determining correction information for correcting the geometric relationship between the photographing cameras; And moving the three-dimensional point of the depth image to the camera coordinate system based on the correction information.

본 발명의 일실시예에 따르면, 카메라 영상의 3차원 상의 점과 상기 카메라 영상과 동시에 촬영된 뎁스 영상의 3차원 상의 점을 이용하여 상기 뎁스 영상을 촬영한 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정함으로써, 정밀한 뎁스 영상의 획득이 가능하다According to an embodiment of the present invention, an error of a depth sensor that captures the depth image using a point on a three-dimensional image of the camera image and a three-dimensional point of the depth image captured simultaneously with the camera image, It is possible to acquire a precise depth image by correcting the geometrical relationship between

도 1은 본 발명의 일실시예에 따른 뎁스 영상 보정 장치와 다른 장치들 간의 관계를 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 보정용 패턴의 일례이다.
도 3은 본 발명의 일실시예에 따른 뎁스 영상 및 카메라 영상의 일례이다.
도 4는 본 발명의 일실시예에 따른 뎁스 영상 보정 장치를 나타내는 도면이다.
도 5는 본 발명의 일실시예에 따른 뎁스 영상 보정 장치가 뎁스 영상의 특징 점과 카메라 영상의 특징 점을 매칭하는 과정의 일례이다.
도 6은 본 발명의 일실시예에 따른 영상 보정 방법을 도시한 플로우차트이다.
도 7은 본 발명의 일실시예에 따른 영상 보정 방법의 다른 일례를 도시한 플로우차트이다.
1 is a diagram illustrating a relationship between a depth image correction apparatus and other apparatuses according to an exemplary embodiment of the present invention.
2 is an example of a correction pattern according to an embodiment of the present invention.
3 is an example of a depth image and a camera image according to an embodiment of the present invention.
4 is a diagram illustrating a depth image correction apparatus according to an embodiment of the present invention.
5 is an example of a process of matching a feature point of a depth image and a feature point of a camera image according to an embodiment of the present invention.
6 is a flowchart illustrating an image correction method according to an embodiment of the present invention.
7 is a flowchart showing another example of the image correction method according to an embodiment of the present invention.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 본 발명의 일실시예에 따른 영상 보정 방법은 뎁스 영상 보정 장치에 의해 수행될 수 있다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. An image correction method according to an embodiment of the present invention may be performed by a depth image correction apparatus.

도 1은 본 발명의 일실시예에 따른 뎁스 영상 보정 장치와 다른 장치들 간의 관계를 나타내는 도면이다. 1 is a diagram illustrating a relationship between a depth image correction apparatus and other apparatuses according to an exemplary embodiment of the present invention.

촬영 카메라(120)는 보정용 패턴(110)을 촬영하여 보정용 패턴의 포함된 카메라 영상을 생성할 수 있다. 이때, 보정용 패턴(110)는 촬영 카메라(120)과 뎁스 센서(130) 간의 기하학적 관계를 용이하게 식별할 수 있도록 표면에 복수의 표시가 형성된 3차원 오브젝트일 수 있다.The photographing camera 120 may photograph the correction pattern 110 to generate a camera image including the correction pattern. At this time, the correction pattern 110 may be a three-dimensional object having a plurality of marks formed on the surface thereof so that the geometric relationship between the photographing camera 120 and the depth sensor 130 can be easily identified.

보정용 패턴(110)의 형태는 이하 도 2를 참조하여 상세히 설명한다.The shape of the correction pattern 110 will be described in detail below with reference to FIG.

또한, 뎁스 센서(130)는 촬영 카메라(120)와 동시에 보정용 패턴(110)을 촬영하여 뎁스 영상을 생성할 수 있다. 이때, 뎁스 센서(130)는 구조광을 이용하여 보정용 패턴(110)과 뎁스 센서(130)간의 거리를 삼각 측량하고, 측량한 거리를 기초로 뎁스 영상을 생성할 수 있다.In addition, the depth sensor 130 can simultaneously generate the depth image by photographing the correction pattern 110 at the same time as the photographing camera 120. At this time, the depth sensor 130 can triangulate the distance between the correction pattern 110 and the depth sensor 130 using the structured light, and generate the depth image based on the measured distance.

그리고, 촬영 카메라(120)와 뎁스 센서(130)는 영상 보정 방법에 따라 각각 복수의 카메라 영상과 뎁스 영상을 생성하여 뎁스 영상 보정 장치(100)로 전송할 수도 있다.The photographing camera 120 and the depth sensor 130 may generate a plurality of camera images and depth images, respectively, according to the image correction method, and transmit the camera images and the depth images to the depth image correction device 100.

뎁스 영상 보정 장치(100)는 뎁스 센서(130)로부터 수신한 뎁스 영상 및 촬영 카메라(120)로부터 수신한 카메라 영상을 이용하여 촬영 카메라(120)과 뎁스 센서(130) 간의 기하학적 관계를 식별하고, 식별한 관계를 기초로 뎁스 영상을 보정할 수 있다.
The depth image correction apparatus 100 identifies a geometric relationship between the photographing camera 120 and the depth sensor 130 by using the depth image received from the depth sensor 130 and the camera image received from the photographing camera 120, The depth image can be corrected based on the identified relationship.

도 2는 본 발명의 일실시예에 따른 보정용 패턴의 일례이다.2 is an example of a correction pattern according to an embodiment of the present invention.

본 발명의 일실시예에서 촬영 카메라(120)와 뎁스 센서(130)가 촬영하는 보정용 패턴(110)는 도 2에 도시된 바와 같이 각 면이 정사각형인 다면체(200)이며, 각 면에 복수의 원(210)이 그려져 있을 수 있다. The correction pattern 110 captured by the photographic camera 120 and the depth sensor 130 in the embodiment of the present invention is a polyhedron 200 having square surfaces on each side as shown in FIG. The circle 210 may be drawn.

이때, 뎁스 영상 보정 장치(100)는 보정용 패턴(110)의 각 면에서 원(210)의 위치에 기초하여 뎁스 영상에 포함된 보정용 패턴(110)과 카메라 영상에 포함된 보정용 패턴(110)을 매칭하고, 매칭 결과에 기초하여 촬영 카메라(120)과 뎁스 센서(130) 간의 기하학적 관계를 식별할 수 있다.
At this time, the depth image correction apparatus 100 corrects the correction pattern 110 included in the depth image and the correction pattern 110 included in the camera image based on the position of the circle 210 on each surface of the correction pattern 110 And can identify the geometric relationship between the photographing camera 120 and the depth sensor 130 based on the matching result.

도 3은 본 발명의 일실시예에 따른 뎁스 영상 및 카메라 영상의 일례이다.3 is an example of a depth image and a camera image according to an embodiment of the present invention.

뎁스 센서(130)와 촬영 카메라(120)는 영상 보정 방법에 따라 각각 적어도 하나의 뎁스 영상(310)과 카메라 영상(320)를 생성하여 뎁스 영상 보정 장치(100)로 전송할 수도 있다.The depth sensor 130 and the photographing camera 120 may generate at least one depth image 310 and a camera image 320 according to the image correction method and transmit the generated depth image 310 and the camera image 320 to the depth image correction apparatus 100, respectively.

이때, 뎁스 영상(310)과 카메라 영상(320)는 각각 뎁스 센서(130)와 촬영 카메라(120)가 동일한 보정용 패턴(110)을 촬영하여 생성한 영상이다. 그러나, 촬영 카메라(120)과 뎁스 센서(130) 간의 기하학적 관계에 따라 도 3에 도시된 바와 같이 뎁스 영상(310)에 포함된 보정용 패턴(110)과 카메라 영상(320)에 포함된 보정용 패턴(110)은 크기 및 각도에 차이가 있을 수 있다.
The depth image 310 and the camera image 320 are generated by photographing the same correction pattern 110 by the depth sensor 130 and the photographing camera 120, respectively. 3, the correction pattern 110 included in the depth image 310 and the correction pattern 110 included in the camera image 320 (see FIG. 3), which correspond to the geometric relationship between the camera 120 and the depth sensor 130, 110 may have different sizes and angles.

도 4는 본 발명의 일실시예에 따른 뎁스 영상 보정 장치를 나타내는 도면이다. 4 is a diagram illustrating a depth image correction apparatus according to an embodiment of the present invention.

도 4를 참고하면, 본 발명의 일실시예에 따른 뎁스 영상 보정 장치(100)는 3차원 점 결정부(410), 보정 정보 결정부(420), 및 뎁스 영상 보정부(430)를 포함할 수 있다.4, the depth image correction apparatus 100 according to an exemplary embodiment of the present invention includes a 3D point determination unit 410, a correction information determination unit 420, and a depth image correction unit 430 .

3차원 점 결정부(410)는 카메라 영상의 3차원 상의 점과 카메라 영상과 동시에 촬영된 뎁스 영상의 3차원 상의 점을 결정할 수 있다.The three-dimensional point determination unit 410 can determine a three-dimensional point of the camera image and a three-dimensional point of the depth image photographed simultaneously with the camera image.

이때, 3차원 점 결정부(410)는 카메라 영상을 자체 보정하고, 카메라 영상을 자체 보정하기 위하여 이용한 카메라 영상 특징 점의 3차원 상의 점을 카메라 영상의 3차원 점으로 결정할 수 있다. 이때, 3차원 점 결정부(410)는 카메라 보정 분야에서 사용하는 방법 중 하나를 선택하여 카메라 영상을 자체 보정할 수 있다. 그리고, 3차원 점 결정부(410)는 카메라 영상 특징 점의 3차원 상의 점을 (X, Y, Z)로 정의할 수 있다.At this time, the three-dimensional point determining unit 410 can self-correct the camera image and determine the three-dimensional point of the camera image feature point used for the self-correction of the camera image as the three-dimensional point of the camera image. At this time, the three-dimensional point determination unit 410 can select one of the methods used in the field of camera correction to correct the camera image itself. The three-dimensional point determination unit 410 may define a three-dimensional point on the camera image feature point as (X, Y, Z).

또한, 3차원 점 결정부(410)는 뎁스 영상에서 카메라 영상 특징 점에 대응하는 뎁스 영상 특징 점을 추출하고, 추출한 뎁스 영상 특징 점에 대응하는 3차원 상의 점을 뎁스 영상의 3차원 점으로 결정할 수 있다. 이때, 3차원 점 결정부(410)는 뎁스 영상 특징 점의 3차원 상의 점을 (X', Y', Z')로 정의할 수 있다.The three-dimensional point determination unit 410 extracts a depth image feature point corresponding to the camera image feature point from the depth image, and determines a three-dimensional point corresponding to the extracted depth image feature point as a three-dimensional point of the depth image . At this time, the three-dimensional point determining unit 410 may define a three-dimensional point on the depth image characteristic point as (X ', Y', Z ').

보정 정보 결정부(420)는 카메라 영상의 3차원 상의 점과 뎁스 영상의 3차원 상의 점을 이용하여 뎁스 센서(130)의 오차와 뎁스 센서(130)와 촬영 카메라(120) 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정할 수 있다.The correction information determination unit 420 determines the error of the depth sensor 130 and the geometric geometry between the depth sensor 130 and the photographing camera 120 using the point on the 3D image of the camera image and the point on the 3D image of the depth image, The correction information for correcting the relationship can be determined.

예를 들어, 보정 정보 결정부(420)는 3차원 점 결정부(410)가 결정한 카메라 영상의 3차원 점과 뎁스 영상의 3차원 점을 이용하여 수학식 1, 수학식 2, 수학식 3을 동시에 생성할 수 있다.For example, the correction information determination unit 420 determines the correction information by using Equation 1, Equation 2, and Equation 3 using the three-dimensional point of the camera image determined by the three-dimensional point determination unit 410 and the three- Can be created at the same time.

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

Figure pat00003
Figure pat00003

그리고 보정 정보 결정부(420)는 카메라 영상과, 뎁스 영상에서 서로 대응하는 모든 대응점에 대해 수학식 1, 수학식 2, 수학식 3을 동시에 생성하고, 생성한 수학식 1, 수학식 2, 수학식 3을 행렬의 형태로 표현하면 수학식 4와 같은 동차 방정식을 생성할 수 있다.Then, the correction information determination unit 420 simultaneously generates Equation 1, Equation 2, and Equation 3 for all corresponding points in the camera image and the depth image, and outputs the generated Equations 1, 2, Equation (3) can be expressed in the form of a matrix to generate a homogeneous equation as shown in Equation (4).

Figure pat00004
Figure pat00004

이때, h는 변수(H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)으로 구성된 열 벡터일 수 있다. Here, h is a variable (H 11 H 12 H 13 H 14 H 21 H 22 H 23 H 24 H 31 H 32 H 33 H 34 H 41 H 42 H 43 H 44 ).

또한, A는 카메라 영상 특징 점의 3차원 상의 점 (X, Y, Z)과 뎁스 영상 특징 점의 3차원 상의 점 (X', Y', Z')들로 구성된 3m X 16 행렬일 수 있다. Also, A may be a 3m X 16 matrix composed of points (X, Y, Z) on the three-dimensional plane of the camera image feature point and points (X ', Y', Z ') on the three-dimensional plane of the depth image feature point .

이때, m은 카메라 영상, 또는 뎁스 영상에 포함된 3차원 상의 점의 개수이다. 구체적으로, 뎁스 영상 특징 점의 3차원 상의 점은 상기 카메라 영상 특징 점에 대응하는 뎁스 영상 특징 점에 따라 결정되므로, 카메라 영상에 포함된 카메라 영상 특징 점의 3차원 상의 점의 개수와 뎁스 영상에 포함된 뎁스 영상 특징 점의 3차원 상의 점의 개수는 동일할 수 있다. 따라서, 보정 정보 결정부(420)는 카메라 영상에 포함된 3차원 상의 점의 개수, 또는 뎁스 영상에 포함된 3차원 상의 점의 개수 중 하나를 선택하여 m으로 설정할 수 있다.Here, m is the number of points on the three-dimensional image included in the camera image or the depth image. Specifically, since the three-dimensional point of the depth image feature point is determined according to the depth image feature point corresponding to the camera image feature point, the number of points on the three-dimensional image of the camera image feature point included in the camera image, The number of points on the three-dimensional image of the included depth image feature point may be the same. Therefore, the correction information determination unit 420 can select one of the number of points on the three-dimensional image included in the camera image, or the number of points on the three-dimensional image included in the depth image, and set it as m.

보정 정보 결정부(420)는 수학식 4로 h에 포함된 변수의 값들을 계산하고, 계산한 변수의 값들을 보정 정보로 결정할 수 있다.The correction information determination unit 420 may calculate the values of the variables included in Equation (4) and determine the values of the calculated variables as correction information.

또한, 보정 정보 결정부(420)는 촬영 카메라(120)가 복원한 패턴 면의 방정식과, 뎁스 센서(130)가 복원한 패턴 면의 방정식을 이용하여 뎁스 영상을 촬영한 뎁스 센서(130)의 오차와 뎁스 센서(130)와 촬영 카메라(120) 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정할 수도 있다.The correction information determination unit 420 determines the depth information of the depth sensor 130 that captures the depth image using the equation of the pattern surface restored by the photographing camera 120 and the equation of the pattern surface restored by the depth sensor 130 The correction information for correcting the geometrical relationship between the error and the depth sensor 130 and the photographing camera 120 may be determined.

예를 들어, 촬영 카메라(120)가 카메라 영상에서 복원한 보정용 패턴(110)의 패턴 면의 방정식이 수학식 5이고, 뎁스 센서(130)가 복원한 보정용 패턴(110)의 패턴 면의 방정식이 수학식 6일 수 있다. For example, when the equation of the pattern surface of the correction pattern 110 obtained by the camera 120 is restored from the camera image is Equation 5 and the equation of the pattern surface of the correction pattern 110 restored by the depth sensor 130 is ≪ / RTI >

Figure pat00005
Figure pat00005

Figure pat00006
Figure pat00006

이때, 보정 정보 결정부(420)는 수학식 1, 수학식 2, 수학식 3을 기초로 수학식 7, 수학식 8, 수학식 9를 생성할 수 있다. 구체적으로, 보정 정보 결정부(420)는 수학식 1, 수학식 2, 수학식 3의 (X, Y, Z)를 (a, b, c)로 변경하고, (X', Y', Z')를 (a', b', c')로 변경하여 수학식 7, 수학식 8, 수학식 9를 생성할 수 있다.At this time, the correction information determination unit 420 may generate Equations (7), (8), and (9) based on Equations (1), (2), and (3). Specifically, the correction information determination unit 420 changes (X, Y, Z) to (a, b, c) in Equations 1, 2, (A ', b', c ') to generate Equations (7), (8), and (9).

Figure pat00007
Figure pat00007

Figure pat00008
Figure pat00008

Figure pat00009
Figure pat00009

그리고, 보정 정보 결정부(420)는 수학식 7, 수학식 8, 수학식 9를 행렬의 형태로 표현하여 수학식 10과 같은 동차 방정식을 생성할 수 있다.The correction information determination unit 420 may generate a homogeneous equation expressed by Equation (10) by expressing Equation (7), Equation (8), and Equation (9) in the form of a matrix.

Figure pat00010
Figure pat00010

이때, h는 변수(H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)으로 구성된 열 벡터일 수 있다.Here, h is a variable (H 11 H 12 H 13 H 14 H 21 H 22 H 23 H 24 H 31 H 32 H 33 H 34 H 41 H 42 H 43 H 44 ).

또한, B는 수학식 5의 (a, b, c)와 수학식 6의 (a', b', c')들로 구성된 3m X 16 행렬일 수 있다. Further, B may be a 3m X 16 matrix composed of (a ', b', c ') and (a', b ', c') of Equation (5).

이때, m은 카메라 영상, 또는 뎁스 영상에서 복원된 패턴 면의 개수이다. 구체적으로, 뎁스 영상에서 복원된 패턴 면은 상기 카메라 영상에서 복원된 패턴 면에 대응하는 뎁스 영상에서 복원된 패턴 면에 따라 결정되므로, 카메라 영상에 포함된 복원된 패턴 면의 개수와 뎁스 영상에 포함된 복원된 패턴 면의 개수는 동일할 수 있다. 따라서, 보정 정보 결정부(420)는 카메라 영상에 포함된 복원된 패턴 면의 개수, 또는 뎁스 영상에 포함된 복원된 패턴 면의 의 개수 중 하나를 선택하여 m으로 설정할 수 있다.Here, m is the number of pattern surfaces reconstructed from the camera image or the depth image. Specifically, since the restored pattern surface in the depth image is determined according to the restored pattern surface in the depth image corresponding to the pattern surface restored in the camera image, the number of restored pattern surfaces included in the camera image is included in the depth image The number of reconstructed pattern planes may be the same. Accordingly, the correction information determination unit 420 may select one of the number of restored pattern planes included in the camera image, or the number of restored pattern planes included in the depth image, and set the selected number as m.

또한, 보정 정보 결정부(420)는 수학식 10의 h를 이용하여 수학식 11의 행렬 H을 구할 수 있다Further, the correction information determination unit 420 can obtain the matrix H of the equation (11) using the equation (10) of equation (10)

Figure pat00011
Figure pat00011

마지막으로 보정 정보 결정부(420)는 수학식 10으로 행렬 H에 포함된 변수의 값들을 계산하고, 계산한 변수의 값들을 보정 정보로 결정할 수 있다. 이때, 행렬 H에 포함된 변수(H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)는 수학식 10의 h에 포함된 변수일 수 있다. 즉, 보정 정보 결정부(420)는 열벡터인 h를 행렬 H의 형태로 변환하고, 변환된 H를 보정 정보로 결정할 수 있다.Finally, the correction information determination unit 420 may calculate the values of the variables included in the matrix H using Equation (10), and determine the values of the calculated parameters as correction information. At this time, the variable H 11 H 12 H 13 H 14 H 21 H 22 H 23 H 24 H 31 H 32 H 33 H 34 H 41 H 42 H 43 H 44 ) may be a variable included in h of Equation (10). That is, the correction information determination unit 420 may convert the column vector h into the matrix H, and determine the converted H as the correction information.

이때, 보정 정보 결정부(420)는 행렬 H의 역전치 행렬인 행렬 L에 포함된 인자를 수학식 1, 수학식 2, 수학식 3에 포함된 보정 정보와 교체하여 뎁스 영상의 좌표와 카메라 좌표 간의 관계 정보를 결정할 수 있다. 예를 들어, 보정 정보 결정부(420)는 수학식 12를 이용하여 행렬 L을 결정할 수 있다.At this time, the correction information determination unit 420 replaces the factor included in the matrix L, which is the inverse matrix of the matrix H, with the correction information included in Equations (1), (2) and (3) Can be determined. For example, the correction information determination unit 420 can determine the matrix L using Equation (12).

Figure pat00012
Figure pat00012

구체적으로, 보정 정보 결정부(420)는 행렬 L의 인자 Lij를 카메라 영상과 Hij 대신 사용하여 점 (X', Y', Z')과 점(X, Y, Z)에 대한 변환 계를 나타내는 관계 정보를 결정할 수 있다.Specifically, the correction information determination unit 420 determines the factor L ij of the matrix L as a camera image and H ij It is possible to determine the relationship information indicating the conversion system for the point (X ', Y', Z ') and the point (X, Y, Z)

뎁스 영상 보정부(430)는 뎁스 영상에 포함된 3차원 상의 점과 보정 정보 결정부(420)가 결정한 보정 정보를 기초로 뎁스 영상을 보정할 수 있다.The depth image correcting unit 430 can correct the depth image based on the three-dimensional point included in the depth image and the correction information determined by the correction information determining unit 420. [

예를 들어, 뎁스 영상에 포함된 3차원상의 점이 (X', Y', Z')인 경우, 뎁스 영상 보정부(430)는 수학식 1, 수학식 2, 수학식 3에 (X', Y', Z')와 보정 정보(H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)를 대입하여 3차원 상의 점(X, Y, Z)를 결정할 수 있다.For example, when the point on the three-dimensional image included in the depth image is (X ', Y', Z '), the depth image correction unit 430 calculates (X' Y ', Z') and correction information (H 11 H 12 H 13 H 14 H 21 H 22 H 23 H 24 H 31 H 32 H 33 H 34 H 41 H 42 H 43 H 44 ) can be substituted to determine the point (X, Y, Z) on the three-dimensional plane.

이때, 뎁스 영상 보정부(430)가 결정한 3차원 상의 점(X, Y, Z)는 촬영 카메라(120)와 뎁스 센서(130)간의 기하 관계에 따른 오차를 보정하면서, 뎁스 영상에 포함된 3차원 상의 점을 카메라 좌표 계로 이동한 값일 수 있다. At this time, the three-dimensional point (X, Y, Z) determined by the depth image correcting unit 430 corrects the error according to the geometrical relationship between the photographing camera 120 and the depth sensor 130, It can be a value that moves the point on the dimension to the camera coordinate system.

즉, 뎁스 영상 보정부(430)는 3차원 상의 점(X, Y, Z)를 결정하고, 촬영 카메라(120)와 뎁스 센서(130) 간의 기하 관계에 따라 보정할 수 있다. That is, the depth image correcting unit 430 can determine the three-dimensional point (X, Y, Z) and correct it according to the geometrical relationship between the photographing camera 120 and the depth sensor 130.

또한, 뎁스 영상 보정부(430)는 보정 정보인 h를 초기값으로 하는 비용 함수를 정의하고, 정의한 비용 함수를 최소화하는 비선형최적화 과정을 수행하여 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보다 정밀하게 보정할 수 있다.In addition, the depth image correction unit 430 defines a cost function that sets the correction information h as an initial value, performs a nonlinear optimization process to minimize the defined cost function, and calculates a geometric error between the depth sensor and the depth sensor Can be corrected more precisely.

예를 들어, 뎁스 영상 보정부(430)는 수학식 13과 같은 비용함수를 정의할 수 있다.For example, the depth image correction unit 430 may define a cost function as shown in Equation (13).

Figure pat00013
Figure pat00013

이때, P=(X, Y, Z) 이고, P"=(X", Y", Z")일 수 있다. 또한, (X", Y", Z")는 (X', Y', Z')를 수학식 1, 수학식 2, 수학식 3에 대입한 결과일 수 있다.
At this time, P = (X, Y, Z) and P "= (X", Y ", Z"). Further, (X ", Y", Z ") may be a result of substituting (X ', Y', Z ') into Equations (1), (2) and (3).

도 5는 본 발명의 일실시예에 따른 뎁스 영상 보정 장치가 뎁스 영상의 특징 점과 카메라 영상의 특징 점을 매칭하는 과정의 일례이다.5 is an example of a process of matching a feature point of a depth image and a feature point of a camera image according to an embodiment of the present invention.

3차원 점 결정부(410)는 카메라 영상(520)을 자체 보정하고, 카메라 영상을 자체 보정하기 위하여 이용한 카메라 영상 특징 점(521)의 3차원 상의 점을 카메라 영상의 3차원 점으로 결정할 수 있다. The three-dimensional point determining unit 410 may correct the camera image 520 and determine a three-dimensional point of the camera image feature point 521 used for self-correction of the camera image as a three-dimensional point of the camera image .

그리고, 3차원 점 결정부(410)는 뎁스 영상(510)에서 카메라 영상 특징 점(521)에 대응하는 뎁스 영상 특징 점(511)을 추출하고, 추출한 뎁스 영상 특징 점(511)에 대응하는 3차원 상의 점을 뎁스 영상의 3차원 점으로 결정할 수 있다.
The 3D point determining unit 410 extracts a depth image feature point 511 corresponding to the camera image feature point 521 in the depth image 510 and extracts the depth image feature point 511 corresponding to the extracted depth image feature point 511 The point on the dimension can be determined as the three-dimensional point of the depth image.

도 6은 본 발명의 일실시예에 따른 영상 보정 방법을 도시한 플로우차트이다.6 is a flowchart illustrating an image correction method according to an embodiment of the present invention.

도 6은 3차원 상의 점을 이용한 영상 보정 방법일 수 있다.6 is an image correction method using three-dimensional points.

단계(610)에서 3차원 점 결정부(410)는 촬영 카메라(120)와 뎁스 센서(130)가 동시에 촬영한 카메라 영상과 뎁스 영상을 수신할 수 있다.In step 610, the three-dimensional point determination unit 410 may receive the camera image and the depth image captured by the imaging camera 120 and the depth sensor 130 at the same time.

단계(620)에서 3차원 점 결정부(410)는 단계(610)에서 수신한 카메라 영상의 3차원 상의 점과 단계(610)에서 수신한 뎁스 영상의 3차원 상의 점을 결정할 수 있다.In step 620, the 3D point determining unit 410 may determine a three-dimensional point on the camera image received in step 610 and a 3D point on the depth image received in step 610.

구체적으로, 3차원 점 결정부(410)는 카메라 영상을 자체 보정하고, 카메라 영상을 자체 보정하기 위하여 이용한 카메라 영상 특징 점의 3차원 상의 점을 카메라 영상의 3차원 점으로 결정할 수 있다. 다음으로, 3차원 점 결정부(410)는 뎁스 영상에서 카메라 영상 특징 점에 대응하는 뎁스 영상 특징 점을 추출하고, 추출한 뎁스 영상 특징 점에 대응하는 3차원 상의 점을 뎁스 영상의 3차원 점으로 결정할 수 있다. Specifically, the three-dimensional point determining unit 410 can self-correct the camera image and determine the three-dimensional point of the camera image feature point used for self-correction of the camera image as the three-dimensional point of the camera image. Next, the three-dimensional point determination unit 410 extracts a depth image feature point corresponding to the camera image feature point from the depth image, and calculates a three-dimensional point corresponding to the extracted depth image feature point as a three- You can decide.

단계(630)에서 보정 정보 결정부(420)는 단계(620)에서 결정한 카메라 영상의 3차원 상의 점과 뎁스 영상의 3차원 상의 점을 이용하여 뎁스 센서(130)의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정할 수 있다.In step 630, the correction information determination unit 420 determines an error of the depth sensor 130, a depth sensor, and a photographing camera using the three-dimensional point on the camera image and the three- The correction information for correcting the geometric relationship between the reference point and the reference point can be determined.

예를 들어, 보정 정보 결정부(420)는 3차원 점 결정부(410)가 결정한 카메라 영상의 3차원 점과 뎁스 영상의 3차원 점을 이용하여 수학식 1 내지 수학식 3 수학식 1, 수학식 2, 수학식 3을 생성할 수 있다. 그리고 보정 정보 결정부(420)는 카메라 영상과, 뎁스 영상에서 서로 대응하는 모든 대응점에 대해 수학식 1, 수학식 2, 수학식 3을 생성하고, 생성한 수학식 1, 수학식 2, 수학식 3을 행렬의 형태로 표현하면 수학식 4와 같은 동차 방정식을 생성할 수 있다. 마지막으로 보정 정보 결정부(420)는 수학식 4로 h에 포함된 변수의 값들을 계산하고, 계산한 변수의 값들을 보정 정보로 결정할 수 있다.For example, the correction information determination unit 420 determines the correction information by using the three-dimensional point of the camera image and the three-dimensional point of the depth image determined by the three-dimensional point determination unit 410, Equation 2 and Equation 3 can be generated. Then, the correction information determination unit 420 generates Equation 1, Equation 2, and Equation 3 for all corresponding points in the camera image and the depth image, and outputs the generated Equations 1, 2, 3 can be expressed in the form of a matrix to generate a homogeneous equation as shown in Equation (4). Finally, the correction information determination unit 420 may calculate the values of the variables included in Equation (4) and determine the values of the calculated variables as correction information.

또한, 보정 정보 결정부(420)는 보정 정보를 포함하는 행렬 H의 역전치 행렬인 행렬 L에 포함된 인자를 수학식 1, 수학식 2, 수학식 3에 포함된 보정 정보와 교체하여 뎁스 영상의 좌표와 카메라 좌표 간의 관계 정보를 결정할 수 있다.In addition, the correction information determination unit 420 replaces the factor included in the matrix L, which is the inverse displacement matrix of the matrix H including the correction information, with the correction information included in Equations (1), (2) and (3) And the camera coordinate can be determined.

단계(640)에서 뎁스 영상 보정부(430)는 보정 정보인 h를 초기값으로 하는 비용 함수를 정의하고, 정의한 비용 함수를 최소화하는 비선형최적화 과정을 수행할 수 있다. 단계(650)는 카메라 영상을 정밀하게 보정하고자 할 때 수행되며, 카메라 영상의 보정 정도에 따라 단계(650)의 수행이 생략될 수 있다.In step 640, the depth image correction unit 430 may define a cost function having h as an initial value and perform a nonlinear optimization process to minimize the defined cost function. Step 650 is performed to accurately correct the camera image, and step 650 may be omitted depending on the degree of correction of the camera image.

단계(650)에서 뎁스 영상 보정부(430)는 뎁스 영상에 포함된 3차원 상의 점과 단계(630)에서 보정 정보 결정부(420)가 결정한 보정 정보를 기초로 뎁스 영상을 보정할 수 있다.The depth image correction unit 430 may correct the depth image based on the three-dimensional point included in the depth image and the correction information determined by the correction information determination unit 420 in step 630 in step 650.

예를 들어, 뎁스 영상에 포함된 3차원상의 점이 (X', Y', Z')인 경우, 뎁스 영상 보정부(430)는 수학식 1 내지 수학식 3에 (X', Y', Z')와 보정 정보(H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)를 대입하여 3차원 상의 점(X, Y, Z)를 결정할 수 있다.For example, when the point on the three-dimensional image included in the depth image is (X ', Y', Z '), the depth image correcting unit 430 calculates (X', Y ', Z ') And correction information (H 11 H 12 H 13 H 14 H 21 H 22 H 23 H 24 H 31 H 32 H 33 H 34 H 41 H 42 H 43 H 44 ) can be substituted to determine the point (X, Y, Z) on the three-dimensional plane.

또한, 뎁스 영상 보정부(430)는 뎁스 영상에 포함된 3차원 상의 점과 단계(650)에서 최소화한 비용 함수를 기초로 뎁스 영상을 보정할 수도 있다.
In addition, the depth image correcting unit 430 may correct the depth image based on the three-dimensional image point included in the depth image and the cost function minimized in step 650.

도 7은 본 발명의 일실시예에 따른 영상 보정 방법의 다른 일례를 도시한 플로우차트이다.7 is a flowchart showing another example of the image correction method according to an embodiment of the present invention.

도 7은 패턴 면의 방정식을 이용한 영상 보정 방법일 수 있다.7 is an image correction method using an equation of a pattern surface.

단계(710)에서 3차원 점 결정부(410)는 촬영 카메라(120)와 뎁스 센서(130)가 동시에 촬영한 카메라 영상과 뎁스 영상을 수신할 수 있다.In step 710, the three-dimensional point determination unit 410 may receive the camera image and the depth image captured by the imaging camera 120 and the depth sensor 130 at the same time.

단계(720)에서 3차원 점 결정부(410)는 단계(710)에서 수신한 카메라 영상에서 보정용 패턴(110)의 패턴 면의 방정식을 복원할 수 있다. 또한, 3차원 점 결정부(410)는 단계(710)에서 수신한 뎁스 영상에서 보정용 패턴(110)의 패턴 면의 방정식을 복원할 수 있다.In step 720, the 3D point determining unit 410 may restore the equation of the pattern surface of the correction pattern 110 from the camera image received in step 710. In addition, the three-dimensional point determination unit 410 may restore the equation of the pattern surface of the correction pattern 110 from the depth image received in step 710.

단계(730)에서 보정 정보 결정부(420)는 단계(720)에서 복원한 카메라 영상의 패턴 면의 방정식과, 뎁스 영상의 패턴 면의 방정식을 이용하여 뎁스 영상을 촬영한 뎁스 센서(130)의 오차와 뎁스 센서(130)와 촬영 카메라(120) 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정할 수 있다In step 730, the correction information determination unit 420 determines whether the depth sensor 130 captures the depth image using the equation of the pattern surface of the camera image restored in step 720 and the equation of the pattern surface of the depth image The correction information for correcting the geometrical geometry between the error and depth sensor 130 and the photographing camera 120 can be determined

이때, 보정 정보 결정부(420)는 수학식 1, 수학식 2, 수학식 3을 기초로 수학식 7, 수학식 8, 수학식 9를 생성할 수 있다. 구체적으로, 보정 정보 결정부(420)는 수학식 1, 수학식 2, 수학식 3의 (X, Y, Z)를 (a, b, c)로 변경하고, (X', Y', Z')를 (a', b', c')로 변경하여 수학식 7, 수학식 8, 수학식 9를 생성할 수 있다.At this time, the correction information determination unit 420 may generate Equations (7), (8), and (9) based on Equations (1), (2), and (3). Specifically, the correction information determination unit 420 changes (X, Y, Z) to (a, b, c) in Equations 1, 2, (A ', b', c ') to generate Equations (7), (8), and (9).

그리고, 보정 정보 결정부(420)는 수학식 7, 수학식 8, 수학식 9를 행렬의 형태로 표현하여 수학식 10과 같은 동차 방정식을 생성할 수 있다.The correction information determination unit 420 may generate a homogeneous equation expressed by Equation (10) by expressing Equation (7), Equation (8), and Equation (9) in the form of a matrix.

다음으로, 보정 정보 결정부(420)는 수학식 10으로 h에 포함된 변수의 값들을 계산하고, 계산한 변수의 값들을 보정 정보로 결정할 수 있다.Next, the correction information determination unit 420 may calculate the values of the variables included in equation (10) and determine the values of the calculated variables as correction information.

또한, 보정 정보 결정부(420)는 보정 정보를 포함하는 행렬 H의 역전치 행렬인 행렬 L에 포함된 인자를 수학식 1, 수학식 2, 수학식 3에 포함된 보정 정보와 교체하여 뎁스 영상의 좌표와 카메라 좌표 간의 관계 정보를 결정할 수 있다.In addition, the correction information determination unit 420 replaces the factor included in the matrix L, which is the inverse displacement matrix of the matrix H including the correction information, with the correction information included in Equations (1), (2) and (3) And the camera coordinate can be determined.

단계(740)에서 뎁스 영상 보정부(430)는 보정 정보인 h를 초기값으로 하는 비용 함수를 정의하고, 정의한 비용 함수를 최소화하는 비선형최적화 과정을 수행할 수 있다. 단계(750)는 카메라 영상을 정밀하게 보정하고자 할 때 수행되며, 카메라 영상의 보정 정도에 따라 단계(750)의 수행이 생략될 수 있다.In step 740, the depth image correcting unit 430 may define a cost function that sets the correction information h as an initial value, and perform a nonlinear optimization process to minimize the defined cost function. The step 750 is performed when the camera image is to be precisely corrected, and the execution of the step 750 may be omitted depending on the degree of correction of the camera image.

단계(750)에서 뎁스 영상 보정부(430)는 뎁스 영상에 포함된 3차원 상의 점과 단계(730)에서 보정 정보 결정부(420)가 결정한 보정 정보를 기초로 뎁스 영상을 보정할 수 있다.The depth image correction unit 430 may correct the depth image based on the three-dimensional point included in the depth image and the correction information determined by the correction information determination unit 420 in step 730 in step 750.

또한, 뎁스 영상 보정부(430)는 뎁스 영상에 포함된 3차원 상의 점과 단계(750)에서 최소화한 비용 함수를 기초로 뎁스 영상을 보정할 수도 있다.
In addition, the depth image correcting unit 430 may correct the depth image based on the three-dimensional point included in the depth image and the cost function minimized in step 750.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

100: 뎁스 영상 보정 장치
410: 3차원 점 결정부
420: 보정 정보 결정부
430: 뎁스 영상 보정부
100: Depth image correction device
410: three-dimensional point determining unit
420: correction information determination unit
430: Depth image correction unit

Claims (18)

카메라 영상의 3차원 상의 점과 상기 카메라 영상과 동시에 촬영된 뎁스 영상의 3차원 상의 점을 결정하는 3차원 점 결정부;
상기 카메라 영상의 3차원 상의 점과 상기 뎁스 영상의 3차원 상의 점을 이용하여 상기 뎁스 영상을 촬영한 뎁스 센서의 오차와 상기 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정하는 보정 정보 결정부; 및
상기 보정 정보와 상기 뎁스 영상의 3차원 상의 점을 기초로 상기 뎁스 영상을 보정하는 뎁스 영상 보정부
를 포함하는 뎁스 영상 보정 장치.
A three-dimensional point determiner for determining a three-dimensional point of the camera image and a three-dimensional point of the depth image photographed simultaneously with the camera image;
Wherein the correction information is used to correct an error of the depth sensor that captures the depth image and a geometric geometry relationship between the depth sensor and the photographing camera using a point on the three-dimensional image of the camera image and a point on the three- A correction information determination unit determining the correction information; And
And a depth image correcting unit for correcting the depth image based on the correction information and a three-dimensional point on the depth image,
And a depth image correction unit.
제1항에 있어서,
상기 3차원 점 결정부는,
상기 뎁스 영상에서 상기 카메라 영상을 자체 보정하기 위하여 이용한 카메라 영상 특징 점에 대응하는 뎁스 영상 특징 점을 추출하고, 추출한 뎁스 영상 특징 점에 대응하는 3차원 상의 점을 상기 뎁스 영상의 3차원 점으로 결정하는 뎁스 영상 보정 장치.
The method according to claim 1,
Wherein the three-
Extracts a depth image characteristic point corresponding to a camera image characteristic point used for self-correcting the camera image in the depth image, and determines a three-dimensional point corresponding to the extracted depth image characteristic point as a three-dimensional point of the depth image A depth image correction device
제1항에 있어서,
상기 보정 정보 결정부는,
상기 카메라 영상의 3차원 점과 상기 뎁스 영상의 3차원 점을 이용하여 수학식 1, 수학식 2, 및 수학식 3을 생성하는 뎁스 영상 보정 장치.
[수학식 1]
X = (X’* H11 + Y’* H12 + Z’*H13 + H14)/(X’* H41 + Y’* H42 + Z’*H43 + H44)
[수학식 2]
Y = (X’* H21 + Y’* H22 + Z’*H23 + H24)/(X’* H41 + Y’* H42 + Z’*H43 + H44)
[수학식 3]
Z = (X’* H31 + Y’* H32 + Z’*H33 + H34)/(X’* H41 + Y’* H42 + Z’*H43 + H44)
(이때, X, Y, Z는 상기 카메라 영상의 3차원 상의 점의 좌표이고, X', Y', Z'는 상기 뎁스 영상의 3차원 상의 점의 좌표이며, (H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)는 보정 정보일 수 있다.)
The method according to claim 1,
Wherein the correction information determination unit determines,
Wherein the depth image correction unit generates Equations (1), (2), and (3) using a three-dimensional point of the camera image and a three-dimensional point of the depth image.
[Equation 1]
X = (X '* H 11 + Y' * H 12 + Z '* H 13 + H 14 ) / (X '* H 41 + Y' * H 42 + Z '* H 43 + H 44 )
&Quot; (2) "
Y = (X '* H 21 + Y' * H 22 + Z '* H 23 + H 24 ) / (X '* H 41 + Y' * H 42 + Z '* H 43 + H 44 )
&Quot; (3) "
Z = (X '* H 31 + Y' * H 32 + Z '* H 33 + H 34 ) / (X '* H 41 + Y' * H 42 + Z '* H 43 + H 44 )
X ', Y', and Z 'are coordinates of a point on the three-dimensional image of the depth image, and (H 11 H 12 H 13 H 14 H 21 H 22 H 23 H 24 H 31 H 32 H 33 H 34 H 41 H 42 H 43 H 44 ) may be correction information.
제1항에 있어서,
상기 보정 정보 결정부는,
상기 카메라 영상의 3차원 상의 점과 상기 뎁스 영상의 3차원 상의 점을 이용하여 수학식 4를 생성하고, 수학식 4를 이용하여 보정 정보를 결정하는 뎁스 영상 보정 장치.
[수학식 4]
Ah=0
(이때, A는 상기 카메라 영상의 3차원 상의 점과 상기 뎁스 영상의 3차원 상의 점의 좌표로 구성된 3m*16행렬이고, h는 보정 정보이며, m은 카메라 영상, 또는 뎁스 영상에 포함된 3차원 상의 점의 개수일 수 있다.)
The method according to claim 1,
Wherein the correction information determination unit determines,
A depth image correcting unit for generating Equation (4) by using a three-dimensional point on the camera image and a three-dimensional point on the depth image, and determining correction information using Equation (4).
&Quot; (4) "
Ah = 0
(Where A is a 3m * 16 matrix composed of three-dimensional points on the camera image and three-dimensional points on the depth image, h is correction information, m is a camera image, or 3 It may be the number of points on the dimension.)
제1항에 있어서,
상기 뎁스 영상 보정부는,
상기 보정 정보를 초기값으로 하는 비용 함수를 정의하고, 정의한 비용 함수를 최소화하는 비선형 최적화 과정을 수행하여 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하는 뎁스 영상 보정 장치.
The method according to claim 1,
Wherein the depth image correction unit comprises:
And a nonlinear optimization process for minimizing the defined cost function to define a geometric geometric relationship between the depth sensor and the photographing camera by defining a cost function having the correction information as an initial value and correcting the geometric geometric relationship between the depth sensor and the photographing camera.
촬영 카메라가 복원한 패턴 면의 방정식과, 뎁스 센서가 복원한 패턴 면의 방정식을 이용하여 상기 뎁스 영상을 촬영한 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정하는 보정 정보 결정부; 및
상기 보정 정보와 상기 뎁스 영상의 3차원 상의 점을 기초로 상기 뎁스 영상을 보정하는 뎁스 영상 보정부
를 포함하는 뎁스 영상 보정 장치.
An error of the depth sensor that captures the depth image and a correction for correcting the geometric geometry relationship between the depth sensor and the photographing camera by using the equation of the pattern surface restored by the photographing camera and the equation of the pattern surface restored by the depth sensor, A correction information determination unit for determining information; And
And a depth image correcting unit for correcting the depth image based on the correction information and a three-dimensional point on the depth image,
And a depth image correction unit.
제6항에 있어서,
상기 보정 정보 결정부는,
촬영 카메라가 복원한 패턴 면의 방정식이 수학식 5이고, 뎁스 센서가 복원한 패턴 면의 방정식이 수학식 6인 경우, 수학식 5와 수학식 6을 기초로 수학식 7, 수학식 8, 및 수학식 9를 생성하는 뎁스 영상 보정 장치.
[수학식 5]
aX + bY + cZ + 1=0
[수학식 6]
a'X + b'Y + c'Z + 1=0
[수학식 7]
a = (a'* H11 + b'* H12 + c'*H13 + H14)/(a'* H41 + b'* H42 + c'*H43 + H44)
[수학식 8]
b = (a'* H21 + b'* H22 + c'*H23 + H24)/(a'* H41 + b'* H42 + c'*H43 + H44)
[수학식 9]
c = (a'* H31 + b'* H32 + c'*H33 + H34)/(a'* H41 + b'* H42 + c'*H43 + H44)
(이때, (H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)는 보정 정보일 수 있다.)
The method according to claim 6,
Wherein the correction information determination unit determines,
When the equation of the pattern surface restored by the photographing camera is Equation 5 and the equation of the pattern surface restored by the depth sensor is Equation 6, Equation 7, Equation 8, and Equation 7 are calculated based on Equation 5 and Equation 6, (9). ≪ / RTI >
&Quot; (5) "
aX + bY + cZ + 1 = 0
&Quot; (6) "
a'X + b'Y + c'Z + 1 = 0
&Quot; (7) "
a = (a '* H 11 + b' * H 12 + c '* H 13 + H 14 ) / (a '* H 41 + b' * H 42 + c '* H 43 + H 44 )
&Quot; (8) "
b = (a '* H 21 + b' * H 22 + c '* H 23 + H 24 ) / (a '* H 41 + b' * H 42 + c '* H 43 + H 44 )
&Quot; (9) "
c = (a '* H 31 + b' * H 32 + c '* H 33 + H 34 ) / (a '* H 41 + b' * H 42 + c '* H 43 + H 44 )
(Here, (H 11 H 12 H 13 H 14 H 21 H 22 H 23 H 24 H 31 H 32 H 33 H 34 H 41 H 42 H 43 H 44 ) may be correction information.
제7항에 있어서,
상기 보정 정보 결정부는,
상기 보정 정보가 포함된 행렬 H의 역전치 행렬인 행렬 L에 포함된 인자를 상기 수학식 1, 수학식 2, 수학식 3에 포함된 보정 정보와 교체하여 상기 뎁스 영상의 좌표와 상기 카메라 좌표 간의 관계 정보를 결정하는 뎁스 영상 보정 장치.
8. The method of claim 7,
Wherein the correction information determination unit determines,
A factor included in the matrix L, which is a matrix of inverse of the matrix H including the correction information, is replaced with the correction information included in the equations (1), (2) and (3) A depth image correction device for determining relationship information.
제6항에 있어서,
상기 뎁스 영상 보정부는,
상기 보정 정보를 기초로 상기 뎁스 영상의 3차원 상의 점을 카메라 좌표계로 옮기는 뎁스 영상 보정 장치.
The method according to claim 6,
Wherein the depth image correction unit comprises:
And a point on the three-dimensional image of the depth image is shifted to a camera coordinate system based on the correction information.
카메라 영상의 3차원 상의 점과 상기 카메라 영상과 동시에 촬영된 뎁스 영상의 3차원 상의 점을 결정하는 단계;
상기 카메라 영상의 3차원 상의 점과 상기 뎁스 영상의 3차원 상의 점을 이용하여 상기 뎁스 영상을 촬영한 뎁스의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정하는 단계; 및
상기 보정 정보와 상기 뎁스 영상의 3차원 상의 점을 기초로 상기 뎁스 영상을 보정하는 단계
를 포함하는 뎁스 영상 보정 방법.
Determining a three-dimensional point on the camera image and a three-dimensional point on the depth image captured simultaneously with the camera image;
Determining a correction information for correcting an error of the depth image capturing the depth image and a geometric geometry relationship between the depth sensor and the photographing camera using a point on the three-dimensional image of the camera image and a point on the three- step; And
Correcting the depth image based on the correction information and the three-dimensional point of the depth image,
And correcting the depth image.
제10항에 있어서,
상기 3차원 상의 점을 결정하는 단계는,
상기 뎁스 영상에서 상기 카메라 영상을 자체 보정하기 위하여 이용한 카메라 영상 특징 점에 대응하는 뎁스 영상 특징 점을 추출하고, 추출한 뎁스 영상 특징 점에 대응하는 3차원 상의 점을 상기 뎁스 영상의 3차원 점으로 결정하는 뎁스 영상 보정 방법.
11. The method of claim 10,
Wherein the step of determining a point on the three-
Extracts a depth image characteristic point corresponding to a camera image characteristic point used for self-correcting the camera image in the depth image, and determines a three-dimensional point corresponding to the extracted depth image characteristic point as a three-dimensional point of the depth image A depth image correction method.
제10항에 있어서,
상기 보정 정보를 결정하는 단계는,
상기 카메라 영상의 3차원 점과 상기 뎁스 영상의 3차원 점을 이용하여 수학식 1, 수학식 2, 및 수학식 3을 생성하는 뎁스 영상 보정 방법.
[수학식 1]
X = (X’* H11 + Y’* H12 + Z’*H13 + H14)/(X’* H41 + Y’* H42 + Z’*H43 + H44)
[수학식 2]
Y = (X’* H21 + Y’* H22 + Z’*H23 + H24)/(X’* H41 + Y’* H42 + Z’*H43 + H44)
[수학식 3]
Z = (X’* H31 + Y’* H32 + Z’*H33 + H34)/(X’* H41 + Y’* H42 + Z’*H43 + H44)
(이때, X, Y, Z는 상기 카메라 영상의 3차원 상의 점의 좌표이고, X', Y', Z'는 상기 뎁스 영상의 3차원 상의 점의 좌표이며, (H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)는 보정 정보일 수 있다.)
11. The method of claim 10,
Wherein the step of determining the correction information comprises:
Wherein the depth image correction unit generates the mathematical equations (1), (2), and (3) using the three-dimensional point of the camera image and the three-dimensional point of the depth image.
[Equation 1]
X = (X '* H 11 + Y' * H 12 + Z '* H 13 + H 14 ) / (X '* H 41 + Y' * H 42 + Z '* H 43 + H 44 )
&Quot; (2) "
Y = (X '* H 21 + Y' * H 22 + Z '* H 23 + H 24 ) / (X '* H 41 + Y' * H 42 + Z '* H 43 + H 44 )
&Quot; (3) "
Z = (X '* H 31 + Y' * H 32 + Z '* H 33 + H 34 ) / (X '* H 41 + Y' * H 42 + Z '* H 43 + H 44 )
X ', Y', and Z 'are coordinates of a point on the three-dimensional image of the depth image, and (H 11 H 12 H 13 H 14 H 21 H 22 H 23 H 24 H 31 H 32 H 33 H 34 H 41 H 42 H 43 H 44 ) may be correction information.
제10항에 있어서,
상기 보정 정보를 결정하는 단계는,
상기 카메라 영상의 3차원 상의 점과 상기 뎁스 영상의 3차원 상의 점을 이용하여 수학식 4를 생성하고, 수학식 4를 이용하여 보정 정보를 결정하는 뎁스 영상 보정 방법.
[수학식 4]
Ah=0
(이때, A는 상기 카메라 영상의 3차원 상의 점과 상기 뎁스 영상의 3차원 상의 점의 좌표로 구성된 3m*16행렬이고, h는 보정 정보이며, m은 카메라 영상, 또는 뎁스 영상에 포함된 3차원 상의 점의 개수일 수 있다.)
11. The method of claim 10,
Wherein the step of determining the correction information comprises:
Wherein the correction information is determined by using Equation (4) using Equation (4) using a point on the 3D image of the camera image and a point on the 3D image of the depth image.
&Quot; (4) "
Ah = 0
(Where A is a 3m * 16 matrix composed of three-dimensional points on the camera image and three-dimensional points on the depth image, h is correction information, m is a camera image, or 3 It may be the number of points on the dimension.)
제10항에 있어서,
상기 뎁스 영상을 보정하는 단계는,
상기 보정 정보를 초기값으로 하는 비용 함수를 정의하고, 정의한 비용 함수를 최소화하는 비선형 최적화 과정을 수행하여 뎁스 영상을 보정하는 뎁스 영상 보정 방법.
11. The method of claim 10,
Wherein the step of correcting the depth image comprises:
Defining a cost function having the correction information as an initial value, and performing a nonlinear optimization process for minimizing a defined cost function to correct the depth image.
제10항에 있어서,
상기 뎁스을 보정하는 단계는,
상기 보정 정보를 기초로 상기 뎁스 영상의 3차원 상의 점을 카메라 좌표계로 옮기는 뎁스 영상 보정 장치.
11. The method of claim 10,
The step of correcting the depth comprises:
And a point on the three-dimensional image of the depth image is shifted to a camera coordinate system based on the correction information.
촬영 카메라가 복원한 패턴 면의 방정식과, 뎁스 센서가 복원한 패턴 면의 방정식을 이용하여 상기 카메라 영상을 촬영한 촬영 카메라와, 상기 뎁스 영상을 촬영한 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정하는 단계; 및
상기 보정 정보와 상기 뎁스 영상의 3차원 상의 점을 기초로 상기 뎁스 영상을 보정하는 단계
를 포함하는 뎁스 영상 보정 방법.
An imaging camera capturing the camera image using an equation of a pattern surface restored by a photographing camera and an equation of a pattern surface restored by the depth sensor, an error of a depth sensor that captures the depth image, an error between a depth sensor and a photographing camera Determining correction information for correcting the geometric relationship of the first and second regions; And
Correcting the depth image based on the correction information and the three-dimensional point of the depth image,
And correcting the depth image.
제16항에 있어서,
상기 보정 정보를 결정하는 단계는,
촬영 카메라가 복원한 패턴 면의 방정식이 수학식 5이고, 뎁스 센서가 복원한 패턴 면의 방정식이 수학식 6인 경우, 수학식 5와 수학식 6을 기초로 수학식 7, 수학식 8, 및 수학식 9를 생성하는 뎁스 영상 보정 방법.
[수학식 5]
aX + bY + cZ + 1=0
[수학식 6]
a'X + b'Y + c'Z + 1=0
[수학식 7]
a = (a'* H11 + b'* H12 + c'*H13 + H14)/(a'* H41 + b'* H42 + c'*H43 + H44)
[수학식 8]
b = (a'* H21 + b'* H22 + c'*H23 + H24)/(a'* H41 + b'* H42 + c'*H43 + H44)
[수학식 9]
c = (a'* H31 + b'* H32 + c'*H33 + H34)/(a'* H41 + b'* H42 + c'*H43 + H44)
(이때, (H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)는 보정 정보일 수 있다.)
17. The method of claim 16,
Wherein the step of determining the correction information comprises:
When the equation of the pattern surface restored by the photographing camera is Equation 5 and the equation of the pattern surface restored by the depth sensor is Equation 6, Equation 7, Equation 8, and Equation 7 are calculated based on Equation 5 and Equation 6, A depth image correction method for generating Equation (9).
&Quot; (5) "
aX + bY + cZ + 1 = 0
&Quot; (6) "
a'X + b'Y + c'Z + 1 = 0
&Quot; (7) "
a = (a '* H 11 + b' * H 12 + c '* H 13 + H 14 ) / (a '* H 41 + b' * H 42 + c '* H 43 + H 44 )
&Quot; (8) "
b = (a '* H 21 + b' * H 22 + c '* H 23 + H 24 ) / (a '* H 41 + b' * H 42 + c '* H 43 + H 44 )
&Quot; (9) "
c = (a '* H 31 + b' * H 32 + c '* H 33 + H 34 ) / (a '* H 41 + b' * H 42 + c '* H 43 + H 44 )
(Here, (H 11 H 12 H 13 H 14 H 21 H 22 H 23 H 24 H 31 H 32 H 33 H 34 H 41 H 42 H 43 H 44 ) may be correction information.
제17항에 있어서,
상기 보정 정보를 결정하는 단계는,
상기 보정 정보가 포함된 행렬 H의 역전치 행렬인 행렬 L에 포함된 인자를 상기 수학식 1, 수학식 2, 수학식 3에 포함된 보정 정보와 교체하여 상기 뎁스 영상의 좌표와 상기 카메라 좌표 간의 관계 정보를 결정하는 뎁스 영상 보정 방법.
18. The method of claim 17,
Wherein the step of determining the correction information comprises:
A factor included in the matrix L, which is a matrix of inverse of the matrix H including the correction information, is replaced with the correction information included in the equations (1), (2) and (3) A depth image correction method for determining relationship information.
KR1020130105538A 2012-10-23 2013-09-03 Apparatus and method for calibrating depth image based on depth sensor-color camera relations KR101770866B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013219327A JP6359259B2 (en) 2012-10-23 2013-10-22 Depth image correction apparatus and method based on relationship between depth sensor and photographing camera
US14/059,685 US9147249B2 (en) 2012-10-23 2013-10-22 Apparatus and method for calibrating depth image based on relationship between depth sensor and color camera

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20120117997 2012-10-23
KR1020120117997 2012-10-23

Publications (2)

Publication Number Publication Date
KR20140052824A true KR20140052824A (en) 2014-05-07
KR101770866B1 KR101770866B1 (en) 2017-08-25

Family

ID=50885971

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130105538A KR101770866B1 (en) 2012-10-23 2013-09-03 Apparatus and method for calibrating depth image based on depth sensor-color camera relations

Country Status (1)

Country Link
KR (1) KR101770866B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108445456A (en) * 2017-02-16 2018-08-24 通用汽车环球科技运作有限责任公司 Calibration of the light up to-radar relative pose

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866889B2 (en) * 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108445456A (en) * 2017-02-16 2018-08-24 通用汽车环球科技运作有限责任公司 Calibration of the light up to-radar relative pose

Also Published As

Publication number Publication date
KR101770866B1 (en) 2017-08-25

Similar Documents

Publication Publication Date Title
KR102085228B1 (en) Imaging processing method and apparatus for calibrating depth of depth sensor
JP5029618B2 (en) Three-dimensional shape measuring apparatus, method and program by pattern projection method
JP6359259B2 (en) Depth image correction apparatus and method based on relationship between depth sensor and photographing camera
US9965870B2 (en) Camera calibration method using a calibration target
CN109961468B (en) Volume measurement method and device based on binocular vision and storage medium
JP6465789B2 (en) Program, apparatus and method for calculating internal parameters of depth camera
JPWO2014002849A1 (en) Three-dimensional measurement method, apparatus and system, and image processing apparatus
JP6282098B2 (en) Calibration apparatus and method
KR20110116325A (en) Image processing apparatus and method
JP6413595B2 (en) Image processing apparatus, system, image processing method, and program
CN107808398B (en) Camera parameter calculation device, calculation method, program, and recording medium
JP2014013147A5 (en)
WO2015068470A1 (en) 3d-shape measurement device, 3d-shape measurement method, and 3d-shape measurement program
JP7173285B2 (en) Camera calibration device, camera calibration method, and program
JP4055998B2 (en) Distance detection device, distance detection method, and distance detection program
JP2016218815A (en) Calibration device and method for line sensor camera
TW201523510A (en) System and method for combining point clouds
WO2015159835A1 (en) Image processing device, image processing method, and program
JP2018009927A (en) Image processing device, image processing method and program
JP6486083B2 (en) Information processing apparatus, information processing method, and program
JP2008224323A (en) Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program
JP5656018B2 (en) Sphere detection method
JP2010145219A (en) Movement estimation device and program
KR101770866B1 (en) Apparatus and method for calibrating depth image based on depth sensor-color camera relations
CN110232715B (en) Method, device and system for self calibration of multi-depth camera

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant