KR20140052824A - Apparatus and method for calibrating depth image based on depth sensor-color camera relations - Google Patents
Apparatus and method for calibrating depth image based on depth sensor-color camera relations Download PDFInfo
- Publication number
- KR20140052824A KR20140052824A KR1020130105538A KR20130105538A KR20140052824A KR 20140052824 A KR20140052824 A KR 20140052824A KR 1020130105538 A KR1020130105538 A KR 1020130105538A KR 20130105538 A KR20130105538 A KR 20130105538A KR 20140052824 A KR20140052824 A KR 20140052824A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- depth image
- depth
- equation
- correction information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000003702 image correction Methods 0.000 claims description 50
- 239000011159 matrix material Substances 0.000 claims description 31
- 239000000284 extract Substances 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G06T5/80—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
Abstract
Description
본 발명은 뎁스 영상을 보정하는 장치 및 방법에 관한 것으로, 보다 상세하게는 뎁스 센서와 촬영 카메라 간의 관계에 기초하여 뎁스 영상을 보정하는 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for correcting a depth image, and more particularly, to an apparatus and method for correcting a depth image based on a relationship between a depth sensor and a photographing camera.
마이크로소프트의 키넥트와 같이 구조광을 이용하여 삼각 측량하는 뎁스 센서는 생산시의 조립 공차 및 광학 부분의 오차에 의해 최종 사용자가 사용하게 될 때 오차를 내포한 결과를 얻을 수 있다.Depth sensors that triangulate using structured light, such as Microsoft's Kinect, can result in errors when they are used by the end user due to assembly tolerances in manufacturing and errors in the optics.
또한, 뎁스 센서와 촬영 카메라를 같이 사용하여 대상의 텍스처를 동시에 추출할 때에는 뎁스 센서와 카메라 사이의 기하학적인 기하 관계를 구해야 한다. 상기 기하 관계를 정밀하게 구하지 않는 경우, 3차원 복원되는 대상에 대한 텍스처 정보에 오류가 발생하게 된다.In addition, when extracting the texture of the object simultaneously using the depth sensor and the photographing camera, the geometric relationship between the depth sensor and the camera must be obtained. If the geometric relationship is not precisely determined, an error occurs in the texture information about the object to be reconstructed three-dimensionally.
종래의 뎁스 영상 보정 장치는 뎁스 센서가 측정한 뎁스 영상을 기초로 촬영 카메라와의 기하관계를 구하고 있으므로, 종래의 뎁스 영상 보정 장치가 보정한 뎁스 영상은 뎁스 센서에 포함된 오차에 따른 오차를 포함할 수 있다.Since the conventional depth image correction apparatus obtains the geometrical relationship with the photographing camera based on the depth image measured by the depth sensor, the depth image corrected by the conventional depth image correcting apparatus includes the error according to the error included in the depth sensor can do.
따라서, 뎁스 센서의 오차를 보정하며, 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 구하여 뎁스 영상을 보정하는 방법이 요청되고 있다.Therefore, there is a demand for a method of correcting an error of a depth sensor and correcting a depth image by obtaining a geometric relationship between a depth sensor and a photographing camera.
본 발명은 대상과의 거리를 측정하는 뎁스 센서와 대상을 촬영하는 촬영 카메라를 동시에 이용하여 뎁스 영상을 보정할 경우, 뎁스 센서의 부 정확도를 개선하며, 뎁스 센서와 촬영 카메라 간의 기하관계를 보정하는 장치 및 방법을 제공할 수 있다.The present invention improves the accuracy of the depth sensor when the depth image is corrected using the depth sensor for measuring the distance to the object and the photographing camera for photographing the object simultaneously and corrects the geometric relationship between the depth sensor and the photographing camera Apparatus and method.
본 발명의 일실시예에 따른 뎁스 영상 보정 장치는 카메라 영상의 3차원 상의 점과 상기 카메라 영상과 동시에 촬영된 뎁스 영상의 3차원 상의 점을 결정하는 3차원 점 결정부; 상기 카메라 영상의 3차원 상의 점과 상기 뎁스 영상의 3차원 상의 점을 이용하여 상기 뎁스 영상을 촬영한 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정하는 보정 정보 결정부; 및 상기 보정 정보를 기초로 하여 상기 뎁스 영상의 3차원 상의 점을 카메라 좌표계로 옮기는 뎁스 영상 보정부를 포함할 수 있다.The depth image correction apparatus according to an embodiment of the present invention includes a three-dimensional point determiner for determining a three-dimensional point of a camera image and a three-dimensional point of a depth image photographed simultaneously with the camera image; Determining a correction information for correcting an error of the depth sensor that captures the depth image and a geometric geometric relationship between the depth sensor and the photographing camera using a point on the three-dimensional image of the camera image and a point on the three- A correction information determination unit for determining a correction information; And a depth image correction unit for shifting the three-dimensional point of the depth image to a camera coordinate system based on the correction information.
본 발명의 일실시예에 따른 뎁스 영상 보정 장치의 3차원 점 결정부는 상기 카메라 영상을 자체 보정하고, 상기 카메라 영상을 자체 보정하기 위하여 이용한 카메라 영상 특징 점의 3차원 상의 점을 상기 카메라 영상의 3차원 점으로 결정할 수 있다. The three-dimensional point determination unit of the depth image correction apparatus according to an embodiment of the present invention self-corrects the camera image, and a point on the three-dimensional image of the camera image feature point used for self-correction of the camera image is divided into three It can be decided by the dimension point.
본 발명의 일실시예에 따른 뎁스 영상 보정 장치의 3차원 점 결정부는 상기 뎁스 영상에서 상기 카메라 영상 특징 점에 대응하는 뎁스 영상 특징 점을 추출하고, 추출한 뎁스 영상 특징 점에 대응하는 3차원 상의 점을 상기 뎁스 영상의 3차원 점으로 결정할 수 있다.The three-dimensional point determination unit of the depth image correction apparatus according to an exemplary embodiment of the present invention extracts a depth image feature point corresponding to the camera image feature point from the depth image, Dimensional point of the depth image.
본 발명의 일실시예에 따른 뎁스 영상 보정 장치의 보정 정보 결정부는 상기 카메라 영상의 3차원 점과 상기 뎁스 영상의 3차원 점을 이용하여 수학식 1, 수학식 2, 및 수학식 3을 생성할 수 있다.The correction information determination unit of the depth image correction apparatus according to an exemplary embodiment of the present invention generates Equation 1, Equation 2, and Equation 3 using the three-dimensional point of the camera image and the three-dimensional point of the depth image .
본 발명의 일실시예에 따른 뎁스 영상 보정 장치의 뎁스 영상 보정부는 상기 보정 정보를 초기값으로 하는 비용 함수를 정의하고, 정의한 비용 함수를 최소화하는 비선형 최적화 과정을 수행하여 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정할 수 있다.The depth image correction unit of the depth image correction apparatus according to an exemplary embodiment of the present invention defines a cost function having an initial value of the correction information and performs a nonlinear optimization process to minimize a defined cost function to calculate an error of a depth sensor, It is possible to correct the geometric relationship between the photographing camera and the photographing camera.
본 발명의 일실시예에 따른 뎁스 영상 보정 장치는 촬영 카메라가 복원한 패턴 면의 방정식과, 뎁스 센서가 복원한 패턴 면의 방정식을 이용하여 상기 뎁스 영상을 촬영한 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정하는 보정 정보 결정부; 및 상기 보정 정보를 기초로 하여 상기 뎁스 영상의 3차원 상의 점을 카메라 좌표계로 옮기는 뎁스 영상 보정부를 포함할 수 있다.The depth image correcting apparatus according to an embodiment of the present invention corrects the depth image of the depth image by using the equation of the pattern surface restored by the photographing camera and the equation of the pattern surface restored by the depth sensor, A correction information determination unit for determining correction information for correcting the geometrical relationship between the photographing cameras; And a depth image correction unit for shifting the three-dimensional point of the depth image to a camera coordinate system based on the correction information.
본 발명의 일실시예에 따른 뎁스 영상 보정 장치의 보정 정보 결정부는 촬영 카메라가 복원한 패턴 면의 방정식이 수학식 5이고, 뎁스 센서가 복원한 패턴 면의 방정식이 수학식 6인 경우, 수학식 5와 수학식 6을 기초로 수학식 7, 수학식 8, 및 수학식 9를 생성할 수 있다.The correction information determination unit of the depth image correction apparatus according to an embodiment of the present invention may be configured such that the equation of the pattern surface restored by the photographing camera is Equation 5 and the equation of the pattern surface restored by the depth sensor is Equation 6, (7), (8), and (9) based on Equation (5) and Equation (6).
본 발명의 일실시예에 따른 뎁스 영상 보정 장치의 보정 정보 결정부는 상기 보정 정보가 포함된 행렬 H의 역전치 행렬인 행렬 L에 포함된 인자를 상기 수학식 1, 수학식 2, 및 수학식 3에 포함된 보정 정보와 교체하여 상기 뎁스 영상의 좌표와 상기 카메라 좌표 간의 관계 정보를 결정할 수 있다.The correction information determination unit of the depth image correction apparatus according to an exemplary embodiment of the present invention calculates a factor included in the matrix L, which is the inverse matrix of the matrix H including the correction information, according to Equation 1, Equation 2, and Equation 3 The relationship information between the coordinates of the depth image and the camera coordinates can be determined by replacing the correction information included in the depth image.
본 발명의 일실시예에 따른 영상 보정 방법은 카메라 영상의 3차원 상의 점과 상기 카메라 영상과 동시에 촬영된 뎁스 영상의 3차원 상의 점을 결정하는 단계; 상기 카메라 영상의 3차원 상의 점과 상기 뎁스 영상의 3차원 상의 점을 이용하여 상기 뎁스 영상을 촬영한 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정하는 단계; 및 상기 보정 정보를 기초로 하여 상기 뎁스 영상의 3차원 상의 점을 카메라 좌표계로 옮기는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method of correcting an image, comprising: determining a three-dimensional point of a camera image and a three-dimensional point of a depth image photographed simultaneously with the camera image; Determining a correction information for correcting an error of the depth sensor that captures the depth image and a geometric geometric relationship between the depth sensor and the photographing camera using a point on the three-dimensional image of the camera image and a point on the three- ; And moving the three-dimensional point of the depth image to the camera coordinate system based on the correction information.
본 발명의 일실시예에 따른 뎁스 영상 보정 장치는 촬영 카메라가 복원한 패턴 면의 방정식과, 뎁스 센서가 복원한 패턴 면의 방정식을 이용하여 상기 뎁스 영상을 촬영한 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정하는 단계; 및 상기 보정 정보를 기초로 하여 상기 뎁스 영상의 3차원 상의 점을 카메라 좌표계로 옮기는 단계를 포함할 수 있다.The depth image correcting apparatus according to an embodiment of the present invention corrects the depth image of the depth image by using the equation of the pattern surface restored by the photographing camera and the equation of the pattern surface restored by the depth sensor, Determining correction information for correcting the geometric relationship between the photographing cameras; And moving the three-dimensional point of the depth image to the camera coordinate system based on the correction information.
본 발명의 일실시예에 따르면, 카메라 영상의 3차원 상의 점과 상기 카메라 영상과 동시에 촬영된 뎁스 영상의 3차원 상의 점을 이용하여 상기 뎁스 영상을 촬영한 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정함으로써, 정밀한 뎁스 영상의 획득이 가능하다According to an embodiment of the present invention, an error of a depth sensor that captures the depth image using a point on a three-dimensional image of the camera image and a three-dimensional point of the depth image captured simultaneously with the camera image, It is possible to acquire a precise depth image by correcting the geometrical relationship between
도 1은 본 발명의 일실시예에 따른 뎁스 영상 보정 장치와 다른 장치들 간의 관계를 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 보정용 패턴의 일례이다.
도 3은 본 발명의 일실시예에 따른 뎁스 영상 및 카메라 영상의 일례이다.
도 4는 본 발명의 일실시예에 따른 뎁스 영상 보정 장치를 나타내는 도면이다.
도 5는 본 발명의 일실시예에 따른 뎁스 영상 보정 장치가 뎁스 영상의 특징 점과 카메라 영상의 특징 점을 매칭하는 과정의 일례이다.
도 6은 본 발명의 일실시예에 따른 영상 보정 방법을 도시한 플로우차트이다.
도 7은 본 발명의 일실시예에 따른 영상 보정 방법의 다른 일례를 도시한 플로우차트이다.1 is a diagram illustrating a relationship between a depth image correction apparatus and other apparatuses according to an exemplary embodiment of the present invention.
2 is an example of a correction pattern according to an embodiment of the present invention.
3 is an example of a depth image and a camera image according to an embodiment of the present invention.
4 is a diagram illustrating a depth image correction apparatus according to an embodiment of the present invention.
5 is an example of a process of matching a feature point of a depth image and a feature point of a camera image according to an embodiment of the present invention.
6 is a flowchart illustrating an image correction method according to an embodiment of the present invention.
7 is a flowchart showing another example of the image correction method according to an embodiment of the present invention.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 본 발명의 일실시예에 따른 영상 보정 방법은 뎁스 영상 보정 장치에 의해 수행될 수 있다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. An image correction method according to an embodiment of the present invention may be performed by a depth image correction apparatus.
도 1은 본 발명의 일실시예에 따른 뎁스 영상 보정 장치와 다른 장치들 간의 관계를 나타내는 도면이다. 1 is a diagram illustrating a relationship between a depth image correction apparatus and other apparatuses according to an exemplary embodiment of the present invention.
촬영 카메라(120)는 보정용 패턴(110)을 촬영하여 보정용 패턴의 포함된 카메라 영상을 생성할 수 있다. 이때, 보정용 패턴(110)는 촬영 카메라(120)과 뎁스 센서(130) 간의 기하학적 관계를 용이하게 식별할 수 있도록 표면에 복수의 표시가 형성된 3차원 오브젝트일 수 있다.The photographing
보정용 패턴(110)의 형태는 이하 도 2를 참조하여 상세히 설명한다.The shape of the
또한, 뎁스 센서(130)는 촬영 카메라(120)와 동시에 보정용 패턴(110)을 촬영하여 뎁스 영상을 생성할 수 있다. 이때, 뎁스 센서(130)는 구조광을 이용하여 보정용 패턴(110)과 뎁스 센서(130)간의 거리를 삼각 측량하고, 측량한 거리를 기초로 뎁스 영상을 생성할 수 있다.In addition, the
그리고, 촬영 카메라(120)와 뎁스 센서(130)는 영상 보정 방법에 따라 각각 복수의 카메라 영상과 뎁스 영상을 생성하여 뎁스 영상 보정 장치(100)로 전송할 수도 있다.The photographing
뎁스 영상 보정 장치(100)는 뎁스 센서(130)로부터 수신한 뎁스 영상 및 촬영 카메라(120)로부터 수신한 카메라 영상을 이용하여 촬영 카메라(120)과 뎁스 센서(130) 간의 기하학적 관계를 식별하고, 식별한 관계를 기초로 뎁스 영상을 보정할 수 있다.
The depth
도 2는 본 발명의 일실시예에 따른 보정용 패턴의 일례이다.2 is an example of a correction pattern according to an embodiment of the present invention.
본 발명의 일실시예에서 촬영 카메라(120)와 뎁스 센서(130)가 촬영하는 보정용 패턴(110)는 도 2에 도시된 바와 같이 각 면이 정사각형인 다면체(200)이며, 각 면에 복수의 원(210)이 그려져 있을 수 있다. The
이때, 뎁스 영상 보정 장치(100)는 보정용 패턴(110)의 각 면에서 원(210)의 위치에 기초하여 뎁스 영상에 포함된 보정용 패턴(110)과 카메라 영상에 포함된 보정용 패턴(110)을 매칭하고, 매칭 결과에 기초하여 촬영 카메라(120)과 뎁스 센서(130) 간의 기하학적 관계를 식별할 수 있다.
At this time, the depth
도 3은 본 발명의 일실시예에 따른 뎁스 영상 및 카메라 영상의 일례이다.3 is an example of a depth image and a camera image according to an embodiment of the present invention.
뎁스 센서(130)와 촬영 카메라(120)는 영상 보정 방법에 따라 각각 적어도 하나의 뎁스 영상(310)과 카메라 영상(320)를 생성하여 뎁스 영상 보정 장치(100)로 전송할 수도 있다.The
이때, 뎁스 영상(310)과 카메라 영상(320)는 각각 뎁스 센서(130)와 촬영 카메라(120)가 동일한 보정용 패턴(110)을 촬영하여 생성한 영상이다. 그러나, 촬영 카메라(120)과 뎁스 센서(130) 간의 기하학적 관계에 따라 도 3에 도시된 바와 같이 뎁스 영상(310)에 포함된 보정용 패턴(110)과 카메라 영상(320)에 포함된 보정용 패턴(110)은 크기 및 각도에 차이가 있을 수 있다.
The
도 4는 본 발명의 일실시예에 따른 뎁스 영상 보정 장치를 나타내는 도면이다. 4 is a diagram illustrating a depth image correction apparatus according to an embodiment of the present invention.
도 4를 참고하면, 본 발명의 일실시예에 따른 뎁스 영상 보정 장치(100)는 3차원 점 결정부(410), 보정 정보 결정부(420), 및 뎁스 영상 보정부(430)를 포함할 수 있다.4, the depth
3차원 점 결정부(410)는 카메라 영상의 3차원 상의 점과 카메라 영상과 동시에 촬영된 뎁스 영상의 3차원 상의 점을 결정할 수 있다.The three-dimensional
이때, 3차원 점 결정부(410)는 카메라 영상을 자체 보정하고, 카메라 영상을 자체 보정하기 위하여 이용한 카메라 영상 특징 점의 3차원 상의 점을 카메라 영상의 3차원 점으로 결정할 수 있다. 이때, 3차원 점 결정부(410)는 카메라 보정 분야에서 사용하는 방법 중 하나를 선택하여 카메라 영상을 자체 보정할 수 있다. 그리고, 3차원 점 결정부(410)는 카메라 영상 특징 점의 3차원 상의 점을 (X, Y, Z)로 정의할 수 있다.At this time, the three-dimensional
또한, 3차원 점 결정부(410)는 뎁스 영상에서 카메라 영상 특징 점에 대응하는 뎁스 영상 특징 점을 추출하고, 추출한 뎁스 영상 특징 점에 대응하는 3차원 상의 점을 뎁스 영상의 3차원 점으로 결정할 수 있다. 이때, 3차원 점 결정부(410)는 뎁스 영상 특징 점의 3차원 상의 점을 (X', Y', Z')로 정의할 수 있다.The three-dimensional
보정 정보 결정부(420)는 카메라 영상의 3차원 상의 점과 뎁스 영상의 3차원 상의 점을 이용하여 뎁스 센서(130)의 오차와 뎁스 센서(130)와 촬영 카메라(120) 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정할 수 있다.The correction
예를 들어, 보정 정보 결정부(420)는 3차원 점 결정부(410)가 결정한 카메라 영상의 3차원 점과 뎁스 영상의 3차원 점을 이용하여 수학식 1, 수학식 2, 수학식 3을 동시에 생성할 수 있다.For example, the correction
그리고 보정 정보 결정부(420)는 카메라 영상과, 뎁스 영상에서 서로 대응하는 모든 대응점에 대해 수학식 1, 수학식 2, 수학식 3을 동시에 생성하고, 생성한 수학식 1, 수학식 2, 수학식 3을 행렬의 형태로 표현하면 수학식 4와 같은 동차 방정식을 생성할 수 있다.Then, the correction
이때, h는 변수(H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)으로 구성된 열 벡터일 수 있다. Here, h is a variable (H 11 H 12 H 13 H 14 H 21 H 22 H 23 H 24 H 31 H 32 H 33 H 34 H 41 H 42 H 43 H 44 ).
또한, A는 카메라 영상 특징 점의 3차원 상의 점 (X, Y, Z)과 뎁스 영상 특징 점의 3차원 상의 점 (X', Y', Z')들로 구성된 3m X 16 행렬일 수 있다. Also, A may be a 3m X 16 matrix composed of points (X, Y, Z) on the three-dimensional plane of the camera image feature point and points (X ', Y', Z ') on the three-dimensional plane of the depth image feature point .
이때, m은 카메라 영상, 또는 뎁스 영상에 포함된 3차원 상의 점의 개수이다. 구체적으로, 뎁스 영상 특징 점의 3차원 상의 점은 상기 카메라 영상 특징 점에 대응하는 뎁스 영상 특징 점에 따라 결정되므로, 카메라 영상에 포함된 카메라 영상 특징 점의 3차원 상의 점의 개수와 뎁스 영상에 포함된 뎁스 영상 특징 점의 3차원 상의 점의 개수는 동일할 수 있다. 따라서, 보정 정보 결정부(420)는 카메라 영상에 포함된 3차원 상의 점의 개수, 또는 뎁스 영상에 포함된 3차원 상의 점의 개수 중 하나를 선택하여 m으로 설정할 수 있다.Here, m is the number of points on the three-dimensional image included in the camera image or the depth image. Specifically, since the three-dimensional point of the depth image feature point is determined according to the depth image feature point corresponding to the camera image feature point, the number of points on the three-dimensional image of the camera image feature point included in the camera image, The number of points on the three-dimensional image of the included depth image feature point may be the same. Therefore, the correction
보정 정보 결정부(420)는 수학식 4로 h에 포함된 변수의 값들을 계산하고, 계산한 변수의 값들을 보정 정보로 결정할 수 있다.The correction
또한, 보정 정보 결정부(420)는 촬영 카메라(120)가 복원한 패턴 면의 방정식과, 뎁스 센서(130)가 복원한 패턴 면의 방정식을 이용하여 뎁스 영상을 촬영한 뎁스 센서(130)의 오차와 뎁스 센서(130)와 촬영 카메라(120) 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정할 수도 있다.The correction
예를 들어, 촬영 카메라(120)가 카메라 영상에서 복원한 보정용 패턴(110)의 패턴 면의 방정식이 수학식 5이고, 뎁스 센서(130)가 복원한 보정용 패턴(110)의 패턴 면의 방정식이 수학식 6일 수 있다. For example, when the equation of the pattern surface of the
이때, 보정 정보 결정부(420)는 수학식 1, 수학식 2, 수학식 3을 기초로 수학식 7, 수학식 8, 수학식 9를 생성할 수 있다. 구체적으로, 보정 정보 결정부(420)는 수학식 1, 수학식 2, 수학식 3의 (X, Y, Z)를 (a, b, c)로 변경하고, (X', Y', Z')를 (a', b', c')로 변경하여 수학식 7, 수학식 8, 수학식 9를 생성할 수 있다.At this time, the correction
그리고, 보정 정보 결정부(420)는 수학식 7, 수학식 8, 수학식 9를 행렬의 형태로 표현하여 수학식 10과 같은 동차 방정식을 생성할 수 있다.The correction
이때, h는 변수(H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)으로 구성된 열 벡터일 수 있다.Here, h is a variable (H 11 H 12 H 13 H 14 H 21 H 22 H 23 H 24 H 31 H 32 H 33 H 34 H 41 H 42 H 43 H 44 ).
또한, B는 수학식 5의 (a, b, c)와 수학식 6의 (a', b', c')들로 구성된 3m X 16 행렬일 수 있다. Further, B may be a 3m X 16 matrix composed of (a ', b', c ') and (a', b ', c') of Equation (5).
이때, m은 카메라 영상, 또는 뎁스 영상에서 복원된 패턴 면의 개수이다. 구체적으로, 뎁스 영상에서 복원된 패턴 면은 상기 카메라 영상에서 복원된 패턴 면에 대응하는 뎁스 영상에서 복원된 패턴 면에 따라 결정되므로, 카메라 영상에 포함된 복원된 패턴 면의 개수와 뎁스 영상에 포함된 복원된 패턴 면의 개수는 동일할 수 있다. 따라서, 보정 정보 결정부(420)는 카메라 영상에 포함된 복원된 패턴 면의 개수, 또는 뎁스 영상에 포함된 복원된 패턴 면의 의 개수 중 하나를 선택하여 m으로 설정할 수 있다.Here, m is the number of pattern surfaces reconstructed from the camera image or the depth image. Specifically, since the restored pattern surface in the depth image is determined according to the restored pattern surface in the depth image corresponding to the pattern surface restored in the camera image, the number of restored pattern surfaces included in the camera image is included in the depth image The number of reconstructed pattern planes may be the same. Accordingly, the correction
또한, 보정 정보 결정부(420)는 수학식 10의 h를 이용하여 수학식 11의 행렬 H을 구할 수 있다Further, the correction
마지막으로 보정 정보 결정부(420)는 수학식 10으로 행렬 H에 포함된 변수의 값들을 계산하고, 계산한 변수의 값들을 보정 정보로 결정할 수 있다. 이때, 행렬 H에 포함된 변수(H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)는 수학식 10의 h에 포함된 변수일 수 있다. 즉, 보정 정보 결정부(420)는 열벡터인 h를 행렬 H의 형태로 변환하고, 변환된 H를 보정 정보로 결정할 수 있다.Finally, the correction
이때, 보정 정보 결정부(420)는 행렬 H의 역전치 행렬인 행렬 L에 포함된 인자를 수학식 1, 수학식 2, 수학식 3에 포함된 보정 정보와 교체하여 뎁스 영상의 좌표와 카메라 좌표 간의 관계 정보를 결정할 수 있다. 예를 들어, 보정 정보 결정부(420)는 수학식 12를 이용하여 행렬 L을 결정할 수 있다.At this time, the correction
구체적으로, 보정 정보 결정부(420)는 행렬 L의 인자 Lij를 카메라 영상과 Hij 대신 사용하여 점 (X', Y', Z')과 점(X, Y, Z)에 대한 변환 계를 나타내는 관계 정보를 결정할 수 있다.Specifically, the correction
뎁스 영상 보정부(430)는 뎁스 영상에 포함된 3차원 상의 점과 보정 정보 결정부(420)가 결정한 보정 정보를 기초로 뎁스 영상을 보정할 수 있다.The depth
예를 들어, 뎁스 영상에 포함된 3차원상의 점이 (X', Y', Z')인 경우, 뎁스 영상 보정부(430)는 수학식 1, 수학식 2, 수학식 3에 (X', Y', Z')와 보정 정보(H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)를 대입하여 3차원 상의 점(X, Y, Z)를 결정할 수 있다.For example, when the point on the three-dimensional image included in the depth image is (X ', Y', Z '), the depth
이때, 뎁스 영상 보정부(430)가 결정한 3차원 상의 점(X, Y, Z)는 촬영 카메라(120)와 뎁스 센서(130)간의 기하 관계에 따른 오차를 보정하면서, 뎁스 영상에 포함된 3차원 상의 점을 카메라 좌표 계로 이동한 값일 수 있다. At this time, the three-dimensional point (X, Y, Z) determined by the depth
즉, 뎁스 영상 보정부(430)는 3차원 상의 점(X, Y, Z)를 결정하고, 촬영 카메라(120)와 뎁스 센서(130) 간의 기하 관계에 따라 보정할 수 있다. That is, the depth
또한, 뎁스 영상 보정부(430)는 보정 정보인 h를 초기값으로 하는 비용 함수를 정의하고, 정의한 비용 함수를 최소화하는 비선형최적화 과정을 수행하여 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보다 정밀하게 보정할 수 있다.In addition, the depth
예를 들어, 뎁스 영상 보정부(430)는 수학식 13과 같은 비용함수를 정의할 수 있다.For example, the depth
이때, P=(X, Y, Z) 이고, P"=(X", Y", Z")일 수 있다. 또한, (X", Y", Z")는 (X', Y', Z')를 수학식 1, 수학식 2, 수학식 3에 대입한 결과일 수 있다.
At this time, P = (X, Y, Z) and P "= (X", Y ", Z"). Further, (X ", Y", Z ") may be a result of substituting (X ', Y', Z ') into Equations (1), (2) and (3).
도 5는 본 발명의 일실시예에 따른 뎁스 영상 보정 장치가 뎁스 영상의 특징 점과 카메라 영상의 특징 점을 매칭하는 과정의 일례이다.5 is an example of a process of matching a feature point of a depth image and a feature point of a camera image according to an embodiment of the present invention.
3차원 점 결정부(410)는 카메라 영상(520)을 자체 보정하고, 카메라 영상을 자체 보정하기 위하여 이용한 카메라 영상 특징 점(521)의 3차원 상의 점을 카메라 영상의 3차원 점으로 결정할 수 있다. The three-dimensional
그리고, 3차원 점 결정부(410)는 뎁스 영상(510)에서 카메라 영상 특징 점(521)에 대응하는 뎁스 영상 특징 점(511)을 추출하고, 추출한 뎁스 영상 특징 점(511)에 대응하는 3차원 상의 점을 뎁스 영상의 3차원 점으로 결정할 수 있다.
The 3D
도 6은 본 발명의 일실시예에 따른 영상 보정 방법을 도시한 플로우차트이다.6 is a flowchart illustrating an image correction method according to an embodiment of the present invention.
도 6은 3차원 상의 점을 이용한 영상 보정 방법일 수 있다.6 is an image correction method using three-dimensional points.
단계(610)에서 3차원 점 결정부(410)는 촬영 카메라(120)와 뎁스 센서(130)가 동시에 촬영한 카메라 영상과 뎁스 영상을 수신할 수 있다.In
단계(620)에서 3차원 점 결정부(410)는 단계(610)에서 수신한 카메라 영상의 3차원 상의 점과 단계(610)에서 수신한 뎁스 영상의 3차원 상의 점을 결정할 수 있다.In
구체적으로, 3차원 점 결정부(410)는 카메라 영상을 자체 보정하고, 카메라 영상을 자체 보정하기 위하여 이용한 카메라 영상 특징 점의 3차원 상의 점을 카메라 영상의 3차원 점으로 결정할 수 있다. 다음으로, 3차원 점 결정부(410)는 뎁스 영상에서 카메라 영상 특징 점에 대응하는 뎁스 영상 특징 점을 추출하고, 추출한 뎁스 영상 특징 점에 대응하는 3차원 상의 점을 뎁스 영상의 3차원 점으로 결정할 수 있다. Specifically, the three-dimensional
단계(630)에서 보정 정보 결정부(420)는 단계(620)에서 결정한 카메라 영상의 3차원 상의 점과 뎁스 영상의 3차원 상의 점을 이용하여 뎁스 센서(130)의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정할 수 있다.In
예를 들어, 보정 정보 결정부(420)는 3차원 점 결정부(410)가 결정한 카메라 영상의 3차원 점과 뎁스 영상의 3차원 점을 이용하여 수학식 1 내지 수학식 3 수학식 1, 수학식 2, 수학식 3을 생성할 수 있다. 그리고 보정 정보 결정부(420)는 카메라 영상과, 뎁스 영상에서 서로 대응하는 모든 대응점에 대해 수학식 1, 수학식 2, 수학식 3을 생성하고, 생성한 수학식 1, 수학식 2, 수학식 3을 행렬의 형태로 표현하면 수학식 4와 같은 동차 방정식을 생성할 수 있다. 마지막으로 보정 정보 결정부(420)는 수학식 4로 h에 포함된 변수의 값들을 계산하고, 계산한 변수의 값들을 보정 정보로 결정할 수 있다.For example, the correction
또한, 보정 정보 결정부(420)는 보정 정보를 포함하는 행렬 H의 역전치 행렬인 행렬 L에 포함된 인자를 수학식 1, 수학식 2, 수학식 3에 포함된 보정 정보와 교체하여 뎁스 영상의 좌표와 카메라 좌표 간의 관계 정보를 결정할 수 있다.In addition, the correction
단계(640)에서 뎁스 영상 보정부(430)는 보정 정보인 h를 초기값으로 하는 비용 함수를 정의하고, 정의한 비용 함수를 최소화하는 비선형최적화 과정을 수행할 수 있다. 단계(650)는 카메라 영상을 정밀하게 보정하고자 할 때 수행되며, 카메라 영상의 보정 정도에 따라 단계(650)의 수행이 생략될 수 있다.In
단계(650)에서 뎁스 영상 보정부(430)는 뎁스 영상에 포함된 3차원 상의 점과 단계(630)에서 보정 정보 결정부(420)가 결정한 보정 정보를 기초로 뎁스 영상을 보정할 수 있다.The depth
예를 들어, 뎁스 영상에 포함된 3차원상의 점이 (X', Y', Z')인 경우, 뎁스 영상 보정부(430)는 수학식 1 내지 수학식 3에 (X', Y', Z')와 보정 정보(H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)를 대입하여 3차원 상의 점(X, Y, Z)를 결정할 수 있다.For example, when the point on the three-dimensional image included in the depth image is (X ', Y', Z '), the depth
또한, 뎁스 영상 보정부(430)는 뎁스 영상에 포함된 3차원 상의 점과 단계(650)에서 최소화한 비용 함수를 기초로 뎁스 영상을 보정할 수도 있다.
In addition, the depth
도 7은 본 발명의 일실시예에 따른 영상 보정 방법의 다른 일례를 도시한 플로우차트이다.7 is a flowchart showing another example of the image correction method according to an embodiment of the present invention.
도 7은 패턴 면의 방정식을 이용한 영상 보정 방법일 수 있다.7 is an image correction method using an equation of a pattern surface.
단계(710)에서 3차원 점 결정부(410)는 촬영 카메라(120)와 뎁스 센서(130)가 동시에 촬영한 카메라 영상과 뎁스 영상을 수신할 수 있다.In
단계(720)에서 3차원 점 결정부(410)는 단계(710)에서 수신한 카메라 영상에서 보정용 패턴(110)의 패턴 면의 방정식을 복원할 수 있다. 또한, 3차원 점 결정부(410)는 단계(710)에서 수신한 뎁스 영상에서 보정용 패턴(110)의 패턴 면의 방정식을 복원할 수 있다.In
단계(730)에서 보정 정보 결정부(420)는 단계(720)에서 복원한 카메라 영상의 패턴 면의 방정식과, 뎁스 영상의 패턴 면의 방정식을 이용하여 뎁스 영상을 촬영한 뎁스 센서(130)의 오차와 뎁스 센서(130)와 촬영 카메라(120) 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정할 수 있다In
이때, 보정 정보 결정부(420)는 수학식 1, 수학식 2, 수학식 3을 기초로 수학식 7, 수학식 8, 수학식 9를 생성할 수 있다. 구체적으로, 보정 정보 결정부(420)는 수학식 1, 수학식 2, 수학식 3의 (X, Y, Z)를 (a, b, c)로 변경하고, (X', Y', Z')를 (a', b', c')로 변경하여 수학식 7, 수학식 8, 수학식 9를 생성할 수 있다.At this time, the correction
그리고, 보정 정보 결정부(420)는 수학식 7, 수학식 8, 수학식 9를 행렬의 형태로 표현하여 수학식 10과 같은 동차 방정식을 생성할 수 있다.The correction
다음으로, 보정 정보 결정부(420)는 수학식 10으로 h에 포함된 변수의 값들을 계산하고, 계산한 변수의 값들을 보정 정보로 결정할 수 있다.Next, the correction
또한, 보정 정보 결정부(420)는 보정 정보를 포함하는 행렬 H의 역전치 행렬인 행렬 L에 포함된 인자를 수학식 1, 수학식 2, 수학식 3에 포함된 보정 정보와 교체하여 뎁스 영상의 좌표와 카메라 좌표 간의 관계 정보를 결정할 수 있다.In addition, the correction
단계(740)에서 뎁스 영상 보정부(430)는 보정 정보인 h를 초기값으로 하는 비용 함수를 정의하고, 정의한 비용 함수를 최소화하는 비선형최적화 과정을 수행할 수 있다. 단계(750)는 카메라 영상을 정밀하게 보정하고자 할 때 수행되며, 카메라 영상의 보정 정도에 따라 단계(750)의 수행이 생략될 수 있다.In
단계(750)에서 뎁스 영상 보정부(430)는 뎁스 영상에 포함된 3차원 상의 점과 단계(730)에서 보정 정보 결정부(420)가 결정한 보정 정보를 기초로 뎁스 영상을 보정할 수 있다.The depth
또한, 뎁스 영상 보정부(430)는 뎁스 영상에 포함된 3차원 상의 점과 단계(750)에서 최소화한 비용 함수를 기초로 뎁스 영상을 보정할 수도 있다.
In addition, the depth
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.
100: 뎁스 영상 보정 장치
410: 3차원 점 결정부
420: 보정 정보 결정부
430: 뎁스 영상 보정부100: Depth image correction device
410: three-dimensional point determining unit
420: correction information determination unit
430: Depth image correction unit
Claims (18)
상기 카메라 영상의 3차원 상의 점과 상기 뎁스 영상의 3차원 상의 점을 이용하여 상기 뎁스 영상을 촬영한 뎁스 센서의 오차와 상기 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정하는 보정 정보 결정부; 및
상기 보정 정보와 상기 뎁스 영상의 3차원 상의 점을 기초로 상기 뎁스 영상을 보정하는 뎁스 영상 보정부
를 포함하는 뎁스 영상 보정 장치.A three-dimensional point determiner for determining a three-dimensional point of the camera image and a three-dimensional point of the depth image photographed simultaneously with the camera image;
Wherein the correction information is used to correct an error of the depth sensor that captures the depth image and a geometric geometry relationship between the depth sensor and the photographing camera using a point on the three-dimensional image of the camera image and a point on the three- A correction information determination unit determining the correction information; And
And a depth image correcting unit for correcting the depth image based on the correction information and a three-dimensional point on the depth image,
And a depth image correction unit.
상기 3차원 점 결정부는,
상기 뎁스 영상에서 상기 카메라 영상을 자체 보정하기 위하여 이용한 카메라 영상 특징 점에 대응하는 뎁스 영상 특징 점을 추출하고, 추출한 뎁스 영상 특징 점에 대응하는 3차원 상의 점을 상기 뎁스 영상의 3차원 점으로 결정하는 뎁스 영상 보정 장치.The method according to claim 1,
Wherein the three-
Extracts a depth image characteristic point corresponding to a camera image characteristic point used for self-correcting the camera image in the depth image, and determines a three-dimensional point corresponding to the extracted depth image characteristic point as a three-dimensional point of the depth image A depth image correction device
상기 보정 정보 결정부는,
상기 카메라 영상의 3차원 점과 상기 뎁스 영상의 3차원 점을 이용하여 수학식 1, 수학식 2, 및 수학식 3을 생성하는 뎁스 영상 보정 장치.
[수학식 1]
X = (X’* H11 + Y’* H12 + Z’*H13 + H14)/(X’* H41 + Y’* H42 + Z’*H43 + H44)
[수학식 2]
Y = (X’* H21 + Y’* H22 + Z’*H23 + H24)/(X’* H41 + Y’* H42 + Z’*H43 + H44)
[수학식 3]
Z = (X’* H31 + Y’* H32 + Z’*H33 + H34)/(X’* H41 + Y’* H42 + Z’*H43 + H44)
(이때, X, Y, Z는 상기 카메라 영상의 3차원 상의 점의 좌표이고, X', Y', Z'는 상기 뎁스 영상의 3차원 상의 점의 좌표이며, (H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)는 보정 정보일 수 있다.)The method according to claim 1,
Wherein the correction information determination unit determines,
Wherein the depth image correction unit generates Equations (1), (2), and (3) using a three-dimensional point of the camera image and a three-dimensional point of the depth image.
[Equation 1]
X = (X '* H 11 + Y' * H 12 + Z '* H 13 + H 14 ) / (X '* H 41 + Y' * H 42 + Z '* H 43 + H 44 )
&Quot; (2) "
Y = (X '* H 21 + Y' * H 22 + Z '* H 23 + H 24 ) / (X '* H 41 + Y' * H 42 + Z '* H 43 + H 44 )
&Quot; (3) "
Z = (X '* H 31 + Y' * H 32 + Z '* H 33 + H 34 ) / (X '* H 41 + Y' * H 42 + Z '* H 43 + H 44 )
X ', Y', and Z 'are coordinates of a point on the three-dimensional image of the depth image, and (H 11 H 12 H 13 H 14 H 21 H 22 H 23 H 24 H 31 H 32 H 33 H 34 H 41 H 42 H 43 H 44 ) may be correction information.
상기 보정 정보 결정부는,
상기 카메라 영상의 3차원 상의 점과 상기 뎁스 영상의 3차원 상의 점을 이용하여 수학식 4를 생성하고, 수학식 4를 이용하여 보정 정보를 결정하는 뎁스 영상 보정 장치.
[수학식 4]
Ah=0
(이때, A는 상기 카메라 영상의 3차원 상의 점과 상기 뎁스 영상의 3차원 상의 점의 좌표로 구성된 3m*16행렬이고, h는 보정 정보이며, m은 카메라 영상, 또는 뎁스 영상에 포함된 3차원 상의 점의 개수일 수 있다.)The method according to claim 1,
Wherein the correction information determination unit determines,
A depth image correcting unit for generating Equation (4) by using a three-dimensional point on the camera image and a three-dimensional point on the depth image, and determining correction information using Equation (4).
&Quot; (4) "
Ah = 0
(Where A is a 3m * 16 matrix composed of three-dimensional points on the camera image and three-dimensional points on the depth image, h is correction information, m is a camera image, or 3 It may be the number of points on the dimension.)
상기 뎁스 영상 보정부는,
상기 보정 정보를 초기값으로 하는 비용 함수를 정의하고, 정의한 비용 함수를 최소화하는 비선형 최적화 과정을 수행하여 뎁스 센서의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하는 뎁스 영상 보정 장치.The method according to claim 1,
Wherein the depth image correction unit comprises:
And a nonlinear optimization process for minimizing the defined cost function to define a geometric geometric relationship between the depth sensor and the photographing camera by defining a cost function having the correction information as an initial value and correcting the geometric geometric relationship between the depth sensor and the photographing camera.
상기 보정 정보와 상기 뎁스 영상의 3차원 상의 점을 기초로 상기 뎁스 영상을 보정하는 뎁스 영상 보정부
를 포함하는 뎁스 영상 보정 장치.An error of the depth sensor that captures the depth image and a correction for correcting the geometric geometry relationship between the depth sensor and the photographing camera by using the equation of the pattern surface restored by the photographing camera and the equation of the pattern surface restored by the depth sensor, A correction information determination unit for determining information; And
And a depth image correcting unit for correcting the depth image based on the correction information and a three-dimensional point on the depth image,
And a depth image correction unit.
상기 보정 정보 결정부는,
촬영 카메라가 복원한 패턴 면의 방정식이 수학식 5이고, 뎁스 센서가 복원한 패턴 면의 방정식이 수학식 6인 경우, 수학식 5와 수학식 6을 기초로 수학식 7, 수학식 8, 및 수학식 9를 생성하는 뎁스 영상 보정 장치.
[수학식 5]
aX + bY + cZ + 1=0
[수학식 6]
a'X + b'Y + c'Z + 1=0
[수학식 7]
a = (a'* H11 + b'* H12 + c'*H13 + H14)/(a'* H41 + b'* H42 + c'*H43 + H44)
[수학식 8]
b = (a'* H21 + b'* H22 + c'*H23 + H24)/(a'* H41 + b'* H42 + c'*H43 + H44)
[수학식 9]
c = (a'* H31 + b'* H32 + c'*H33 + H34)/(a'* H41 + b'* H42 + c'*H43 + H44)
(이때, (H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)는 보정 정보일 수 있다.)The method according to claim 6,
Wherein the correction information determination unit determines,
When the equation of the pattern surface restored by the photographing camera is Equation 5 and the equation of the pattern surface restored by the depth sensor is Equation 6, Equation 7, Equation 8, and Equation 7 are calculated based on Equation 5 and Equation 6, (9). ≪ / RTI >
&Quot; (5) "
aX + bY + cZ + 1 = 0
&Quot; (6) "
a'X + b'Y + c'Z + 1 = 0
&Quot; (7) "
a = (a '* H 11 + b' * H 12 + c '* H 13 + H 14 ) / (a '* H 41 + b' * H 42 + c '* H 43 + H 44 )
&Quot; (8) "
b = (a '* H 21 + b' * H 22 + c '* H 23 + H 24 ) / (a '* H 41 + b' * H 42 + c '* H 43 + H 44 )
&Quot; (9) "
c = (a '* H 31 + b' * H 32 + c '* H 33 + H 34 ) / (a '* H 41 + b' * H 42 + c '* H 43 + H 44 )
(Here, (H 11 H 12 H 13 H 14 H 21 H 22 H 23 H 24 H 31 H 32 H 33 H 34 H 41 H 42 H 43 H 44 ) may be correction information.
상기 보정 정보 결정부는,
상기 보정 정보가 포함된 행렬 H의 역전치 행렬인 행렬 L에 포함된 인자를 상기 수학식 1, 수학식 2, 수학식 3에 포함된 보정 정보와 교체하여 상기 뎁스 영상의 좌표와 상기 카메라 좌표 간의 관계 정보를 결정하는 뎁스 영상 보정 장치.8. The method of claim 7,
Wherein the correction information determination unit determines,
A factor included in the matrix L, which is a matrix of inverse of the matrix H including the correction information, is replaced with the correction information included in the equations (1), (2) and (3) A depth image correction device for determining relationship information.
상기 뎁스 영상 보정부는,
상기 보정 정보를 기초로 상기 뎁스 영상의 3차원 상의 점을 카메라 좌표계로 옮기는 뎁스 영상 보정 장치. The method according to claim 6,
Wherein the depth image correction unit comprises:
And a point on the three-dimensional image of the depth image is shifted to a camera coordinate system based on the correction information.
상기 카메라 영상의 3차원 상의 점과 상기 뎁스 영상의 3차원 상의 점을 이용하여 상기 뎁스 영상을 촬영한 뎁스의 오차와 뎁스 센서와 촬영 카메라 사이의 기하학적인 기하 관계를 보정하기 위한 보정 정보를 결정하는 단계; 및
상기 보정 정보와 상기 뎁스 영상의 3차원 상의 점을 기초로 상기 뎁스 영상을 보정하는 단계
를 포함하는 뎁스 영상 보정 방법.Determining a three-dimensional point on the camera image and a three-dimensional point on the depth image captured simultaneously with the camera image;
Determining a correction information for correcting an error of the depth image capturing the depth image and a geometric geometry relationship between the depth sensor and the photographing camera using a point on the three-dimensional image of the camera image and a point on the three- step; And
Correcting the depth image based on the correction information and the three-dimensional point of the depth image,
And correcting the depth image.
상기 3차원 상의 점을 결정하는 단계는,
상기 뎁스 영상에서 상기 카메라 영상을 자체 보정하기 위하여 이용한 카메라 영상 특징 점에 대응하는 뎁스 영상 특징 점을 추출하고, 추출한 뎁스 영상 특징 점에 대응하는 3차원 상의 점을 상기 뎁스 영상의 3차원 점으로 결정하는 뎁스 영상 보정 방법.11. The method of claim 10,
Wherein the step of determining a point on the three-
Extracts a depth image characteristic point corresponding to a camera image characteristic point used for self-correcting the camera image in the depth image, and determines a three-dimensional point corresponding to the extracted depth image characteristic point as a three-dimensional point of the depth image A depth image correction method.
상기 보정 정보를 결정하는 단계는,
상기 카메라 영상의 3차원 점과 상기 뎁스 영상의 3차원 점을 이용하여 수학식 1, 수학식 2, 및 수학식 3을 생성하는 뎁스 영상 보정 방법.
[수학식 1]
X = (X’* H11 + Y’* H12 + Z’*H13 + H14)/(X’* H41 + Y’* H42 + Z’*H43 + H44)
[수학식 2]
Y = (X’* H21 + Y’* H22 + Z’*H23 + H24)/(X’* H41 + Y’* H42 + Z’*H43 + H44)
[수학식 3]
Z = (X’* H31 + Y’* H32 + Z’*H33 + H34)/(X’* H41 + Y’* H42 + Z’*H43 + H44)
(이때, X, Y, Z는 상기 카메라 영상의 3차원 상의 점의 좌표이고, X', Y', Z'는 상기 뎁스 영상의 3차원 상의 점의 좌표이며, (H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)는 보정 정보일 수 있다.)11. The method of claim 10,
Wherein the step of determining the correction information comprises:
Wherein the depth image correction unit generates the mathematical equations (1), (2), and (3) using the three-dimensional point of the camera image and the three-dimensional point of the depth image.
[Equation 1]
X = (X '* H 11 + Y' * H 12 + Z '* H 13 + H 14 ) / (X '* H 41 + Y' * H 42 + Z '* H 43 + H 44 )
&Quot; (2) "
Y = (X '* H 21 + Y' * H 22 + Z '* H 23 + H 24 ) / (X '* H 41 + Y' * H 42 + Z '* H 43 + H 44 )
&Quot; (3) "
Z = (X '* H 31 + Y' * H 32 + Z '* H 33 + H 34 ) / (X '* H 41 + Y' * H 42 + Z '* H 43 + H 44 )
X ', Y', and Z 'are coordinates of a point on the three-dimensional image of the depth image, and (H 11 H 12 H 13 H 14 H 21 H 22 H 23 H 24 H 31 H 32 H 33 H 34 H 41 H 42 H 43 H 44 ) may be correction information.
상기 보정 정보를 결정하는 단계는,
상기 카메라 영상의 3차원 상의 점과 상기 뎁스 영상의 3차원 상의 점을 이용하여 수학식 4를 생성하고, 수학식 4를 이용하여 보정 정보를 결정하는 뎁스 영상 보정 방법.
[수학식 4]
Ah=0
(이때, A는 상기 카메라 영상의 3차원 상의 점과 상기 뎁스 영상의 3차원 상의 점의 좌표로 구성된 3m*16행렬이고, h는 보정 정보이며, m은 카메라 영상, 또는 뎁스 영상에 포함된 3차원 상의 점의 개수일 수 있다.)11. The method of claim 10,
Wherein the step of determining the correction information comprises:
Wherein the correction information is determined by using Equation (4) using Equation (4) using a point on the 3D image of the camera image and a point on the 3D image of the depth image.
&Quot; (4) "
Ah = 0
(Where A is a 3m * 16 matrix composed of three-dimensional points on the camera image and three-dimensional points on the depth image, h is correction information, m is a camera image, or 3 It may be the number of points on the dimension.)
상기 뎁스 영상을 보정하는 단계는,
상기 보정 정보를 초기값으로 하는 비용 함수를 정의하고, 정의한 비용 함수를 최소화하는 비선형 최적화 과정을 수행하여 뎁스 영상을 보정하는 뎁스 영상 보정 방법.11. The method of claim 10,
Wherein the step of correcting the depth image comprises:
Defining a cost function having the correction information as an initial value, and performing a nonlinear optimization process for minimizing a defined cost function to correct the depth image.
상기 뎁스을 보정하는 단계는,
상기 보정 정보를 기초로 상기 뎁스 영상의 3차원 상의 점을 카메라 좌표계로 옮기는 뎁스 영상 보정 장치. 11. The method of claim 10,
The step of correcting the depth comprises:
And a point on the three-dimensional image of the depth image is shifted to a camera coordinate system based on the correction information.
상기 보정 정보와 상기 뎁스 영상의 3차원 상의 점을 기초로 상기 뎁스 영상을 보정하는 단계
를 포함하는 뎁스 영상 보정 방법.An imaging camera capturing the camera image using an equation of a pattern surface restored by a photographing camera and an equation of a pattern surface restored by the depth sensor, an error of a depth sensor that captures the depth image, an error between a depth sensor and a photographing camera Determining correction information for correcting the geometric relationship of the first and second regions; And
Correcting the depth image based on the correction information and the three-dimensional point of the depth image,
And correcting the depth image.
상기 보정 정보를 결정하는 단계는,
촬영 카메라가 복원한 패턴 면의 방정식이 수학식 5이고, 뎁스 센서가 복원한 패턴 면의 방정식이 수학식 6인 경우, 수학식 5와 수학식 6을 기초로 수학식 7, 수학식 8, 및 수학식 9를 생성하는 뎁스 영상 보정 방법.
[수학식 5]
aX + bY + cZ + 1=0
[수학식 6]
a'X + b'Y + c'Z + 1=0
[수학식 7]
a = (a'* H11 + b'* H12 + c'*H13 + H14)/(a'* H41 + b'* H42 + c'*H43 + H44)
[수학식 8]
b = (a'* H21 + b'* H22 + c'*H23 + H24)/(a'* H41 + b'* H42 + c'*H43 + H44)
[수학식 9]
c = (a'* H31 + b'* H32 + c'*H33 + H34)/(a'* H41 + b'* H42 + c'*H43 + H44)
(이때, (H11 H12 H13 H14 H21 H22 H23 H24 H31 H32 H33 H34 H41 H42 H43 H44)는 보정 정보일 수 있다.)17. The method of claim 16,
Wherein the step of determining the correction information comprises:
When the equation of the pattern surface restored by the photographing camera is Equation 5 and the equation of the pattern surface restored by the depth sensor is Equation 6, Equation 7, Equation 8, and Equation 7 are calculated based on Equation 5 and Equation 6, A depth image correction method for generating Equation (9).
&Quot; (5) "
aX + bY + cZ + 1 = 0
&Quot; (6) "
a'X + b'Y + c'Z + 1 = 0
&Quot; (7) "
a = (a '* H 11 + b' * H 12 + c '* H 13 + H 14 ) / (a '* H 41 + b' * H 42 + c '* H 43 + H 44 )
&Quot; (8) "
b = (a '* H 21 + b' * H 22 + c '* H 23 + H 24 ) / (a '* H 41 + b' * H 42 + c '* H 43 + H 44 )
&Quot; (9) "
c = (a '* H 31 + b' * H 32 + c '* H 33 + H 34 ) / (a '* H 41 + b' * H 42 + c '* H 43 + H 44 )
(Here, (H 11 H 12 H 13 H 14 H 21 H 22 H 23 H 24 H 31 H 32 H 33 H 34 H 41 H 42 H 43 H 44 ) may be correction information.
상기 보정 정보를 결정하는 단계는,
상기 보정 정보가 포함된 행렬 H의 역전치 행렬인 행렬 L에 포함된 인자를 상기 수학식 1, 수학식 2, 수학식 3에 포함된 보정 정보와 교체하여 상기 뎁스 영상의 좌표와 상기 카메라 좌표 간의 관계 정보를 결정하는 뎁스 영상 보정 방법.18. The method of claim 17,
Wherein the step of determining the correction information comprises:
A factor included in the matrix L, which is a matrix of inverse of the matrix H including the correction information, is replaced with the correction information included in the equations (1), (2) and (3) A depth image correction method for determining relationship information.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013219327A JP6359259B2 (en) | 2012-10-23 | 2013-10-22 | Depth image correction apparatus and method based on relationship between depth sensor and photographing camera |
US14/059,685 US9147249B2 (en) | 2012-10-23 | 2013-10-22 | Apparatus and method for calibrating depth image based on relationship between depth sensor and color camera |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20120117997 | 2012-10-23 | ||
KR1020120117997 | 2012-10-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140052824A true KR20140052824A (en) | 2014-05-07 |
KR101770866B1 KR101770866B1 (en) | 2017-08-25 |
Family
ID=50885971
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130105538A KR101770866B1 (en) | 2012-10-23 | 2013-09-03 | Apparatus and method for calibrating depth image based on depth sensor-color camera relations |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101770866B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108445456A (en) * | 2017-02-16 | 2018-08-24 | 通用汽车环球科技运作有限责任公司 | Calibration of the light up to-radar relative pose |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8866889B2 (en) * | 2010-11-03 | 2014-10-21 | Microsoft Corporation | In-home depth camera calibration |
-
2013
- 2013-09-03 KR KR1020130105538A patent/KR101770866B1/en active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108445456A (en) * | 2017-02-16 | 2018-08-24 | 通用汽车环球科技运作有限责任公司 | Calibration of the light up to-radar relative pose |
Also Published As
Publication number | Publication date |
---|---|
KR101770866B1 (en) | 2017-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102085228B1 (en) | Imaging processing method and apparatus for calibrating depth of depth sensor | |
JP5029618B2 (en) | Three-dimensional shape measuring apparatus, method and program by pattern projection method | |
JP6359259B2 (en) | Depth image correction apparatus and method based on relationship between depth sensor and photographing camera | |
US9965870B2 (en) | Camera calibration method using a calibration target | |
CN109961468B (en) | Volume measurement method and device based on binocular vision and storage medium | |
JP6465789B2 (en) | Program, apparatus and method for calculating internal parameters of depth camera | |
JPWO2014002849A1 (en) | Three-dimensional measurement method, apparatus and system, and image processing apparatus | |
JP6282098B2 (en) | Calibration apparatus and method | |
KR20110116325A (en) | Image processing apparatus and method | |
JP6413595B2 (en) | Image processing apparatus, system, image processing method, and program | |
CN107808398B (en) | Camera parameter calculation device, calculation method, program, and recording medium | |
JP2014013147A5 (en) | ||
WO2015068470A1 (en) | 3d-shape measurement device, 3d-shape measurement method, and 3d-shape measurement program | |
JP7173285B2 (en) | Camera calibration device, camera calibration method, and program | |
JP4055998B2 (en) | Distance detection device, distance detection method, and distance detection program | |
JP2016218815A (en) | Calibration device and method for line sensor camera | |
TW201523510A (en) | System and method for combining point clouds | |
WO2015159835A1 (en) | Image processing device, image processing method, and program | |
JP2018009927A (en) | Image processing device, image processing method and program | |
JP6486083B2 (en) | Information processing apparatus, information processing method, and program | |
JP2008224323A (en) | Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program | |
JP5656018B2 (en) | Sphere detection method | |
JP2010145219A (en) | Movement estimation device and program | |
KR101770866B1 (en) | Apparatus and method for calibrating depth image based on depth sensor-color camera relations | |
CN110232715B (en) | Method, device and system for self calibration of multi-depth camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |