KR20180019329A - Depth map acquisition device and depth map acquisition method - Google Patents
Depth map acquisition device and depth map acquisition method Download PDFInfo
- Publication number
- KR20180019329A KR20180019329A KR1020160103546A KR20160103546A KR20180019329A KR 20180019329 A KR20180019329 A KR 20180019329A KR 1020160103546 A KR1020160103546 A KR 1020160103546A KR 20160103546 A KR20160103546 A KR 20160103546A KR 20180019329 A KR20180019329 A KR 20180019329A
- Authority
- KR
- South Korea
- Prior art keywords
- depth information
- points
- inverse
- reference image
- pixel
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- H04N13/0246—
-
- H04N13/0271—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
본 발명은 깊이 정보 획득 장치 및 깊이 정보 획득 방법에 관한 것이다.The present invention relates to a depth information obtaining apparatus and a depth information obtaining method.
기존의 SfM(Structure-from-Motion) 기술은 시점의 변화가 큰 영상들로부터 장면(scene)의 삼차원정보를 복원했으나, 최근에는 시점 변화가 미소한 복수의 영상으로부터 삼차원 깊이 정보를 획득하는 연구가 진행되고 있다.The existing Structure-from-Motion (SfM) technology restores three-dimensional information of a scene from images with large changes in viewpoint. However, recently, research that acquires three-dimensional depth information from a plurality of images with minute viewpoint changes It is progressing.
Micro-baseline stereo (Technical report MSR-TR-2014-73, Microsoft Research, 2014)(이하 논문 1)은 미소한 삼차원 공간 상의 카메라 시점 변화를 이차원 영상의 호모그래피(homography) 변환을 이용하여 근사적으로 계산하고, 광 흐름(optical flow)을 측정하여 깊이 정보를 추정하였다.Micro-baseline stereo (Technical report MSR-TR-2014-73, Microsoft Research, 2014) (hereafter referred to as "the paper 1") is used to approximate the camera viewpoint change in a minute three- dimensional space using homography transformation of two- And depth information was estimated by measuring the optical flow.
미국 등록특허공보 제8760500호(2014.06.24.)(이하 특허 1) 및 3D Reconstruction from Accidental Motion (IEEE Computer Vision and Pattern Recognition 2014)(이하 논문 2)는 기존 SfM의 모델에서 카메라 회전 행렬(rotation matrix)에 작은 각도 근사(small angle approximation)을 적용하고, 특징점의 삼차원 좌표를 기준 영상으로부터 역 깊이(inverse depth)를 이용하여 모델링하여, 카메라 자세를 추정하였다. 깊이 정보의 획득은, 플레인 스위핑(plane sweeping)을 이용하여 대략적인 깊이 정보를 구한 다음, 마르코프 랜덤 필드(Markov Random Field)를 이용하여 전파시켜 획득하였다.In the conventional SfM model, a rotation matrix (rotation matrix) is defined as a rotation angle of a camera, ), And the camera posture was estimated by modeling the three - dimensional coordinates of the feature points using inverse depth from the reference image. Acquisition of depth information was achieved by obtaining approximate depth information using plane sweeping and propagating using Markov Random Field.
High quality structure from small motion for rolling shutter cameras. (IEEE International Conference on Computer Vision 2015)(이하 논문 3)은 특허 1 및 논문 2의 방법을 롤링셔터 카메라(rolling-shutter camera)에 적합하도록 확장하고, 획득된 포인트 클라우드(point cloud)의 대략적인 깊이 정보를, 기준 영상의 컬러 정보를 이용하여 전파시킴으로써 깊이 영상(depth map)을 획득하였다.High quality structure from small motion for rolling shutter cameras. (Hereinafter referred to as " IEEE International Conference on Computer Vision 2015 ") (hereinafter referred to as " Paper No. 3 ") discloses a method for expanding the method of Patent 1 and Method 2 to a rolling- The depth map is obtained by propagating the information using the color information of the reference image.
하지만, 논문 1의 경우, 삼차원의 카메라 움직임을 이차원으로 근사화함으로써 자연적으로 오차가 발생하며, 이를 이용하여 획득한 깊이 정보 역시 큰 오차를 갖는다. 특허 1, 논문 2, 및 논문 3의 방법은, 삼차원 카메라 움직임을 작은 각도 근사를 이용한 모델링을 통해 적절히 추정하였으나, 카메라의 내부 파라미터(intrinsic parameters)가 미리 캘리브레이션(calibration)을 통해 구해진 상태에서만 적용이 가능한 기술로써, 사용자가 카메라 포커스를 변경할 때마다 일일이 카메라 캘리브레이션을 해야하는 큰 번거로움이 있다. 또한 이로부터 얻어진 결과가 부정확하거나(특허 1 및 논문 2), 구조가 지나치게 스무스(smooth)하여 구분성이 떨어지는 단점(논문 3)이 있다.However, in the case of the paper 1, an error occurs naturally by approximating the three-dimensional camera motion in two dimensions, and the obtained depth information also has a large error. Patents 1, 2, and 3 have appropriately estimated three-dimensional camera motion through modeling using small angle approximation, but only when the intrinsic parameters of the camera are obtained through calibration As a possible technique, there is a great inconvenience that the user must perform camera calibration every time the user changes the camera focus. Also, there is a disadvantage that the result obtained from this is inaccurate (Patent 1 and Paper 2), the structure is too smooth and the distinction is poor (Thesis 3).
해결하고자 하는 기술적 과제는 사용자가 별도로 캘리브레이션을 수행하지 않고서도 미소 시점 변화를 갖는 복수의 영상 정보로부터 카메라 파라미터 및 깊이 정보를 획득할 수 있는 깊이 정보 획득 장치 및 깊이 정보 획득 방법을 제공하는 데 있다.A technical problem to be solved is to provide a depth information acquiring apparatus and a depth information acquiring method which can acquire camera parameters and depth information from a plurality of image information having a minute view change without performing a calibration separately by the user.
발명의 한 특징에 따른 복수의 시점에 따른 복수의 영상 정보를 이용하여 깊이 정보를 획득하는 깊이 정보 획득 장치는, 기준 영상 정보로부터 복수의 특징점을 추출하고, 비기준 영상 정보들 각각으로부터 상기 복수의 특징점에 대응하는 복수의 대응점을 추출하는 특징점 및대응점 추출부 및비왜곡 특징점 및 비왜곡 대응점 획득부 및 추정된 비왜곡 대응점 획득부를 포함하는 카메라 파라미터 획득부를 포함한다. 상기 비왜곡 특징점 및비왜곡 대응점 획득부는 상기 복수의 특징점 및 상기 복수의 대응점을 각각 왜곡(distorted) 영상 좌표계에서 비왜곡(undistorted) 영상 좌표계로 매핑(mapping)하여, 복수의 비왜곡 특징점 및 복수의 비왜곡 대응점을 획득하고, 상기 추정된 비왜곡 대응점 획득부는 상기 복수의 비왜곡 특징점의 추정된 삼차원 좌표를 획득하며, 상기 추정된 삼차원 좌표를 상기 비기준 영상 정보들 각각에 투사(project)하여, 복수의 추정된 비왜곡 대응점을 획득하고, 상기 카메라 파라미터 획득부는 상기 복수의 비왜곡 대응점과 상기 복수의 추정된 비왜곡 대응점의 차이를 최소화하는 카메라 파라미터를 획득할 수 있다.According to an aspect of the present invention, there is provided a depth information acquisition apparatus for acquiring depth information using a plurality of image information according to a plurality of viewpoints, the apparatus comprising: a plurality of feature points extraction means for extracting a plurality of feature points from reference image information, A feature point extracting unit for extracting a plurality of corresponding points corresponding to feature points, a camera parameter acquiring unit including a non-distortion corresponding point acquiring unit and an estimated non-distortion corresponding point acquiring unit. Wherein the non-distorted feature point and the ratio distortion corresponding point obtaining unit maps the plurality of feature points and the plurality of corresponding points respectively to an undistorted image coordinate system in a distorted image coordinate system to generate a plurality of non-distorted feature points and a plurality of non- Distortion corresponding point obtaining unit obtains the estimated three-dimensional coordinates of the plurality of non-distorted feature points, projects the estimated three-dimensional coordinates to each of the non-reference image information, And the camera parameter obtaining section may obtain a camera parameter that minimizes a difference between the plurality of non-distortion corresponding points and the plurality of estimated non-distortion corresponding points.
상기 깊이 정보 획득 장치는, 상기 카메라 파라미터를 이용해 상기 복수의 영상 정보들로부터 왜곡을 제거하는 왜곡 제거부 상기 비기준 영상 정보들 각각을 복수의 역 깊이(inverse depth) 정보에 따라 기준 영상 좌표계로 매핑하여, 각 픽셀의 각 역 깊이 정보에 대한 복수의 밝기 프로파일을 획득하는 밝기 프로파일 획득부 및 각 픽셀의 각 역 깊이 정보에 대한 상기 복수의 밝기 프로파일을 이용하여 각 픽셀의 특정 역 깊이 정보를 획득하는 역 깊이 정보 획득부를 더 포함할 수 있다.Wherein the depth information acquisition device maps each of the non-reference image information to the reference image coordinate system according to a plurality of inverse depth information to remove distortion from the plurality of image information using the camera parameter, A brightness profile obtaining unit for obtaining a plurality of brightness profiles for each inverse depth information of each pixel, and a plurality of brightness profiles for inverse depth information of each pixel to obtain specific inverse depth information of each pixel And an inverse depth information obtaining unit.
상기 깊이 정보 획득 장치는, 복수의 픽셀에 대한 복수의 특정 역 깊이 정보 중 임계치를 초과하는 특정 역 깊이 정보를 제거하는 이상 역 깊이 정보 제거부 및 상기 복수의 픽셀 중 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파하는 정제부를 더 포함할 수 있다.Wherein the depth information acquiring device comprises: an outlier depth information removing unit that removes specific inverse depth information exceeding a threshold from a plurality of specific inverse depth information for a plurality of pixels; Depth information to the depth information.
상기 특징점 및 대응점 추출부는, 상기 복수의 대응점으로부터 상기 기준 영상 정보를 역방향 추적하여 복수의 역방향 대응점을 추출하고, 상기 복수의 역방향 대응점 중 대응하는 특징점과 임계치 이상의 간격을 갖는 이상 역방향 대응점을 검출하며, 상기 이상 역방향 대응점에 대응하는 특징점과 대응점을 상기 복수의 특징점과 상기 복수의 대응점으로부터 제거할 수있다.Wherein the feature point and corresponding point extracting unit extracts a plurality of backward correspondence points by tracing back the reference image information from the plurality of corresponding points and detects an anteropposite corresponding point having an interval greater than or equal to a threshold value from corresponding feature points of the plurality of backward corresponding points, The feature points corresponding to the anomaly inverse opposite points and the corresponding points can be removed from the plurality of feature points and the plurality of corresponding points.
상기 역 깊이 정보 획득부는, 각 픽셀의 각 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 분산량(variance amount)을 계산하고, 상기 분산량이 가장 낮은 역깊이 정보를 해당 픽셀에 대한 상기 특정 역 깊이 정보로서 획득할 수있다.Wherein the inverse depth information obtaining unit calculates a variance amount of the plurality of brightness profiles with respect to each inverse depth information of each pixel and outputs the inverse depth information having the smallest amount of variance to the specific inverse depth information .
상기 이상 역 깊이 정보 제거부는, 상기 특정 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 분산량의 상기 특정 역깊이 정보에 대한 상기 복수의 밝기 프로파일의 평균값에 대한 비율이 상기 임계치를 초과하는 경우, 상기 특정 역 깊이 정보를 제거할 수 있다.Wherein when the ratio of the dispersion amount of the plurality of brightness profiles to the specific depth information to the average value of the plurality of brightness profiles with respect to the specific depth information is greater than the threshold value, Specific depth information can be removed.
상기 정제부는, 상기 기준 영상 정보의 색(color) 정보를 참조하여 상기 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파할 수 있다.The refiner may refer to color information of the reference image information to propagate inverse depth information on the pixel from which the specific inverse depth information is removed.
발명의 다른 특징에 따른 복수의 시점에 따른 복수의 영상 정보를 이용하여 깊이 정보를 획득하는 깊이 정보 획득 방법은, 기준 영상 정보로부터 복수의 특징점을 추출하고, 비기준 영상 정보들 각각으로부터 상기 복수의 특징점에 대응하는 복수의 대응점을 추출하는 단계 상기 복수의 특징점 및 상기 복수의 대응점을 각각 왜곡 영상 좌표계에서 비왜곡 영상 좌표계로 매핑하여, 복수의 비왜곡 특징점 및 복수의 비왜곡 대응점을 획득하는 단계 상기 복수의 비왜곡 특징점의 추정된 삼차원 좌표를 획득하고, 상기 추정된 삼차원 좌표를 상기 비기준 영상 정보들 각각에 투사하여, 복수의 추정된 비왜곡 대응점을 획득하는 단계 및 상기 복수의 비왜곡 대응점과 상기 복수의 추정된 비왜곡 대응점의 차이를 최소화하는 카메라 파라미터를 획득하는 단계를 포함한다.According to another aspect of the present invention, there is provided a depth information acquisition method for acquiring depth information using a plurality of image information according to a plurality of viewpoints, comprising: extracting a plurality of feature points from reference image information; Extracting a plurality of corresponding points corresponding to the feature points; mapping the plurality of feature points and the plurality of corresponding points from the distortion image coordinate system to the non-distortion image coordinate system to obtain a plurality of non-distorted feature points and a plurality of non- Obtaining the estimated three-dimensional coordinates of the plurality of non-distorted feature points, projecting the estimated three-dimensional coordinates to each of the non-reference image information to obtain a plurality of estimated non-distortion corresponding points, Obtaining a camera parameter that minimizes the difference of the plurality of estimated non-distorted corresponding points It includes.
상기 깊이 정보 획득 방법은, 상기 카메라 파라미터를 이용해 상기 복수의 영상 정보들로부터 왜곡을 제거하는 단계 상기 비기준 영상 정보들 각각을 복수의 역 깊이 정보에 따라 기준 영상 좌표계로 매핑하여, 각 픽셀의 각 역 깊이 정보에 대한 복수의 밝기 프로파일을 획득하는 단계 및 각 픽셀의 각 역 깊이 정보에 대한 상기 복수의 밝기 프로파일을 이용하여 각 픽셀의 특정 역 깊이 정보를 획득하는 단계를 더 포함할 수 있다.Wherein the step of removing distortion from the plurality of image information using the camera parameter maps each of the non-reference image information to a reference image coordinate system according to a plurality of inverse depth information, Acquiring a plurality of brightness profiles for the inverse depth information, and obtaining specific inverse depth information of each pixel using the plurality of brightness profiles for each inverse depth information of each pixel.
상기 깊이 정보 획득 방법는, 복수의 픽셀에 대한 복수의 특정 역 깊이 정보 중 임계치를 초과하는 특정 역 깊이 정보를 제거하는 단계 및 상기 복수의 픽셀 중 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파하는 단계를 더 포함할 수 있다.The depth information obtaining method includes the steps of removing specific inverse depth information exceeding a threshold among a plurality of specific inverse depth information for a plurality of pixels and removing inverse depth information for a pixel from which the specific inverse depth information is removed And may further include a propagating step.
상기 복수의 대응점을 추출하는 단계는, 상기 복수의 대응점으로부터 상기 기준 영상 정보를 역방향 추적하여 복수의 역방향 대응점을 추출하는 단계The step of extracting the plurality of corresponding points may include the steps of tracing back the reference image information from the plurality of corresponding points and extracting a plurality of backward corresponding points
상기 복수의 역방향 대응점 중 대응하는 특징점과 임계치 이상의 간격을 갖는 이상 역방향 대응점을 검출하는 단계 및 상기 이상 역방향 대응점에 대응하는 특징점과 대응점을 상기 복수의 특징점과 상기 복수의 대응점으로부터 제거하는 단계를 포함할 수있다.Detecting an anomaly inverse correspondence point having an interval equal to or greater than a threshold value with corresponding feature points of the plurality of inverse correspondence points and removing the feature points corresponding to the anomaly inverse opposite point from the plurality of feature points and the plurality of correspondence points .
상기 각 픽셀의 특정 역 깊이 정보를 획득하는 단계는, 각 픽셀의 각 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 분산량을 계산하는 단계 및 상기 분산량이 가장 낮은 역 깊이 정보를 해당 픽셀에 대한 상기 특정 역 깊이 정보로서 획득하는 단계를 포함할 수 있다.Wherein the step of acquiring specific inverse depth information of each pixel includes the steps of calculating a variance amount of the plurality of brightness profiles for each inverse depth information of each pixel, As specific inverse depth information.
상기 임계치를 초과하는 특정 역 깊이 정보를 제거하는 단계는, 상기 특정 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 분산량의 상기 특정 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 평균값에 대한 비율이 상기 임계치를 초과하는 경우, 상기 특정 역 깊이 정보를 제거할 수 있다.Wherein the step of removing the specific inverse depth information exceeding the threshold value is performed such that the ratio of the variance amount of the plurality of brightness profile to the specific inverse depth information to the average value of the plurality of brightness profiles, If the threshold value is exceeded, the specific inverse depth information can be removed.
상기 역 깊이 정보를 전파하는 단계는, 상기 기준 영상 정보의 색 정보를 참조하여 상기 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파할 수 있다.The step of propagating the inverse depth information may propagate inverse depth information on the pixel from which the specific inverse depth information is removed by referring to the color information of the reference image information.
실시예들에 따른 깊이 정보 획득 장치 및 깊이 정보 획득 방법은 사용자가 별도로 캘리브레이션을 수행하지 않고서도 미소 시점 변화를 갖는 복수의 영상 정보로부터 카메라 파라미터 및 깊이 정보를 획득할 수 있다.The depth information acquiring apparatus and depth information acquiring method according to embodiments can acquire camera parameters and depth information from a plurality of image information having a minute view change without performing a calibration separately.
도 1은 본 발명의 한 실시예에 따른 깊이 정보 획득 장치를 설명하기 위한 도면이다.
도 2는 특징점 및 대응점 추출부의 동작을 설명하기 위한 도면이다.
도 3은 카메라 파라미터 획득부의 동작을 설명하기 위한 도면이다.
도 4 내지 6는 밝기 프로파일 획득부 및 역 깊이 정보 획득부를 설명하기 위한 도면이다.
도 7 내지 10는 이상 역 깊이 정보 제거부 및 정제부를 설명하기 위한 도면이다.FIG. 1 is a view for explaining a depth information obtaining apparatus according to an embodiment of the present invention.
2 is a diagram for explaining the operation of the minutiae and the corresponding point extraction unit.
3 is a diagram for explaining the operation of the camera parameter obtaining unit.
4 to 6 are views for explaining a brightness profile obtaining unit and an inverse depth information obtaining unit.
Figs. 7 to 10 are views for explaining the abnormal depth information removing unit and the refinement unit. Fig.
이하, 첨부한 도면을 참고로 하여 여러 실시예들에 대하여 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 실시예들은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예들에 한정되지 않는다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The embodiments may be implemented in various different forms and are not limited to the embodiments described herein.
실시예들을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 번호를 붙이도록 한다. 따라서 이전 도면에 사용된 구성요소의 참조 번호를 다음 도면에서 사용할 수 있다.In order to clearly illustrate the embodiments, parts not related to the description are omitted, and the same reference numerals are used for the same or similar components throughout the specification. Therefore, reference numerals of the components used in the previous drawings can be used in the following drawings.
도 1은 본 발명의 한 실시예에 따른 깊이 정보 획득 장치를 설명하기 위한 도면이다.FIG. 1 is a view for explaining a depth information obtaining apparatus according to an embodiment of the present invention.
도 1을 참조하면 본 발명의 한 실시예에 따른 깊이 정보 획득 장치(10)는 특징점 및 대응점 추출부(11), 카메라 파라미터 획득부(14), 왜곡 제거부(15), 밝기 프로파일 획득부(16), 역 깊이 정보 획득부(17), 이상 역 깊이 정보 제거부(18), 및 정제부(19)를 포함한다. 카메라 파라미터 획득부(14)는 비왜곡 특징점 및 비왜곡 대응점 획득부(12) 및 추정된 비왜곡 대응점 획득부(13)을 포함한다.Referring to FIG. 1, a depth
깊이 정보 획득 장치(10)는 복수의 시점에 따른 복수의 영상 정보를 이용하여 깊이 정보를 획득한다. 복수의 영상 정보는 기준 영상 정보 및 나머지 비기준 영상 정보들을 포함한다.The depth
깊이 정보 획득 장치(10)는 데스크탑, 노트북, 서버 등 프로그램을 연산할 수 있는 컴퓨팅 장치(computing device)일 수 있다. 깊이 정보 획득 장치(10)는 최소한 하나의 프로세서와 메모리를 포함할 수 있다. 메모리에는 본 발명의 실시예에 따른 깊이 정보 획득 방법이 미리 프로그램되어 있을 수 있다. 프로세서는 이러한 프로그램을 구동시킬 수 있다. 한편, 이러한 프로그램은 외부 서버 등으로부터 원격으로 가져올 수도 있다. 다른 한편, 깊이 정보 획득 장치(10)에서 프로세서와 메모리의 구분이 모호할 수 있으며, 깊이 정보 획득 방법을 구현하기 위한 소프트웨어와 하드웨어 각각의 비중을 정하는 것은 당업자 선택에 따를 수 있다.The depth
깊이 정보 획득 장치(10)는 하나의 프로세서 및 하나의 메모리로 본 발명의 깊이 정보 획득 방법을 구현할 수도 있지만, 복수의 프로세서 및 복수의 메모리 또는 다양한 소프트웨어 및 하드웨어의 조합으로 본 발명의 깊이 정보 획득 방법을 구현할 수 있다. 따라서 도 1에서는, 그러한 한 실시예로서, 깊이 정보 획득 장치(10)가 깊이 정보 획득 방법에 따라 논리적으로 구분된 복수의 기능부(function unit)(11, 12, 13, 14, 15, 16, 17, 18, 19)를 포함한다. 각각의 기능부를 하나 또는 특정 개수로 통합하거나 분리시켜 하드웨어 및 소프트웨어로 구현하는 것은 당업자의 선택 사항이다.Although the depth
이하 도 2 내지 10를 참조하여 깊이 정보 획득 장치(10)의 동작에 대해서 설명한다.Hereinafter, the operation of the depth
도 2는 특징점 및 대응점 추출부의 동작을 설명하기 위한 도면이다.2 is a diagram for explaining the operation of the minutiae and the corresponding point extraction unit.
특징점 및 대응점 추출부(11)는 기준 영상 정보로부터 복수의 특징점을 추출하고, 비기준 영상 정보들 각각으로부터 복수의 특징점에 대응하는 복수의 대응점을 추출한다.The feature point and corresponding
또한 잘못 추정된 대응점을 제거하기 위해서, 특징점 및 대응점 추출부(11)는 복수의 대응점으로부터 기준 영상 정보를 역방향 추적하여 복수의 역방향 대응점을 추출하고, 복수의 역방향 대응점 중 대응하는 특징점과 임계치 이상의 간격을 갖는 이상 역방향 대응점을 검출하고, 이상 역방향 대응점에 대응하는 특징점과 대응점을 복수의 특징점과 복수의 대응점으로부터 제거할 수 있다.Also, in order to eliminate the erroneously estimated corresponding points, the feature point and corresponding
이하에서 도 2를 참조하여 상술한 과정을 상세히 설명한다. 설명의 편의를 위해서, 전체 특징점 및 전체 비기준 영상 정보가 아닌, 기준 영상 정보(200)의 임의의 한 특징점(201) 및 임의의 한 비기준 영상 정보(210)를 기준으로 설명한다.Hereinafter, the process described above with reference to FIG. 2 will be described in detail. For convenience of explanation, description will be made on the basis of any one
먼저, 특징점 및 대응점 추출부(11)는 기준 영상 정보(200)로부터 해리스 코너(Harris Corner)를 추출하여 이들을 복수의 특징점으로서 획득할 수 있다. 복수의 특징점은 임의의 한 특징점(201)을 포함한다. 획득된 복수의 특징점에 KLT 추적기(Kanade-Lucas-Tomashi tracker)를 적용하여 비기준 영상 정보들 각각에 대해 정방향 추적하면, 비기준 영상 정보들 각각에 대해 복수의 대응점을 추출할 수 있다. 예를 들어, 비기준 영상 정보(210)에 대해서 특징점(201)에 대응하는 대응점(211)을 획득할 수 있다.First, the minutiae and corresponding
또한, 특징점 및 대응점 추출부(11)는 대응점(211)에 KLT 추적기를 역방향으로 적용시킴으로서 기준 영상 정보(200)에서 대응점(211)에 대응하는 역방향 대응점(202)을 획득할 수 있다. 특징점 및 대응점 추출부(11)는 특징점(201)과 대응점(202) 사이의 간격(d)이 임계치 이상이면, 역방향 대응점(202)을 이상(outlier) 역방향 대응점으로 결정할 수 있다. 역방향 대응점(202)이 이상 역방향 대응점으로 결정된 경우, 특징점(201) 및 대응점(211)은 잘못 추정된 것으로 판단되므로 각각 복수의 특징점과 복수의 대응점으로부터 제거될 수 있다.The minutiae and corresponding
이때 간격(d)은 픽셀(pixel) 단위일 수 있고, 임계치는 0.1 픽셀일 수 있다. 임계치의 구체적인 수치는 당업자가 달리 선택할 수 있다.Where the interval d may be in pixels and the threshold may be 0.1 pixels. The specific values of the threshold value can be selected by those skilled in the art.
상술한 과정을 통해서, 특징점 및 대응점 추출부(11)는 복수의 특징점 및 복수의 대응점을 획득할 수 있다.Through the above-described process, the minutiae and corresponding
도 3은 카메라 파라미터 획득부의 동작을 설명하기 위한 도면이다.3 is a diagram for explaining the operation of the camera parameter obtaining unit.
우선, 획득하고자 하는 카메라 내부 파라미터는 1 개의 초점 길이(focal length) f와 2 개의 방사형 왜곡(radial distortion) 파라미터 k1, k2를 포함하고, 카메라의 광학 주점(pricipal point)과 방사형 왜곡의 중심은 영상의 중심에 있는 것으로 가정한다.First, the camera internal parameter to be acquired includes one focal length f and two radial distortion parameters k 1 and k 2 , and the camera's optical point of interest and the center of the radial distortion Is assumed to be at the center of the image.
비왜곡 특징점 및 비왜곡 대응점 획득부(12)는 복수의 특징점 및 복수의 대응점을 각각 왜곡(distorted) 영상 좌표계에서 비왜곡(undistorted) 영상 좌표계로 매핑(mapping)하여, 복수의 비왜곡 특징점 및 복수의 비왜곡 대응점을 획득한다. 어떤 한 지점 을 왜곡 영상 좌표계에서 비왜곡 영상 좌표계로 변환하는 함수 는 아래의 예시적인 수학식 1에 따를 수 있다.The non-distorted feature point and non-distorted corresponding
[수학식 1][Equation 1]
i가 영상 정보의 번호이고, j는 특징점의 번호라고 할 때, 왜곡 영상 좌표계의 좌표를 로 표현할 수 있다. 본 실시예에서 i=0일 때의 영상 정보를 기준 영상 정보로 한다. 왜곡 영상 좌표계의 좌표 를 비왜곡 영상 좌표계의 좌표로 변환하면 로 표현할 수 있다.i is the number of the image information, and j is the number of the feature point, the coordinates of the distortion image coordinate system are represented by . In the present embodiment, the video information when i = 0 is set as reference video information. Coordinates of the distortion image coordinate system Into coordinates of the non-distorted image coordinate system .
상술한 계산 과정을 통해, 비왜곡 특징점 및 비왜곡 대응점 획득부(12)는 기준 영상 정보(200u)에 대해 비왜곡 특징점(201u)을 획득하고, 비기준 영상 정보(210u)에 대해 비왜곡 대응점(211u)을 획득할 수 있다.Through the above calculation process, the non-distorted feature point and non-distorted corresponding
다음으로, 추정된 비왜곡 대응점 획득부(13)는 복수의 비왜곡 특징점의 추정된 삼차원 좌표를 획득하고, 추정된 삼차원 좌표를 비기준 영상 정보들 각각에 투사(project)하여, 복수의 추정된 비왜곡 대응점을 획득한다.Next, the estimated non-distorted corresponding
도 3을 참조하면, 비왜곡 특징점(201u)의 추정된 삼차원 좌표(301)를 획득하고, 추정된 삼차원 좌표(301)를 비기준 영상 정보(210u)에 투사하여 추정된 비왜곡 대응점(211u')을 획득할 수 있다.3, an estimated three-dimensional coordinate 301 of the non-distorted feature point 201u is obtained, and the estimated three-dimensional coordinate 301 is projected to the
추정된 삼차원 좌표(301)인 는 기준 영상 정보(200u)의 비왜곡 특징점(201u)의 좌표 와 역 깊이(inverse depth) 정보 를 이용하여 아래 수학식 2와 같이 모델링할 수 있다. 이때 역 깊이 정보 는 추정된 삼차원 좌표(301) 자체의 역 깊이 정보이다.The estimated three-dimensional coordinate (301) Distortion feature point 201u of the
[수학식 2]&Quot; (2) "
추정된 비왜곡 대응점 획득부(13)는 추정된 삼차원 좌표(301)인 를 비기준 영상 정보(210u)에 투사하여 추정된 비왜곡 대응점(211u')인 을 획득한다. 이때 사용되는 함수 는 아래의 예시적인 수학식 3에 따를 수 있다.The estimated non-distortion corresponding
[수학식 3]&Quot; (3) "
이때 함수꼴 <>는 와 같이 계산될 수 있다. 함수 는 추정된 삼차원 좌표(301)인 를 회전 벡터 및 변위 벡터 를 갖는 i번째 영상 정보(여기서 비기준 영상 정보(210u))에 투사시키는 함수이다. 이때, 에 대응되는 작은 각도 근사된 회전 행렬(small angle approximated rotation matrix)은 함수 로 표현하였으며, 아래의 예시적인 수학식 4와 같이 정의될 수 있다.At this time, Can be calculated as follows. function Dimensional coordinate 301 Rotation vector And a displacement vector To the ith image information (here, the
[수학식 4]&Quot; (4) "
는 의 구성요소들이고, 는 벡터-매트릭스 전화 함수(vector-to-matrix function)로서 회전 벡터 를 작은 각도 근사된 회전 행렬로 변환시킨다. The ≪ / RTI > Is a vector-to-matrix function, To a small angle-approximated rotation matrix.
다음으로, 카메라 파라미터 획득부(14)는 복수의 비왜곡 대응점과 복수의 추정된 비왜곡 대응점의 차이를 최소화하는 카메라 내부 파라미터 및 카메라 외부 파라미터를, 아래의 예시적인 수학식 5를 이용해서, 획득할 수 있다.Next, the camera
[수학식 5]&Quot; (5) "
argmin은 LM method(Levenberg-Marquardt method) 등의 비선형 최적화 기법의 함수가 사용될 수 있다. 추정된 비왜곡 대응점(211u')인 에 초점 거리 가 곱해지는 것은 단위를 픽셀 단위로 변환하기 위해서이다. 는 후버 손실 함수(Huber loss function)이고, 는 카메라 내부 파라미터의 집합이고, 은 비기준 영상들에 대한 카메라 회전 벡터들의 집합이고, 는 비기준 영상들에 대한 카메라 변위 벡터들의 집합이고, 는 복수의 특징점들의 역 깊이 정보들의 집합이다. N은 복수의 영상 정보의 개수이고, M은 복수의 특징점의 개수이다.argmin can be a function of nonlinear optimization technique such as LM method (Levenberg-Marquardt method). The estimated non-distortion
카메라 파라미터 획득부(14)는 수학식 5를 이용하여 카메라 내부 파라미터인 K, 카메라 외부 파라미터인 R 및 T, 및 W를 획득할 수 있다. 카메라 파라미터 획득부(14)의 연산 과정 중, 현재 시점에서 추정되는 K, R, T, W를 참조하여, 비왜곡 특징점 및 비왜곡 대응점 획득부(12)는 복수의 비왜곡 특징점 및 복수의 비왜곡 대응점을 갱신하고, 추정된 비왜곡 대응점 획득부(13)는 복수의 추정된 비왜곡 대응점을 갱신한다.The camera
도 4 내지 6는 밝기 프로파일 획득부 및 역 깊이 정보 획득부를 설명하기 위한 도면이다.4 to 6 are views for explaining a brightness profile obtaining unit and an inverse depth information obtaining unit.
우선, 밝기 프로파일 획득부(16)의 동작 이전에, 왜곡 제거부(15)가 동작할 수 있다. 왜곡 제거부(15)는 카메라 내부 파라미터를 이용해 복수의 영상 정보들로부터 왜곡을 제거할 수 있다. 따라서 밝기 프로파일 획득부(16)는 왜곡이 제거된 복수의 영상 정보들을 이용하여 동작할 수 있다.First, before operation of the brightness
밝기 프로파일 획득부(16)는 비기준 영상 정보들 각각을 복수의 역깊이 정보에 따라 기준 영상 좌표계로 매핑하여, 각 픽셀의 각 역 깊이 정보에 대한 복수의 밝기 프로파일을 획득할 수 있다. 이때, 밝기 프로파일 획득부(16)는 획득된 카메라 파라미터를 이용하여 비기준 영상 정보들 각각을 복수의 역 깊이 정보에 따라 기준 영상 좌표계로 매핑할 수 있다.The brightness
구체적으로, 기준 영상 정보(410)로부터 역 깊이 wk만큼 이격된 복수의 가상 평면을 가정하고, 비기준 영상들을이러한 가상 평면을 거치도록하는 호모그래피(homography) 변환을 통해 기준 영상 좌표계로 이동시킬 수 있다. 이때 사용되는 호모그래피 행렬 은 아래의 예시적인 수학식 6으로 표현될 수 있다. 본 실시예에서 역 깊이 wk의 k는 로 가정한다. 즉 256개의 가상 평면이 있는 것으로 가정한다.Specifically, assuming a plurality of virtual planes spaced by the inverse depth w k from the
[수학식 6]&Quot; (6) "
는 카메라 내부 행렬(intrinsic matrix)로, 이며, (pu,pv)는 이미지 중심 좌표이다. 수학식 6의 변수들은 이미 획득된 카메라 파라미터를 이용할 수 있다. Is a camera intrinsic matrix, (P u , p v ) is the image center coordinate. The variables in equation (6) can use the already obtained camera parameters.
기준 영상 좌표계로 이동된 비기준 영상 정보들 및 기준 영상 정보를 모두 중첩시켜본다면, 각 픽셀은 각 역 깊이에 대해서 N 개의 영상 정보들로부터 N 개의 픽셀 값을 갖게 된다. 좌표 에 대한 N 개의 픽셀 값의 집합을 밝기 프로파일(intensity profile)이라고 할 때, 좌표 인 픽셀의 역 깊이 정보 wk에 대한 밝기 프로파일인 는 아래 수학식 7과 같이 표현할 수 있다.If all of the non-reference image information and reference image information moved to the reference image coordinate system are overlapped, each pixel has N pixel values from N image information for each depth depth. location And a set of N pixel values for a pixel is called an intensity profile, Lt; RTI ID = 0.0 > wk < / RTI > Can be expressed as Equation (7) below.
[수학식 7]&Quot; (7) "
여기서 는 i번째 영상 정보를 k 번째 가상 평면을 통해 기준 영상 좌표계로 변환시켰을 때, 좌표 의 픽셀 값을 의미한다. 이때 k 번째 가상 평면의 깊이가 좌표가 인 픽셀에 해당하는 삼차원 공간 상의 지점의 깊이와 유사한 경우, 밝기 프로파일 은 일관적인 값들을 갖게 된다.here When the i-th image information is converted into the reference image coordinate system through the k-th virtual plane, . In this case, the depth of the kth virtual plane is If it is similar to the depth of a point on a three-dimensional space corresponding to an in-pixel, Will have consistent values.
도 5를 참조하면, 도 4의 기준 영상 정보(410)의 예시적인 3 개 픽셀(P2, P2, P3)에 대해서 각 역 깊이 정보 wk에 대응하는 밝기 프로파일(421)이 그래프로 각각 도시된다. 또한 밝기 프로파일의 가로 방향 그래디언트(gradient)(422) 및 세로 방향 그래디언트(423)에 대한 그래프가 함께 도시되어 있다.Referring to FIG. 5, a brightness profile 421 corresponding to each inverse depth information w k is shown graphically for three exemplary pixels (P2, P2, P3) of the
역 깊이 정보 획득부(17)는 각 픽셀의 각 역 깊이 정보에 대한 복수의 밝기 프로파일을 이용하여 각 픽셀의 특정 역 깊이 정보를 획득할 수 있다. 이때 역 깊이 정보 획득부(17)는 각 픽셀의 각 역 깊이 정보에 대한 복수의 밝기 프로파일의 분산량(variance amount)을 계산하고, 분산량이 가장 낮은 역 깊이 정보를 해당 픽셀에 대한 특정 역 깊이 정보로서 획득할 수 있다. 여기서 분산량은 밝기 프로파일의 분산값, 밝기 프로파일의 가로 방향 그래디언트(gradient)의 분산값, 및 밝기 프로파일의 세로 방향 그래디언트의 분산값을 포함할 수 있다.The inverse depth
분산량을 라고 하고, 밝기 프로파일의 분산 값을 라고 하고, 가로 방향 그래디언트의 분산값을 라고 하고, 세로 방향 그래디언트의 분산값을 라고 한다면, 아래 수학식 8과 같이 표현할 수 있다. , 는 가로 방향 및 세로 방향 그래디언트 각각의 가중치 값으로서 당업자에 의해 적절히 선택될 수 있다.The amount of dispersion And the variance value of the brightness profile is And the variance value of the horizontal gradient is And the variance value of the longitudinal gradient is , It can be expressed as Equation (8) below. , May be appropriately selected by those skilled in the art as the weight values of the respective horizontal and vertical gradients.
[수학식 8]&Quot; (8) "
밝기 프로파일의 분산값인 는 아래 수학식 9와 같이 표현될 수 있다. VAR는 분산(variance)을 구하는 함수이다.The variance value of the brightness profile Can be expressed by Equation (9) below. VAR is a function to obtain variance.
[수학식 9]&Quot; (9) "
밝기 프로파일의 가로 방향 그래디언트의 분산값인는 아래 수학식 10과 같이 표현될 수 있다.The variance of the horizontal gradient of the brightness profile. Can be expressed as Equation (10) below.
[수학식 10]&Quot; (10) "
밝기 프로파일의 세로 방향 그래디언트의 분산값인는 아래 수학식 11과 같이 표현될 수 있다.The variance of the vertical gradient of the brightness profile. Can be expressed by Equation (11) below.
[수학식 11]&Quot; (11) "
역 깊이 정보 획득부(17)는 이러한 분산량 이 가장 낮은 역 깊이 정보를 해당 픽셀에 대한 특정 역 깊이 정보로서 획득할 수 있다. 도 5를 참조하면, 픽셀(P1)의 경우 k=a 일때 그래프(426b)의 분산량이 최소이므로 픽셀(P1)에 대한 특정 역 깊이 정보 wa가 획득된다. 픽셀(P2)의 경우 k=b 일때 그래프(427b)의 분산량이 최소이므로 픽셀(P2)에 대한 특정 역 깊이 정보 wb가 획득된다. 픽셀(P3)의 경우 k=c 일때 그래프(428b)의 분산량이 최소이므로 픽셀(P3)에 대한 특정 역 깊이 정보 wc가 획득된다. k=a일 때 픽셀(P1)이 가장 선명하고(426a), k=b일 때 픽셀(P2)이 가장 선명하고(427a), k=c일 때 픽셀(P3)이 가장 선명한 것(428a)을 확인할 수 있다.The inverse depth
상술한 과정은, 특정 역 깊이 정보를 라고 하면, 아래의 예시적인 수학식 12와 같이 표현할 수 있다.The above-described process is a process of extracting specific inverse depth information , It can be expressed as the following exemplary equation (12).
[수학식 12]&Quot; (12) "
도 6를 참조하면 복수의 픽셀에 대해 획득된 복수의 특정 역 깊이 정보를 이용한 깊이 맵(depth map)(430)이 도시되어 있다. 따라서 본 발명의 깊이 정보 획득 장치(10)는 상술한 과정을 통해서 사용자가 별도로 캘리브레이션을 수행하지 않고서도 미소 시점 변화를 갖는 복수의 영상 정보로부터 카메라 파라미터 및 깊이 정보를 획득할 수 있음을 확인할 수 있다.Referring to FIG. 6, a
도 7 내지 10는 이상 역 깊이 정보 제거부 및 정제부를 설명하기 위한 도면이다.Figs. 7 to 10 are views for explaining the abnormal depth information removing unit and the refinement unit. Fig.
도 6를 다시 참조하면 깊이 맵(430)의 가장자리 등에 이상(outlier) 역 깊이 정보로 인해서 스무스 정도(smoothness)가 떨어짐을 확인할 수 있다. 도 7는 도 6와 같은 처리 과정을 거친 러프(rough)한 깊이 맵(510)을 도시한다. 깊이 맵(510)의 부분(511a)을 확대한 부분(511b) 및 부분(512a)를 확대한 부분(512b)을 참조하며 이후 처리 과정을 설명한다.Referring again to FIG. 6, it can be seen that the smoothness of the edge of the
이상 역 깊이 정보 제거부(18)는 복수의 픽셀에 대한 복수의 특정 역 깊이 정보 중 임계치를 초과하는 특정 역 깊이 정보를 이상 역 깊이 정보로 판단하고, 이러한 이상 역 깊이 정보를 제거할 수 있다.The outlier depth
구체적으로, 이상 역 깊이 정보 제거부(18)는 특정 역깊이 정보에 대한 복수의 밝기 프로파일의 분산량 의 특정 역 깊이 정보에 대한 복수의 밝기 프로파일의 평균값 에 대한 비율 이 임계치를 초과하는 경우, 초과한 특정 역 깊이 정보를 이상 역 깊이 정보로 판단하고 이를 제거할 수 있다. 비율 은 아래 수학식 13과 같이 표현할 수 있다.Specifically, the anomaly depth
[수학식 13]&Quot; (13) "
임계치는 영상 정보들 전체의 비율 들 중 상위 10 퍼센트에 해당하는 값일 수 있다. 즉, 비율 이 지나치게 큰 경우 해당하는 특정 역 깊이 정보를 이상 역 깊이 정보로 판단하고 이를 제거할 수 있다. 이러한 임계치는 당업자의 선택사항일 수 있다. 도 8를 참조하면, 이상 역 깊이 정보가 제거된 깊이 맵(520, 521, 522)이 도시된다.The threshold is the ratio of the total image information Of the top 10 percent. That is, If the depth information is too large, the corresponding specific depth information can be determined as the abnormal depth information and can be removed. These thresholds may be optional to those skilled in the art. Referring to FIG. 8, depth maps 520, 521 and 522 are shown in which the outlier depth information is removed.
정제부(19)는 복수의 픽셀 중 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파(propagation)할 수 있다. 구체적으로, 기준 영상 정보(540)의 색(color) 정보를 참조하여 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파할 수 있다. 도 9를 참조하면, 전파된 역 깊이 정보로 채워져 보다 스무스한 깊이 맵(530, 531, 532)이 도시된다.The
지금까지 참조한 도면과 기재된 발명의 상세한 설명은 단지 본 발명의 예시적인 것으로서, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are illustrative and explanatory only and are intended to be illustrative of the invention and are not to be construed as limiting the scope of the invention as defined by the appended claims. It is not. Therefore, those skilled in the art will appreciate that various modifications and equivalent embodiments are possible without departing from the scope of the present invention. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.
10: 깊이 정보 획득 장치
11: 특징점 및 대응점 추출부
12: 비왜곡 특징점 및 비왜곡 대응점 획득부
13: 추정된 비왜곡 대응점 획득부
14: 카메라 파라미터 획득부
15: 왜곡 제거부
16: 밝기 프로파일 획득부
17: 역 깊이 정보 획득부
18: 이상 역 깊이 정보 제거부
19: 정제부10: Depth information acquisition device
11: minutiae and corresponding point extraction section
12: non-distortion characteristic point and non-distortion correspondence point acquisition unit
13: Estimated non-distortion corresponding point obtaining unit
14: Camera parameter acquisition unit
15: Distortion elimination
16: Brightness profile acquisition unit
17: Inverse depth information acquisition unit
18: Abnormal depth information removal
19: Purification section
Claims (14)
기준 영상 정보로부터 복수의 특징점을 추출하고, 비기준 영상 정보들 각각으로부터 상기 복수의 특징점에 대응하는 복수의 대응점을 추출하는 특징점 및대응점 추출부; 및
비왜곡 특징점 및 비왜곡 대응점 획득부 및 추정된 비왜곡 대응점 획득부를 포함하는 카메라 파라미터 획득부를 포함하고,
상기 비왜곡 특징점 및 비왜곡 대응점 획득부는 상기 복수의 특징점 및 상기 복수의 대응점을 각각 왜곡(distorted) 영상 좌표계에서 비왜곡(undistorted) 영상 좌표계로 매핑(mapping)하여, 복수의 비왜곡 특징점 및 복수의 비왜곡 대응점을 획득하고,
상기 추정된 비왜곡 대응점 획득부는 상기 복수의 비왜곡 특징점의 추정된 삼차원 좌표를 획득하고, 상기 추정된 삼차원 좌표를 상기 비기준 영상 정보들 각각에 투사(project)하여, 복수의 추정된 비왜곡 대응점을 획득하고,
상기 카메라 파라미터 획득부는 상기 복수의 비왜곡 대응점과 상기 복수의 추정된 비왜곡 대응점의 차이를 최소화하는 카메라 파라미터를 획득하는,
깊이 정보 획득 장치.A depth information acquiring apparatus for acquiring depth information using a plurality of image information according to a plurality of viewpoints,
A feature point extracting unit that extracts a plurality of feature points from the reference image information and extracts a plurality of corresponding points corresponding to the plurality of feature points from each of the non-reference image information; And
A non-distorted corresponding point obtaining unit, and an estimated non-distortion corresponding point obtaining unit,
The non-distorted feature point and non-distorted corresponding point obtaining unit maps the plurality of feature points and the plurality of corresponding points respectively to an undistorted image coordinate system in a distorted image coordinate system to generate a plurality of non- Acquires a non-distortion correspondence point,
The estimated non-distorted corresponding point obtaining unit obtains estimated three-dimensional coordinates of the plurality of non-distorted feature points, projects the estimated three-dimensional coordinates to each of the non-reference image information, calculates a plurality of estimated non- Lt; / RTI >
Wherein the camera parameter obtaining section obtains a camera parameter that minimizes a difference between the plurality of non-distortion corresponding points and the plurality of estimated non-
Depth information acquisition device.
상기 카메라 파라미터를 이용해 상기 복수의 영상 정보들로부터 왜곡을 제거하는 왜곡 제거부;
상기 비기준 영상 정보들 각각을 복수의 역깊이(inverse depth) 정보에 따라 기준 영상 좌표계로 매핑하여, 각 픽셀의 각 역 깊이 정보에 대한 복수의 밝기 프로파일을 획득하는 밝기 프로파일 획득부; 및
각 픽셀의 각 역 깊이 정보에 대한 상기 복수의 밝기 프로파일을 이용하여 각 픽셀의 특정 역 깊이 정보를 획득하는 역 깊이 정보 획득부를 더 포함하는
깊이 정보 획득 장치.The method according to claim 1,
A distortion removing unit for removing distortion from the plurality of image information using the camera parameters;
A brightness profile obtaining unit that maps each of the non-reference image information to a reference image coordinate system according to a plurality of inverse depth information to obtain a plurality of brightness profiles for each inverse depth information of each pixel; And
And an inverse depth information obtaining unit for obtaining specific inverse depth information of each pixel using the plurality of brightness profiles for each inverse depth information of each pixel
Depth information acquisition device.
복수의 픽셀에 대한 복수의 특정 역 깊이 정보 중 임계치를 초과하는 특정 역 깊이 정보를 제거하는 이상 역 깊이 정보 제거부; 및
상기 복수의 픽셀 중 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파하는 정제부를 더 포함하는
깊이 정보 획득 장치.3. The method of claim 2,
An abnormal depth information removing unit that removes specific inverse depth information exceeding a threshold among a plurality of specific inverse depth information for a plurality of pixels; And
Further comprising a refinement section for propagating inverse depth information on a pixel from which the specific inverse depth information has been removed
Depth information acquisition device.
상기 특징점 및 대응점 추출부는
상기 복수의 대응점으로부터 상기 기준 영상 정보를 역방향 추적하여 복수의 역방향 대응점을 추출하고,
상기 복수의 역방향 대응점 중 대응하는 특징점과 임계치 이상의 간격을 갖는 이상 역방향 대응점을 검출하고,
상기 이상 역방향 대응점에 대응하는 특징점과 대응점을 상기 복수의 특징점과 상기 복수의 대응점으로부터 제거하는,
깊이 정보 획득 장치.The method according to claim 1,
The feature point and corresponding point extraction unit
Extracting a plurality of backward corresponding points by tracing back the reference image information from the plurality of corresponding points,
Detecting an anomaly inverse point having an interval greater than or equal to a threshold value from the corresponding minutiae of the plurality of inverse correspondence points,
And removing, from the plurality of feature points and the plurality of corresponding points, feature points and corresponding points corresponding to the anomaly-
Depth information acquisition device.
상기 역 깊이 정보 획득부는
각 픽셀의 각 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 분산량(variance amount)을 계산하고,
상기 분산량이 가장 낮은 역깊이 정보를 해당 픽셀에 대한 상기 특정 역 깊이 정보로서 획득하는,
깊이 정보 획득 장치.3. The method of claim 2,
The inverse depth information obtaining unit
Calculating a variance amount of the plurality of brightness profiles for each inverse depth information of each pixel,
Acquiring the inverse depth information having the lowest amount of dispersion as the specific inverse depth information for the pixel,
Depth information acquisition device.
상기 이상 역 깊이 정보 제거부는
상기 특정 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 분산량의 상기 특정 역깊이 정보에 대한 상기 복수의 밝기 프로파일의 평균값에 대한 비율이 상기 임계치를 초과하는 경우, 상기 특정 역 깊이 정보를 제거하는,
깊이 정보 획득 장치.The method of claim 3,
The abnormal depth information removing unit
Depth information of the plurality of brightness profiles to the average value of the plurality of brightness profiles with respect to the specific depth information of the dispersion amount of the plurality of brightness profiles with respect to the specific depth depth information exceeds the threshold value,
Depth information acquisition device.
상기 정제부는
상기 기준 영상 정보의 색(color) 정보를 참조하여 상기 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파하는,
깊이 정보 획득 장치.The method of claim 3,
The purification unit
Depth information on a pixel from which the specific inverse depth information has been removed by referring to color information of the reference image information,
Depth information acquisition device.
기준 영상 정보로부터 복수의 특징점을 추출하고, 비기준 영상 정보들 각각으로부터 상기 복수의 특징점에 대응하는 복수의 대응점을 추출하는 단계;
상기 복수의 특징점 및 상기 복수의 대응점을 각각 왜곡 영상 좌표계에서 비왜곡 영상 좌표계로 매핑하여, 복수의 비왜곡 특징점 및 복수의 비왜곡 대응점을 획득하는 단계;
상기 복수의 비왜곡 특징점의 추정된 삼차원 좌표를 획득하고, 상기 추정된 삼차원 좌표를 상기 비기준 영상 정보들 각각에 투사하여, 복수의 추정된 비왜곡 대응점을 획득하는 단계; 및
상기 복수의 비왜곡 대응점과 상기 복수의 추정된 비왜곡 대응점의 차이를 최소화하는 카메라 파라미터를 획득하는 단계를 포함하는
깊이 정보 획득 방법.A depth information acquiring method for acquiring depth information using a plurality of image information according to a plurality of viewpoints,
Extracting a plurality of feature points from the reference image information and extracting a plurality of corresponding points corresponding to the plurality of feature points from each of the non-reference image information;
Obtaining a plurality of non-distorted feature points and a plurality of non-distorted corresponding points by mapping the plurality of feature points and the plurality of corresponding points, respectively, from a distortion image coordinate system to an unoriented image coordinate system;
Obtaining the estimated three-dimensional coordinates of the plurality of non-distorted feature points, projecting the estimated three-dimensional coordinates to each of the non-reference image information to obtain a plurality of estimated non-distortion corresponding points; And
Obtaining a camera parameter that minimizes the difference between the plurality of non-distorted corresponding points and the plurality of estimated non-distorted corresponding points
Depth information acquisition method.
상기 카메라 파라미터를 이용해 상기 복수의 영상 정보들로부터 왜곡을 제거하는 단계;
상기 비기준 영상 정보들 각각을 복수의 역 깊이 정보에 따라 기준 영상 좌표계로 매핑하여, 각 픽셀의 각 역 깊이 정보에 대한 복수의 밝기 프로파일을 획득하는 단계; 및
각 픽셀의 각 역 깊이 정보에 대한 상기 복수의 밝기 프로파일을 이용하여 각 픽셀의 특정 역 깊이 정보를 획득하는 단계를 더 포함하는
깊이 정보 획득 방법.9. The method of claim 8,
Removing distortion from the plurality of image information using the camera parameters;
Mapping each of the non-reference image information to a reference image coordinate system according to a plurality of inverse depth information to obtain a plurality of brightness profiles for each inverse depth information of each pixel; And
Further comprising obtaining the specific inverse depth information of each pixel using the plurality of brightness profiles for each inverse depth information of each pixel
Depth information acquisition method.
복수의 픽셀에 대한 복수의 특정 역 깊이 정보 중 임계치를 초과하는 특정 역 깊이 정보를 제거하는 단계; 및
상기 복수의 픽셀 중 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파하는 단계를 더 포함하는
깊이 정보 획득 방법.10. The method of claim 9,
Removing specific inverse depth information that exceeds a threshold among a plurality of specific inverse depth information for a plurality of pixels; And
Further comprising propagating inverse depth information for a pixel from which the specific inverse depth information has been removed
Depth information acquisition method.
상기 복수의 대응점을 추출하는 단계는:
상기 복수의 대응점으로부터 상기 기준 영상 정보를 역방향 추적하여 복수의 역방향 대응점을 추출하는 단계;
상기 복수의 역방향 대응점 중 대응하는 특징점과 임계치 이상의 간격을 갖는 이상 역방향 대응점을 검출하는 단계; 및
상기 이상 역방향 대응점에 대응하는 특징점과 대응점을 상기 복수의 특징점과 상기 복수의 대응점으로부터 제거하는 단계를 포함하는,
깊이 정보 획득 방법.9. The method of claim 8,
Wherein the extracting of the plurality of corresponding points comprises:
A step of tracing back the reference image information from the plurality of corresponding points to extract a plurality of backward correspondence points;
Detecting an anomaly opposite point having an interval equal to or greater than a threshold value with corresponding minutiae of the plurality of reverse counterparts; And
And removing, from the plurality of feature points and the plurality of corresponding points, feature points and corresponding points corresponding to the abnormal backward corresponding points.
Depth information acquisition method.
상기 각 픽셀의 특정 역 깊이 정보를 획득하는 단계는:
각 픽셀의 각 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 분산량을 계산하는 단계; 및
상기 분산량이 가장 낮은 역 깊이 정보를 해당 픽셀에 대한 상기 특정 역 깊이 정보로서 획득하는 단계를 포함하는
깊이 정보 획득 방법.10. The method of claim 9,
Wherein acquiring specific inverse depth information of each pixel comprises:
Calculating a variance amount of the plurality of brightness profiles for each inverse depth information of each pixel; And
And obtaining the inverse depth information having the smallest variance as the specific inverse depth information for the pixel
Depth information acquisition method.
상기 임계치를 초과하는 특정 역 깊이 정보를 제거하는 단계는:
상기 특정 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 분산량의 상기 특정 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 평균값에 대한 비율이 상기 임계치를 초과하는 경우, 상기 특정 역 깊이 정보를 제거하는,
깊이 정보 획득 방법.11. The method of claim 10,
Wherein removing the specific inverse depth information exceeding the threshold comprises:
Depth information of the plurality of brightness profiles to the average value of the plurality of brightness profiles with respect to the specific depth information of the dispersion amount of the plurality of brightness profiles with respect to the specific depth depth information exceeds the threshold value,
Depth information acquisition method.
상기 역 깊이 정보를 전파하는 단계는:
상기 기준 영상 정보의 색 정보를 참조하여 상기 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파하는,
깊이 정보 획득 방법.11. The method of claim 10,
Wherein propagating the inverse depth information comprises:
Depth information on the pixel from which the specific inverse depth information has been removed by referring to the color information of the reference image information,
Depth information acquisition method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160103546A KR101852085B1 (en) | 2016-08-16 | 2016-08-16 | Depth map acquisition device and depth map acquisition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160103546A KR101852085B1 (en) | 2016-08-16 | 2016-08-16 | Depth map acquisition device and depth map acquisition method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180019329A true KR20180019329A (en) | 2018-02-26 |
KR101852085B1 KR101852085B1 (en) | 2018-04-26 |
Family
ID=61531263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160103546A KR101852085B1 (en) | 2016-08-16 | 2016-08-16 | Depth map acquisition device and depth map acquisition method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101852085B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210055260A (en) * | 2019-11-07 | 2021-05-17 | 연세대학교 산학협력단 | Apparatus and method for estimating camera pose and depth using images continuously acquired at various viewpoints |
KR20220155496A (en) * | 2021-05-14 | 2022-11-23 | 주식회사 넥스트칩 | Method and apparatus for outputting graphic objects related to vehicel driving information |
KR20230161710A (en) * | 2022-05-19 | 2023-11-28 | 주식회사 브이알크루 | Method for acquiring feature point of depth map |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5084374B2 (en) | 2007-07-06 | 2012-11-28 | 株式会社トプコン | Position measuring apparatus and position measuring method |
-
2016
- 2016-08-16 KR KR1020160103546A patent/KR101852085B1/en active IP Right Grant
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210055260A (en) * | 2019-11-07 | 2021-05-17 | 연세대학교 산학협력단 | Apparatus and method for estimating camera pose and depth using images continuously acquired at various viewpoints |
KR20220155496A (en) * | 2021-05-14 | 2022-11-23 | 주식회사 넥스트칩 | Method and apparatus for outputting graphic objects related to vehicel driving information |
KR20230161710A (en) * | 2022-05-19 | 2023-11-28 | 주식회사 브이알크루 | Method for acquiring feature point of depth map |
Also Published As
Publication number | Publication date |
---|---|
KR101852085B1 (en) | 2018-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8422766B2 (en) | System and method for depth extraction of images with motion compensation | |
CN104380338B (en) | Information processor and information processing method | |
CA2687213C (en) | System and method for stereo matching of images | |
US9659382B2 (en) | System and method for depth extraction of images with forward and backward depth prediction | |
CN109660783B (en) | Virtual reality parallax correction | |
US20210241495A1 (en) | Method and system for reconstructing colour and depth information of a scene | |
US20110148868A1 (en) | Apparatus and method for reconstructing three-dimensional face avatar through stereo vision and face detection | |
CN110493488B (en) | Video image stabilization method, video image stabilization device and computer readable storage medium | |
US9747690B2 (en) | Image processing device, image processing method, and program | |
US20160093028A1 (en) | Image processing method, image processing apparatus and electronic device | |
WO2018032841A1 (en) | Method, device and system for drawing three-dimensional image | |
KR20090008808A (en) | Apparatus and method for converting 2d image signals into 3d image signals | |
CN105809664B (en) | Method and device for generating three-dimensional image | |
KR101852085B1 (en) | Depth map acquisition device and depth map acquisition method | |
KR20170029365A (en) | Apparatus and method for depth map generation | |
CN110059537B (en) | Three-dimensional face data acquisition method and device based on Kinect sensor | |
Berdnikov et al. | Real-time depth map occlusion filling and scene background restoration for projected-pattern-based depth cameras | |
CN110009683B (en) | Real-time on-plane object detection method based on MaskRCNN | |
Neverova et al. | 2 1/2 D scene reconstruction of indoor scenes from single RGB-D images | |
US9077963B2 (en) | Systems and methods for generating a depth map and converting two-dimensional data to stereoscopic data | |
CN114399800A (en) | Human face posture estimation method and device | |
US9961327B2 (en) | Method for extracting eye center point | |
Donné et al. | Variational multi-image stereo matching | |
Satapathy | Depth Map Completion Using Non-Local and Low-Rank Priors | |
KR20180051241A (en) | Method and system for stereo matching by using rectangular window |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |