KR20180019329A - Depth map acquisition device and depth map acquisition method - Google Patents

Depth map acquisition device and depth map acquisition method Download PDF

Info

Publication number
KR20180019329A
KR20180019329A KR1020160103546A KR20160103546A KR20180019329A KR 20180019329 A KR20180019329 A KR 20180019329A KR 1020160103546 A KR1020160103546 A KR 1020160103546A KR 20160103546 A KR20160103546 A KR 20160103546A KR 20180019329 A KR20180019329 A KR 20180019329A
Authority
KR
South Korea
Prior art keywords
depth information
points
inverse
reference image
pixel
Prior art date
Application number
KR1020160103546A
Other languages
Korean (ko)
Other versions
KR101852085B1 (en
Inventor
권인소
하효원
임성훈
박재식
전해곤
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020160103546A priority Critical patent/KR101852085B1/en
Publication of KR20180019329A publication Critical patent/KR20180019329A/en
Application granted granted Critical
Publication of KR101852085B1 publication Critical patent/KR101852085B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • H04N13/0246
    • H04N13/0271
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

The present invention relates to a depth information acquisition apparatus which acquires depth information using a plurality of image information depending on a plurality of views, comprising: a feature point and corresponding point extracting unit for extracting a plurality of feature points from reference image information, and extracting a plurality of corresponding points corresponding to the feature points from each non-reference image information; and a camera parameter acquiring unit including a undistorted feature point and undistorted corresponding point acquiring unit and an estimated undistorted corresponding point acquiring unit. The undistorted feature point and undistorted corresponding point acquiring unit separately maps the feature points and the corresponding points to an undistorted image coordinate system from a distorted image coordinate system so as to acquire the undistorted feature points and the undistorted corresponding points. The estimated undistorted corresponding point acquiring unit acquires an estimated three-dimensional coordinate of the undistorted feature points, projects the estimated three-dimensional coordinate onto each of the non-reference image information, and acquires the estimated undistorted corresponding points. The camera parameter acquiring unit acquires a camera parameter minimizing a difference between the undistorted corresponding points and the estimated undistorted corresponding points.

Description

깊이 정보 획득 장치 및 깊이 정보 획득 방법{DEPTH MAP ACQUISITION DEVICE AND DEPTH MAP ACQUISITION METHOD}[0001] DEPTH MAP ACQUISITION DEVICE AND DEPTH MAP ACQUISITION METHOD [0002]

본 발명은 깊이 정보 획득 장치 및 깊이 정보 획득 방법에 관한 것이다.The present invention relates to a depth information obtaining apparatus and a depth information obtaining method.

기존의 SfM(Structure-from-Motion) 기술은 시점의 변화가 큰 영상들로부터 장면(scene)의 삼차원정보를 복원했으나, 최근에는 시점 변화가 미소한 복수의 영상으로부터 삼차원 깊이 정보를 획득하는 연구가 진행되고 있다.The existing Structure-from-Motion (SfM) technology restores three-dimensional information of a scene from images with large changes in viewpoint. However, recently, research that acquires three-dimensional depth information from a plurality of images with minute viewpoint changes It is progressing.

Micro-baseline stereo (Technical report MSR-TR-2014-73, Microsoft Research, 2014)(이하 논문 1)은 미소한 삼차원 공간 상의 카메라 시점 변화를 이차원 영상의 호모그래피(homography) 변환을 이용하여 근사적으로 계산하고, 광 흐름(optical flow)을 측정하여 깊이 정보를 추정하였다.Micro-baseline stereo (Technical report MSR-TR-2014-73, Microsoft Research, 2014) (hereafter referred to as "the paper 1") is used to approximate the camera viewpoint change in a minute three- dimensional space using homography transformation of two- And depth information was estimated by measuring the optical flow.

미국 등록특허공보 제8760500호(2014.06.24.)(이하 특허 1) 및 3D Reconstruction from Accidental Motion (IEEE Computer Vision and Pattern Recognition 2014)(이하 논문 2)는 기존 SfM의 모델에서 카메라 회전 행렬(rotation matrix)에 작은 각도 근사(small angle approximation)을 적용하고, 특징점의 삼차원 좌표를 기준 영상으로부터 역 깊이(inverse depth)를 이용하여 모델링하여, 카메라 자세를 추정하였다. 깊이 정보의 획득은, 플레인 스위핑(plane sweeping)을 이용하여 대략적인 깊이 정보를 구한 다음, 마르코프 랜덤 필드(Markov Random Field)를 이용하여 전파시켜 획득하였다.In the conventional SfM model, a rotation matrix (rotation matrix) is defined as a rotation angle of a camera, ), And the camera posture was estimated by modeling the three - dimensional coordinates of the feature points using inverse depth from the reference image. Acquisition of depth information was achieved by obtaining approximate depth information using plane sweeping and propagating using Markov Random Field.

High quality structure from small motion for rolling shutter cameras. (IEEE International Conference on Computer Vision 2015)(이하 논문 3)은 특허 1 및 논문 2의 방법을 롤링셔터 카메라(rolling-shutter camera)에 적합하도록 확장하고, 획득된 포인트 클라우드(point cloud)의 대략적인 깊이 정보를, 기준 영상의 컬러 정보를 이용하여 전파시킴으로써 깊이 영상(depth map)을 획득하였다.High quality structure from small motion for rolling shutter cameras. (Hereinafter referred to as " IEEE International Conference on Computer Vision 2015 ") (hereinafter referred to as " Paper No. 3 ") discloses a method for expanding the method of Patent 1 and Method 2 to a rolling- The depth map is obtained by propagating the information using the color information of the reference image.

하지만, 논문 1의 경우, 삼차원의 카메라 움직임을 이차원으로 근사화함으로써 자연적으로 오차가 발생하며, 이를 이용하여 획득한 깊이 정보 역시 큰 오차를 갖는다. 특허 1, 논문 2, 및 논문 3의 방법은, 삼차원 카메라 움직임을 작은 각도 근사를 이용한 모델링을 통해 적절히 추정하였으나, 카메라의 내부 파라미터(intrinsic parameters)가 미리 캘리브레이션(calibration)을 통해 구해진 상태에서만 적용이 가능한 기술로써, 사용자가 카메라 포커스를 변경할 때마다 일일이 카메라 캘리브레이션을 해야하는 큰 번거로움이 있다. 또한 이로부터 얻어진 결과가 부정확하거나(특허 1 및 논문 2), 구조가 지나치게 스무스(smooth)하여 구분성이 떨어지는 단점(논문 3)이 있다.However, in the case of the paper 1, an error occurs naturally by approximating the three-dimensional camera motion in two dimensions, and the obtained depth information also has a large error. Patents 1, 2, and 3 have appropriately estimated three-dimensional camera motion through modeling using small angle approximation, but only when the intrinsic parameters of the camera are obtained through calibration As a possible technique, there is a great inconvenience that the user must perform camera calibration every time the user changes the camera focus. Also, there is a disadvantage that the result obtained from this is inaccurate (Patent 1 and Paper 2), the structure is too smooth and the distinction is poor (Thesis 3).

1. 미국 등록특허공보 제8760500호(2014.06.24.)1. U.S. Patent Publication No. 8760500 (Apr. 24, 2014)

1. Micro-baseline stereo (Technical report MSR-TR-2014-73, Microsoft Research, 2014)1. Micro-baseline stereo (Technical report MSR-TR-2014-73, Microsoft Research, 2014) 2. 3D Reconstruction from Accidental Motion (IEEE Computer Vision and Pattern Recognition 2014)2. 3D Reconstruction from Accidental Motion (IEEE Computer Vision and Pattern Recognition 2014) 3. High quality structure from small motion for rolling shutter cameras. (IEEEInternational Conference on Computer Vision 2015)3. High quality structure from small motion for rolling shutter cameras. (IEEE International Conference on Computer Vision 2015)

해결하고자 하는 기술적 과제는 사용자가 별도로 캘리브레이션을 수행하지 않고서도 미소 시점 변화를 갖는 복수의 영상 정보로부터 카메라 파라미터 및 깊이 정보를 획득할 수 있는 깊이 정보 획득 장치 및 깊이 정보 획득 방법을 제공하는 데 있다.A technical problem to be solved is to provide a depth information acquiring apparatus and a depth information acquiring method which can acquire camera parameters and depth information from a plurality of image information having a minute view change without performing a calibration separately by the user.

발명의 한 특징에 따른 복수의 시점에 따른 복수의 영상 정보를 이용하여 깊이 정보를 획득하는 깊이 정보 획득 장치는, 기준 영상 정보로부터 복수의 특징점을 추출하고, 비기준 영상 정보들 각각으로부터 상기 복수의 특징점에 대응하는 복수의 대응점을 추출하는 특징점 및대응점 추출부 및비왜곡 특징점 및 비왜곡 대응점 획득부 및 추정된 비왜곡 대응점 획득부를 포함하는 카메라 파라미터 획득부를 포함한다. 상기 비왜곡 특징점 및비왜곡 대응점 획득부는 상기 복수의 특징점 및 상기 복수의 대응점을 각각 왜곡(distorted) 영상 좌표계에서 비왜곡(undistorted) 영상 좌표계로 매핑(mapping)하여, 복수의 비왜곡 특징점 및 복수의 비왜곡 대응점을 획득하고, 상기 추정된 비왜곡 대응점 획득부는 상기 복수의 비왜곡 특징점의 추정된 삼차원 좌표를 획득하며, 상기 추정된 삼차원 좌표를 상기 비기준 영상 정보들 각각에 투사(project)하여, 복수의 추정된 비왜곡 대응점을 획득하고, 상기 카메라 파라미터 획득부는 상기 복수의 비왜곡 대응점과 상기 복수의 추정된 비왜곡 대응점의 차이를 최소화하는 카메라 파라미터를 획득할 수 있다.According to an aspect of the present invention, there is provided a depth information acquisition apparatus for acquiring depth information using a plurality of image information according to a plurality of viewpoints, the apparatus comprising: a plurality of feature points extraction means for extracting a plurality of feature points from reference image information, A feature point extracting unit for extracting a plurality of corresponding points corresponding to feature points, a camera parameter acquiring unit including a non-distortion corresponding point acquiring unit and an estimated non-distortion corresponding point acquiring unit. Wherein the non-distorted feature point and the ratio distortion corresponding point obtaining unit maps the plurality of feature points and the plurality of corresponding points respectively to an undistorted image coordinate system in a distorted image coordinate system to generate a plurality of non-distorted feature points and a plurality of non- Distortion corresponding point obtaining unit obtains the estimated three-dimensional coordinates of the plurality of non-distorted feature points, projects the estimated three-dimensional coordinates to each of the non-reference image information, And the camera parameter obtaining section may obtain a camera parameter that minimizes a difference between the plurality of non-distortion corresponding points and the plurality of estimated non-distortion corresponding points.

상기 깊이 정보 획득 장치는, 상기 카메라 파라미터를 이용해 상기 복수의 영상 정보들로부터 왜곡을 제거하는 왜곡 제거부 상기 비기준 영상 정보들 각각을 복수의 역 깊이(inverse depth) 정보에 따라 기준 영상 좌표계로 매핑하여, 각 픽셀의 각 역 깊이 정보에 대한 복수의 밝기 프로파일을 획득하는 밝기 프로파일 획득부 및 각 픽셀의 각 역 깊이 정보에 대한 상기 복수의 밝기 프로파일을 이용하여 각 픽셀의 특정 역 깊이 정보를 획득하는 역 깊이 정보 획득부를 더 포함할 수 있다.Wherein the depth information acquisition device maps each of the non-reference image information to the reference image coordinate system according to a plurality of inverse depth information to remove distortion from the plurality of image information using the camera parameter, A brightness profile obtaining unit for obtaining a plurality of brightness profiles for each inverse depth information of each pixel, and a plurality of brightness profiles for inverse depth information of each pixel to obtain specific inverse depth information of each pixel And an inverse depth information obtaining unit.

상기 깊이 정보 획득 장치는, 복수의 픽셀에 대한 복수의 특정 역 깊이 정보 중 임계치를 초과하는 특정 역 깊이 정보를 제거하는 이상 역 깊이 정보 제거부 및 상기 복수의 픽셀 중 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파하는 정제부를 더 포함할 수 있다.Wherein the depth information acquiring device comprises: an outlier depth information removing unit that removes specific inverse depth information exceeding a threshold from a plurality of specific inverse depth information for a plurality of pixels; Depth information to the depth information.

상기 특징점 및 대응점 추출부는, 상기 복수의 대응점으로부터 상기 기준 영상 정보를 역방향 추적하여 복수의 역방향 대응점을 추출하고, 상기 복수의 역방향 대응점 중 대응하는 특징점과 임계치 이상의 간격을 갖는 이상 역방향 대응점을 검출하며, 상기 이상 역방향 대응점에 대응하는 특징점과 대응점을 상기 복수의 특징점과 상기 복수의 대응점으로부터 제거할 수있다.Wherein the feature point and corresponding point extracting unit extracts a plurality of backward correspondence points by tracing back the reference image information from the plurality of corresponding points and detects an anteropposite corresponding point having an interval greater than or equal to a threshold value from corresponding feature points of the plurality of backward corresponding points, The feature points corresponding to the anomaly inverse opposite points and the corresponding points can be removed from the plurality of feature points and the plurality of corresponding points.

상기 역 깊이 정보 획득부는, 각 픽셀의 각 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 분산량(variance amount)을 계산하고, 상기 분산량이 가장 낮은 역깊이 정보를 해당 픽셀에 대한 상기 특정 역 깊이 정보로서 획득할 수있다.Wherein the inverse depth information obtaining unit calculates a variance amount of the plurality of brightness profiles with respect to each inverse depth information of each pixel and outputs the inverse depth information having the smallest amount of variance to the specific inverse depth information .

상기 이상 역 깊이 정보 제거부는, 상기 특정 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 분산량의 상기 특정 역깊이 정보에 대한 상기 복수의 밝기 프로파일의 평균값에 대한 비율이 상기 임계치를 초과하는 경우, 상기 특정 역 깊이 정보를 제거할 수 있다.Wherein when the ratio of the dispersion amount of the plurality of brightness profiles to the specific depth information to the average value of the plurality of brightness profiles with respect to the specific depth information is greater than the threshold value, Specific depth information can be removed.

상기 정제부는, 상기 기준 영상 정보의 색(color) 정보를 참조하여 상기 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파할 수 있다.The refiner may refer to color information of the reference image information to propagate inverse depth information on the pixel from which the specific inverse depth information is removed.

발명의 다른 특징에 따른 복수의 시점에 따른 복수의 영상 정보를 이용하여 깊이 정보를 획득하는 깊이 정보 획득 방법은, 기준 영상 정보로부터 복수의 특징점을 추출하고, 비기준 영상 정보들 각각으로부터 상기 복수의 특징점에 대응하는 복수의 대응점을 추출하는 단계 상기 복수의 특징점 및 상기 복수의 대응점을 각각 왜곡 영상 좌표계에서 비왜곡 영상 좌표계로 매핑하여, 복수의 비왜곡 특징점 및 복수의 비왜곡 대응점을 획득하는 단계 상기 복수의 비왜곡 특징점의 추정된 삼차원 좌표를 획득하고, 상기 추정된 삼차원 좌표를 상기 비기준 영상 정보들 각각에 투사하여, 복수의 추정된 비왜곡 대응점을 획득하는 단계 및 상기 복수의 비왜곡 대응점과 상기 복수의 추정된 비왜곡 대응점의 차이를 최소화하는 카메라 파라미터를 획득하는 단계를 포함한다.According to another aspect of the present invention, there is provided a depth information acquisition method for acquiring depth information using a plurality of image information according to a plurality of viewpoints, comprising: extracting a plurality of feature points from reference image information; Extracting a plurality of corresponding points corresponding to the feature points; mapping the plurality of feature points and the plurality of corresponding points from the distortion image coordinate system to the non-distortion image coordinate system to obtain a plurality of non-distorted feature points and a plurality of non- Obtaining the estimated three-dimensional coordinates of the plurality of non-distorted feature points, projecting the estimated three-dimensional coordinates to each of the non-reference image information to obtain a plurality of estimated non-distortion corresponding points, Obtaining a camera parameter that minimizes the difference of the plurality of estimated non-distorted corresponding points It includes.

상기 깊이 정보 획득 방법은, 상기 카메라 파라미터를 이용해 상기 복수의 영상 정보들로부터 왜곡을 제거하는 단계 상기 비기준 영상 정보들 각각을 복수의 역 깊이 정보에 따라 기준 영상 좌표계로 매핑하여, 각 픽셀의 각 역 깊이 정보에 대한 복수의 밝기 프로파일을 획득하는 단계 및 각 픽셀의 각 역 깊이 정보에 대한 상기 복수의 밝기 프로파일을 이용하여 각 픽셀의 특정 역 깊이 정보를 획득하는 단계를 더 포함할 수 있다.Wherein the step of removing distortion from the plurality of image information using the camera parameter maps each of the non-reference image information to a reference image coordinate system according to a plurality of inverse depth information, Acquiring a plurality of brightness profiles for the inverse depth information, and obtaining specific inverse depth information of each pixel using the plurality of brightness profiles for each inverse depth information of each pixel.

상기 깊이 정보 획득 방법는, 복수의 픽셀에 대한 복수의 특정 역 깊이 정보 중 임계치를 초과하는 특정 역 깊이 정보를 제거하는 단계 및 상기 복수의 픽셀 중 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파하는 단계를 더 포함할 수 있다.The depth information obtaining method includes the steps of removing specific inverse depth information exceeding a threshold among a plurality of specific inverse depth information for a plurality of pixels and removing inverse depth information for a pixel from which the specific inverse depth information is removed And may further include a propagating step.

상기 복수의 대응점을 추출하는 단계는, 상기 복수의 대응점으로부터 상기 기준 영상 정보를 역방향 추적하여 복수의 역방향 대응점을 추출하는 단계The step of extracting the plurality of corresponding points may include the steps of tracing back the reference image information from the plurality of corresponding points and extracting a plurality of backward corresponding points

상기 복수의 역방향 대응점 중 대응하는 특징점과 임계치 이상의 간격을 갖는 이상 역방향 대응점을 검출하는 단계 및 상기 이상 역방향 대응점에 대응하는 특징점과 대응점을 상기 복수의 특징점과 상기 복수의 대응점으로부터 제거하는 단계를 포함할 수있다.Detecting an anomaly inverse correspondence point having an interval equal to or greater than a threshold value with corresponding feature points of the plurality of inverse correspondence points and removing the feature points corresponding to the anomaly inverse opposite point from the plurality of feature points and the plurality of correspondence points .

상기 각 픽셀의 특정 역 깊이 정보를 획득하는 단계는, 각 픽셀의 각 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 분산량을 계산하는 단계 및 상기 분산량이 가장 낮은 역 깊이 정보를 해당 픽셀에 대한 상기 특정 역 깊이 정보로서 획득하는 단계를 포함할 수 있다.Wherein the step of acquiring specific inverse depth information of each pixel includes the steps of calculating a variance amount of the plurality of brightness profiles for each inverse depth information of each pixel, As specific inverse depth information.

상기 임계치를 초과하는 특정 역 깊이 정보를 제거하는 단계는, 상기 특정 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 분산량의 상기 특정 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 평균값에 대한 비율이 상기 임계치를 초과하는 경우, 상기 특정 역 깊이 정보를 제거할 수 있다.Wherein the step of removing the specific inverse depth information exceeding the threshold value is performed such that the ratio of the variance amount of the plurality of brightness profile to the specific inverse depth information to the average value of the plurality of brightness profiles, If the threshold value is exceeded, the specific inverse depth information can be removed.

상기 역 깊이 정보를 전파하는 단계는, 상기 기준 영상 정보의 색 정보를 참조하여 상기 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파할 수 있다.The step of propagating the inverse depth information may propagate inverse depth information on the pixel from which the specific inverse depth information is removed by referring to the color information of the reference image information.

실시예들에 따른 깊이 정보 획득 장치 및 깊이 정보 획득 방법은 사용자가 별도로 캘리브레이션을 수행하지 않고서도 미소 시점 변화를 갖는 복수의 영상 정보로부터 카메라 파라미터 및 깊이 정보를 획득할 수 있다.The depth information acquiring apparatus and depth information acquiring method according to embodiments can acquire camera parameters and depth information from a plurality of image information having a minute view change without performing a calibration separately.

도 1은 본 발명의 한 실시예에 따른 깊이 정보 획득 장치를 설명하기 위한 도면이다.
도 2는 특징점 및 대응점 추출부의 동작을 설명하기 위한 도면이다.
도 3은 카메라 파라미터 획득부의 동작을 설명하기 위한 도면이다.
도 4 내지 6는 밝기 프로파일 획득부 및 역 깊이 정보 획득부를 설명하기 위한 도면이다.
도 7 내지 10는 이상 역 깊이 정보 제거부 및 정제부를 설명하기 위한 도면이다.
FIG. 1 is a view for explaining a depth information obtaining apparatus according to an embodiment of the present invention.
2 is a diagram for explaining the operation of the minutiae and the corresponding point extraction unit.
3 is a diagram for explaining the operation of the camera parameter obtaining unit.
4 to 6 are views for explaining a brightness profile obtaining unit and an inverse depth information obtaining unit.
Figs. 7 to 10 are views for explaining the abnormal depth information removing unit and the refinement unit. Fig.

이하, 첨부한 도면을 참고로 하여 여러 실시예들에 대하여 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 실시예들은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예들에 한정되지 않는다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The embodiments may be implemented in various different forms and are not limited to the embodiments described herein.

실시예들을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 번호를 붙이도록 한다. 따라서 이전 도면에 사용된 구성요소의 참조 번호를 다음 도면에서 사용할 수 있다.In order to clearly illustrate the embodiments, parts not related to the description are omitted, and the same reference numerals are used for the same or similar components throughout the specification. Therefore, reference numerals of the components used in the previous drawings can be used in the following drawings.

도 1은 본 발명의 한 실시예에 따른 깊이 정보 획득 장치를 설명하기 위한 도면이다.FIG. 1 is a view for explaining a depth information obtaining apparatus according to an embodiment of the present invention.

도 1을 참조하면 본 발명의 한 실시예에 따른 깊이 정보 획득 장치(10)는 특징점 및 대응점 추출부(11), 카메라 파라미터 획득부(14), 왜곡 제거부(15), 밝기 프로파일 획득부(16), 역 깊이 정보 획득부(17), 이상 역 깊이 정보 제거부(18), 및 정제부(19)를 포함한다. 카메라 파라미터 획득부(14)는 비왜곡 특징점 및 비왜곡 대응점 획득부(12) 및 추정된 비왜곡 대응점 획득부(13)을 포함한다.Referring to FIG. 1, a depth information obtaining apparatus 10 according to an embodiment of the present invention includes a feature point and corresponding point extracting unit 11, a camera parameter obtaining unit 14, a distortion removing unit 15, a brightness profile obtaining unit 16, an inverse depth information obtaining unit 17, an inverse depth information removing unit 18, and a refiner 19. The camera parameter obtaining section 14 includes non-distortion feature points and non-distortion correspondence point obtaining section 12 and estimated non-distortion correspondence point obtaining section 13. [

깊이 정보 획득 장치(10)는 복수의 시점에 따른 복수의 영상 정보를 이용하여 깊이 정보를 획득한다. 복수의 영상 정보는 기준 영상 정보 및 나머지 비기준 영상 정보들을 포함한다.The depth information acquisition apparatus 10 acquires depth information using a plurality of image information corresponding to a plurality of viewpoints. The plurality of image information includes reference image information and remaining non-reference image information.

깊이 정보 획득 장치(10)는 데스크탑, 노트북, 서버 등 프로그램을 연산할 수 있는 컴퓨팅 장치(computing device)일 수 있다. 깊이 정보 획득 장치(10)는 최소한 하나의 프로세서와 메모리를 포함할 수 있다. 메모리에는 본 발명의 실시예에 따른 깊이 정보 획득 방법이 미리 프로그램되어 있을 수 있다. 프로세서는 이러한 프로그램을 구동시킬 수 있다. 한편, 이러한 프로그램은 외부 서버 등으로부터 원격으로 가져올 수도 있다. 다른 한편, 깊이 정보 획득 장치(10)에서 프로세서와 메모리의 구분이 모호할 수 있으며, 깊이 정보 획득 방법을 구현하기 위한 소프트웨어와 하드웨어 각각의 비중을 정하는 것은 당업자 선택에 따를 수 있다.The depth information acquisition apparatus 10 may be a computing device capable of operating a program such as a desktop, a notebook, and a server. The depth information obtaining apparatus 10 may include at least one processor and a memory. The depth information acquisition method according to an embodiment of the present invention may be pre-programmed in the memory. The processor can drive such a program. On the other hand, such a program may be imported remotely from an external server or the like. On the other hand, the distinction between the processor and the memory may be ambiguous in the depth information acquiring apparatus 10, and it is possible for a person skilled in the art to determine the proportion of software and hardware for implementing the depth information acquiring method.

깊이 정보 획득 장치(10)는 하나의 프로세서 및 하나의 메모리로 본 발명의 깊이 정보 획득 방법을 구현할 수도 있지만, 복수의 프로세서 및 복수의 메모리 또는 다양한 소프트웨어 및 하드웨어의 조합으로 본 발명의 깊이 정보 획득 방법을 구현할 수 있다. 따라서 도 1에서는, 그러한 한 실시예로서, 깊이 정보 획득 장치(10)가 깊이 정보 획득 방법에 따라 논리적으로 구분된 복수의 기능부(function unit)(11, 12, 13, 14, 15, 16, 17, 18, 19)를 포함한다. 각각의 기능부를 하나 또는 특정 개수로 통합하거나 분리시켜 하드웨어 및 소프트웨어로 구현하는 것은 당업자의 선택 사항이다.Although the depth information obtaining apparatus 10 may implement the depth information obtaining method of the present invention by one processor and one memory, the depth information obtaining apparatus 10 may use a plurality of processors and a plurality of memories, or a combination of various software and hardware, Can be implemented. 1, the depth information obtaining apparatus 10 includes a plurality of function units 11, 12, 13, 14, 15, 16, and 14 logically divided according to the depth information obtaining method, 17, 18, 19). It is optional for those skilled in the art to integrate or separate each functional unit into one or a specific number and implement it in hardware and software.

이하 도 2 내지 10를 참조하여 깊이 정보 획득 장치(10)의 동작에 대해서 설명한다.Hereinafter, the operation of the depth information obtaining apparatus 10 will be described with reference to FIGS.

도 2는 특징점 및 대응점 추출부의 동작을 설명하기 위한 도면이다.2 is a diagram for explaining the operation of the minutiae and the corresponding point extraction unit.

특징점 및 대응점 추출부(11)는 기준 영상 정보로부터 복수의 특징점을 추출하고, 비기준 영상 정보들 각각으로부터 복수의 특징점에 대응하는 복수의 대응점을 추출한다.The feature point and corresponding point extraction section 11 extracts a plurality of feature points from the reference image information and extracts a plurality of corresponding points corresponding to the plurality of feature points from each of the non-reference image information.

또한 잘못 추정된 대응점을 제거하기 위해서, 특징점 및 대응점 추출부(11)는 복수의 대응점으로부터 기준 영상 정보를 역방향 추적하여 복수의 역방향 대응점을 추출하고, 복수의 역방향 대응점 중 대응하는 특징점과 임계치 이상의 간격을 갖는 이상 역방향 대응점을 검출하고, 이상 역방향 대응점에 대응하는 특징점과 대응점을 복수의 특징점과 복수의 대응점으로부터 제거할 수 있다.Also, in order to eliminate the erroneously estimated corresponding points, the feature point and corresponding point extracting section 11 traces back the reference image information from a plurality of corresponding points to extract a plurality of backward corresponding points, And the feature points and the corresponding points corresponding to the anomaly inverse opposite points can be removed from the plurality of feature points and the plurality of corresponding points.

이하에서 도 2를 참조하여 상술한 과정을 상세히 설명한다. 설명의 편의를 위해서, 전체 특징점 및 전체 비기준 영상 정보가 아닌, 기준 영상 정보(200)의 임의의 한 특징점(201) 및 임의의 한 비기준 영상 정보(210)를 기준으로 설명한다.Hereinafter, the process described above with reference to FIG. 2 will be described in detail. For convenience of explanation, description will be made on the basis of any one feature point 201 and any one non-reference image information 210 of the reference image information 200, rather than the entire feature point and the entire non-reference image information.

먼저, 특징점 및 대응점 추출부(11)는 기준 영상 정보(200)로부터 해리스 코너(Harris Corner)를 추출하여 이들을 복수의 특징점으로서 획득할 수 있다. 복수의 특징점은 임의의 한 특징점(201)을 포함한다. 획득된 복수의 특징점에 KLT 추적기(Kanade-Lucas-Tomashi tracker)를 적용하여 비기준 영상 정보들 각각에 대해 정방향 추적하면, 비기준 영상 정보들 각각에 대해 복수의 대응점을 추출할 수 있다. 예를 들어, 비기준 영상 정보(210)에 대해서 특징점(201)에 대응하는 대응점(211)을 획득할 수 있다.First, the minutiae and corresponding point extraction section 11 extracts Harris corners from the reference image information 200 and acquires them as a plurality of minutiae. The plurality of feature points include any one feature point 201. [ A KLT tracker (Kanade-Lucas-Tomashi tracker) is applied to the obtained plurality of feature points to forwardly track each of the non-reference image information, thereby extracting a plurality of corresponding points for each of the non-reference image information. For example, the corresponding point 211 corresponding to the feature point 201 may be obtained for the non-reference image information 210. [

또한, 특징점 및 대응점 추출부(11)는 대응점(211)에 KLT 추적기를 역방향으로 적용시킴으로서 기준 영상 정보(200)에서 대응점(211)에 대응하는 역방향 대응점(202)을 획득할 수 있다. 특징점 및 대응점 추출부(11)는 특징점(201)과 대응점(202) 사이의 간격(d)이 임계치 이상이면, 역방향 대응점(202)을 이상(outlier) 역방향 대응점으로 결정할 수 있다. 역방향 대응점(202)이 이상 역방향 대응점으로 결정된 경우, 특징점(201) 및 대응점(211)은 잘못 추정된 것으로 판단되므로 각각 복수의 특징점과 복수의 대응점으로부터 제거될 수 있다.The minutiae and corresponding point extraction unit 11 can obtain a reverse correspondence point 202 corresponding to the corresponding point 211 in the reference image information 200 by applying the KLT tracker to the corresponding point 211 in the reverse direction. The feature point and corresponding point extraction unit 11 can determine the outward correspondence point 202 as the outlier correspondence point if the distance d between the feature point 201 and the corresponding point 202 is equal to or larger than the threshold value. When the backward corresponding point 202 is determined to be an anomalous backward corresponding point, the feature point 201 and the corresponding point 211 are judged to be erroneously estimated, so that they can be removed from a plurality of feature points and a plurality of corresponding points, respectively.

이때 간격(d)은 픽셀(pixel) 단위일 수 있고, 임계치는 0.1 픽셀일 수 있다. 임계치의 구체적인 수치는 당업자가 달리 선택할 수 있다.Where the interval d may be in pixels and the threshold may be 0.1 pixels. The specific values of the threshold value can be selected by those skilled in the art.

상술한 과정을 통해서, 특징점 및 대응점 추출부(11)는 복수의 특징점 및 복수의 대응점을 획득할 수 있다.Through the above-described process, the minutiae and corresponding point extraction section 11 can acquire a plurality of minutiae and a plurality of corresponding points.

도 3은 카메라 파라미터 획득부의 동작을 설명하기 위한 도면이다.3 is a diagram for explaining the operation of the camera parameter obtaining unit.

우선, 획득하고자 하는 카메라 내부 파라미터는 1 개의 초점 길이(focal length) f와 2 개의 방사형 왜곡(radial distortion) 파라미터 k1, k2를 포함하고, 카메라의 광학 주점(pricipal point)과 방사형 왜곡의 중심은 영상의 중심에 있는 것으로 가정한다.First, the camera internal parameter to be acquired includes one focal length f and two radial distortion parameters k 1 and k 2 , and the camera's optical point of interest and the center of the radial distortion Is assumed to be at the center of the image.

비왜곡 특징점 및 비왜곡 대응점 획득부(12)는 복수의 특징점 및 복수의 대응점을 각각 왜곡(distorted) 영상 좌표계에서 비왜곡(undistorted) 영상 좌표계로 매핑(mapping)하여, 복수의 비왜곡 특징점 및 복수의 비왜곡 대응점을 획득한다. 어떤 한 지점

Figure pat00001
을 왜곡 영상 좌표계에서 비왜곡 영상 좌표계로 변환하는 함수
Figure pat00002
는 아래의 예시적인 수학식 1에 따를 수 있다.The non-distorted feature point and non-distorted corresponding point obtaining unit 12 maps a plurality of feature points and a plurality of corresponding points to an undistorted image coordinate system in a distorted image coordinate system to obtain a plurality of non- The non-distortion correspondence point of? Any point
Figure pat00001
A function of transforming a distortion image coordinate system into a non-distortion image coordinate system
Figure pat00002
Lt; RTI ID = 0.0 > (1) < / RTI >

[수학식 1][Equation 1]

Figure pat00003
Figure pat00003

i가 영상 정보의 번호이고, j는 특징점의 번호라고 할 때, 왜곡 영상 좌표계의 좌표를

Figure pat00004
로 표현할 수 있다. 본 실시예에서 i=0일 때의 영상 정보를 기준 영상 정보로 한다. 왜곡 영상 좌표계의 좌표
Figure pat00005
를 비왜곡 영상 좌표계의 좌표로 변환하면
Figure pat00006
로 표현할 수 있다.i is the number of the image information, and j is the number of the feature point, the coordinates of the distortion image coordinate system are represented by
Figure pat00004
. In the present embodiment, the video information when i = 0 is set as reference video information. Coordinates of the distortion image coordinate system
Figure pat00005
Into coordinates of the non-distorted image coordinate system
Figure pat00006
.

상술한 계산 과정을 통해, 비왜곡 특징점 및 비왜곡 대응점 획득부(12)는 기준 영상 정보(200u)에 대해 비왜곡 특징점(201u)을 획득하고, 비기준 영상 정보(210u)에 대해 비왜곡 대응점(211u)을 획득할 수 있다.Through the above calculation process, the non-distorted feature point and non-distorted corresponding point obtaining unit 12 obtains the non-distorted feature point 201u with respect to the reference image information 200u, (211u).

다음으로, 추정된 비왜곡 대응점 획득부(13)는 복수의 비왜곡 특징점의 추정된 삼차원 좌표를 획득하고, 추정된 삼차원 좌표를 비기준 영상 정보들 각각에 투사(project)하여, 복수의 추정된 비왜곡 대응점을 획득한다.Next, the estimated non-distorted corresponding point obtaining section 13 obtains the estimated three-dimensional coordinates of the plurality of non-distorted feature points, projects the estimated three-dimensional coordinates onto each of the non-reference image information, Non-distortion correspondence point.

도 3을 참조하면, 비왜곡 특징점(201u)의 추정된 삼차원 좌표(301)를 획득하고, 추정된 삼차원 좌표(301)를 비기준 영상 정보(210u)에 투사하여 추정된 비왜곡 대응점(211u')을 획득할 수 있다.3, an estimated three-dimensional coordinate 301 of the non-distorted feature point 201u is obtained, and the estimated three-dimensional coordinate 301 is projected to the non-reference image information 210u to obtain an estimated non-distortion corresponding point 211u ' Can be obtained.

추정된 삼차원 좌표(301)인

Figure pat00007
는 기준 영상 정보(200u)의 비왜곡 특징점(201u)의 좌표
Figure pat00008
와 역 깊이(inverse depth) 정보
Figure pat00009
를 이용하여 아래 수학식 2와 같이 모델링할 수 있다. 이때 역 깊이 정보
Figure pat00010
는 추정된 삼차원 좌표(301)
Figure pat00011
자체의 역 깊이 정보이다.The estimated three-dimensional coordinate (301)
Figure pat00007
Distortion feature point 201u of the reference image information 200u
Figure pat00008
And inverse depth information
Figure pat00009
The following equation (2) can be used. At this time,
Figure pat00010
Dimensional coordinates 301,
Figure pat00011
Depth information of its own.

[수학식 2]&Quot; (2) "

Figure pat00012
Figure pat00012

추정된 비왜곡 대응점 획득부(13)는 추정된 삼차원 좌표(301)인

Figure pat00013
를 비기준 영상 정보(210u)에 투사하여 추정된 비왜곡 대응점(211u')인
Figure pat00014
을 획득한다. 이때 사용되는 함수
Figure pat00015
는 아래의 예시적인 수학식 3에 따를 수 있다.The estimated non-distortion corresponding point obtaining section 13 obtains the estimated three-dimensional coordinate 301
Figure pat00013
Is projected on the non-reference image information 210u to be the estimated non-distortion corresponding point 211u '
Figure pat00014
. Functions used at this time
Figure pat00015
Lt; RTI ID = 0.0 > (3) < / RTI >

[수학식 3]&Quot; (3) "

Figure pat00016
Figure pat00016

이때 함수꼴 <>는

Figure pat00017
와 같이 계산될 수 있다. 함수
Figure pat00018
는 추정된 삼차원 좌표(301)인
Figure pat00019
를 회전 벡터
Figure pat00020
및 변위 벡터
Figure pat00021
를 갖는 i번째 영상 정보(여기서 비기준 영상 정보(210u))에 투사시키는 함수이다. 이때,
Figure pat00022
에 대응되는 작은 각도 근사된 회전 행렬(small angle approximated rotation matrix)은 함수
Figure pat00023
로 표현하였으며, 아래의 예시적인 수학식 4와 같이 정의될 수 있다.At this time,
Figure pat00017
Can be calculated as follows. function
Figure pat00018
Dimensional coordinate 301
Figure pat00019
Rotation vector
Figure pat00020
And a displacement vector
Figure pat00021
To the ith image information (here, the non-reference image information 210u). At this time,
Figure pat00022
A small angle approximated rotation matrix corresponding to < RTI ID = 0.0 >
Figure pat00023
And can be defined by the following exemplary equation (4).

[수학식 4]&Quot; (4) &quot;

Figure pat00024
Figure pat00024

Figure pat00025
Figure pat00026
의 구성요소들이고,
Figure pat00027
는 벡터-매트릭스 전화 함수(vector-to-matrix function)로서 회전 벡터
Figure pat00028
를 작은 각도 근사된 회전 행렬로 변환시킨다.
Figure pat00025
The
Figure pat00026
&Lt; / RTI &gt;
Figure pat00027
Is a vector-to-matrix function,
Figure pat00028
To a small angle-approximated rotation matrix.

다음으로, 카메라 파라미터 획득부(14)는 복수의 비왜곡 대응점과 복수의 추정된 비왜곡 대응점의 차이를 최소화하는 카메라 내부 파라미터 및 카메라 외부 파라미터를, 아래의 예시적인 수학식 5를 이용해서, 획득할 수 있다.Next, the camera parameter obtaining section 14 obtains camera internal parameters and camera external parameters that minimize the difference between the plurality of non-distortion corresponding points and the plurality of estimated non-distortion corresponding points, using the following exemplary equation (5) can do.

[수학식 5]&Quot; (5) &quot;

Figure pat00029
Figure pat00029

argmin은 LM method(Levenberg-Marquardt method) 등의 비선형 최적화 기법의 함수가 사용될 수 있다. 추정된 비왜곡 대응점(211u')인

Figure pat00030
에 초점 거리
Figure pat00031
가 곱해지는 것은 단위를 픽셀 단위로 변환하기 위해서이다.
Figure pat00032
는 후버 손실 함수(Huber loss function)이고,
Figure pat00033
는 카메라 내부 파라미터의 집합이고,
Figure pat00034
은 비기준 영상들에 대한 카메라 회전 벡터들의 집합이고,
Figure pat00035
는 비기준 영상들에 대한 카메라 변위 벡터들의 집합이고,
Figure pat00036
는 복수의 특징점들의 역 깊이 정보들의 집합이다. N은 복수의 영상 정보의 개수이고, M은 복수의 특징점의 개수이다.argmin can be a function of nonlinear optimization technique such as LM method (Levenberg-Marquardt method). The estimated non-distortion corresponding point 211u '
Figure pat00030
Focus distance on
Figure pat00031
The multiplication is to convert the units into pixels.
Figure pat00032
Is a Huber loss function,
Figure pat00033
Is a set of camera internal parameters,
Figure pat00034
Is a set of camera rotation vectors for non-reference images,
Figure pat00035
Is a set of camera displacement vectors for non-reference images,
Figure pat00036
Is a set of inverse depth information of a plurality of feature points. N is the number of the plurality of image information, and M is the number of the plurality of feature points.

카메라 파라미터 획득부(14)는 수학식 5를 이용하여 카메라 내부 파라미터인 K, 카메라 외부 파라미터인 R 및 T, 및 W를 획득할 수 있다. 카메라 파라미터 획득부(14)의 연산 과정 중, 현재 시점에서 추정되는 K, R, T, W를 참조하여, 비왜곡 특징점 및 비왜곡 대응점 획득부(12)는 복수의 비왜곡 특징점 및 복수의 비왜곡 대응점을 갱신하고, 추정된 비왜곡 대응점 획득부(13)는 복수의 추정된 비왜곡 대응점을 갱신한다.The camera parameter acquiring unit 14 can acquire the camera internal parameter K, the camera external parameters R and T, and W using Equation (5). Distortion feature point and non-distortion correspondence point acquisition section 12 refers to K, R, T, and W estimated at the present point in the calculation process of camera parameter acquisition section 14 to obtain a plurality of non-distortion feature points and a plurality of non- Distortion correspondence point, and the estimated non-distortion correspondence point obtaining section 13 updates the plurality of estimated non-distortion correspondence points.

도 4 내지 6는 밝기 프로파일 획득부 및 역 깊이 정보 획득부를 설명하기 위한 도면이다.4 to 6 are views for explaining a brightness profile obtaining unit and an inverse depth information obtaining unit.

우선, 밝기 프로파일 획득부(16)의 동작 이전에, 왜곡 제거부(15)가 동작할 수 있다. 왜곡 제거부(15)는 카메라 내부 파라미터를 이용해 복수의 영상 정보들로부터 왜곡을 제거할 수 있다. 따라서 밝기 프로파일 획득부(16)는 왜곡이 제거된 복수의 영상 정보들을 이용하여 동작할 수 있다.First, before operation of the brightness profile obtaining section 16, the distortion removing section 15 may operate. The distortion removing unit 15 may remove distortion from a plurality of pieces of image information using camera internal parameters. Accordingly, the brightness profile obtaining unit 16 can operate using a plurality of pieces of image information from which distortion has been removed.

밝기 프로파일 획득부(16)는 비기준 영상 정보들 각각을 복수의 역깊이 정보에 따라 기준 영상 좌표계로 매핑하여, 각 픽셀의 각 역 깊이 정보에 대한 복수의 밝기 프로파일을 획득할 수 있다. 이때, 밝기 프로파일 획득부(16)는 획득된 카메라 파라미터를 이용하여 비기준 영상 정보들 각각을 복수의 역 깊이 정보에 따라 기준 영상 좌표계로 매핑할 수 있다.The brightness profile obtaining unit 16 may obtain a plurality of brightness profiles for each inverse depth information of each pixel by mapping each of the non-reference image information to a reference image coordinate system according to a plurality of inverse depth information. At this time, the brightness profile obtaining unit 16 may map each of the non-reference image information to the reference image coordinate system according to the plurality of inverse depth information using the obtained camera parameters.

구체적으로, 기준 영상 정보(410)로부터 역 깊이 wk만큼 이격된 복수의 가상 평면을 가정하고, 비기준 영상들을이러한 가상 평면을 거치도록하는 호모그래피(homography) 변환을 통해 기준 영상 좌표계로 이동시킬 수 있다. 이때 사용되는 호모그래피 행렬

Figure pat00037
은 아래의 예시적인 수학식 6으로 표현될 수 있다. 본 실시예에서 역 깊이 wk의 k는
Figure pat00038
로 가정한다. 즉 256개의 가상 평면이 있는 것으로 가정한다.Specifically, assuming a plurality of virtual planes spaced by the inverse depth w k from the reference image information 410 and moving the non-reference images to the reference image coordinate system through homography transformation to pass through these virtual planes . The homography matrix used at this time
Figure pat00037
Can be expressed by the following exemplary equation (6). In this embodiment, k of the inverse depth w k is
Figure pat00038
. That is, there are 256 virtual planes.

[수학식 6]&Quot; (6) &quot;

Figure pat00039
Figure pat00039

Figure pat00040
는 카메라 내부 행렬(intrinsic matrix)로,
Figure pat00041
이며, (pu,pv)는 이미지 중심 좌표이다. 수학식 6의 변수들은 이미 획득된 카메라 파라미터를 이용할 수 있다.
Figure pat00040
Is a camera intrinsic matrix,
Figure pat00041
(P u , p v ) is the image center coordinate. The variables in equation (6) can use the already obtained camera parameters.

기준 영상 좌표계로 이동된 비기준 영상 정보들 및 기준 영상 정보를 모두 중첩시켜본다면, 각 픽셀은 각 역 깊이에 대해서 N 개의 영상 정보들로부터 N 개의 픽셀 값을 갖게 된다. 좌표

Figure pat00042
에 대한 N 개의 픽셀 값의 집합을 밝기 프로파일(intensity profile)이라고 할 때, 좌표
Figure pat00043
인 픽셀의 역 깊이 정보 wk에 대한 밝기 프로파일인
Figure pat00044
는 아래 수학식 7과 같이 표현할 수 있다.If all of the non-reference image information and reference image information moved to the reference image coordinate system are overlapped, each pixel has N pixel values from N image information for each depth depth. location
Figure pat00042
And a set of N pixel values for a pixel is called an intensity profile,
Figure pat00043
Lt; RTI ID = 0.0 &gt; wk &lt; / RTI &gt;
Figure pat00044
Can be expressed as Equation (7) below.

[수학식 7]&Quot; (7) &quot;

Figure pat00045
Figure pat00045

여기서

Figure pat00046
는 i번째 영상 정보를 k 번째 가상 평면을 통해 기준 영상 좌표계로 변환시켰을 때, 좌표
Figure pat00047
의 픽셀 값을 의미한다. 이때 k 번째 가상 평면의 깊이가 좌표가
Figure pat00048
인 픽셀에 해당하는 삼차원 공간 상의 지점의 깊이와 유사한 경우, 밝기 프로파일
Figure pat00049
은 일관적인 값들을 갖게 된다.here
Figure pat00046
When the i-th image information is converted into the reference image coordinate system through the k-th virtual plane,
Figure pat00047
. In this case, the depth of the kth virtual plane is
Figure pat00048
If it is similar to the depth of a point on a three-dimensional space corresponding to an in-pixel,
Figure pat00049
Will have consistent values.

도 5를 참조하면, 도 4의 기준 영상 정보(410)의 예시적인 3 개 픽셀(P2, P2, P3)에 대해서 각 역 깊이 정보 wk에 대응하는 밝기 프로파일(421)이 그래프로 각각 도시된다. 또한 밝기 프로파일의 가로 방향 그래디언트(gradient)(422) 및 세로 방향 그래디언트(423)에 대한 그래프가 함께 도시되어 있다.Referring to FIG. 5, a brightness profile 421 corresponding to each inverse depth information w k is shown graphically for three exemplary pixels (P2, P2, P3) of the reference image information 410 of FIG. 4 . Also shown is a graph of a horizontal gradient 422 and a vertical gradient 423 of the brightness profile.

역 깊이 정보 획득부(17)는 각 픽셀의 각 역 깊이 정보에 대한 복수의 밝기 프로파일을 이용하여 각 픽셀의 특정 역 깊이 정보를 획득할 수 있다. 이때 역 깊이 정보 획득부(17)는 각 픽셀의 각 역 깊이 정보에 대한 복수의 밝기 프로파일의 분산량(variance amount)을 계산하고, 분산량이 가장 낮은 역 깊이 정보를 해당 픽셀에 대한 특정 역 깊이 정보로서 획득할 수 있다. 여기서 분산량은 밝기 프로파일의 분산값, 밝기 프로파일의 가로 방향 그래디언트(gradient)의 분산값, 및 밝기 프로파일의 세로 방향 그래디언트의 분산값을 포함할 수 있다.The inverse depth information obtaining unit 17 can obtain specific inverse depth information of each pixel by using a plurality of brightness profiles for each inverse depth information of each pixel. At this time, the inverse depth information obtaining unit 17 calculates a variance amount of a plurality of brightness profiles with respect to each inverse depth information of each pixel, and outputs inverse depth information having the smallest amount of variance to specific inverse depth information . Here, the amount of dispersion may include a variance value of the brightness profile, a variance value of the brightness gradient of the brightness profile, and a variance value of the brightness gradient of the brightness profile.

분산량을

Figure pat00050
라고 하고, 밝기 프로파일의 분산 값을
Figure pat00051
라고 하고, 가로 방향 그래디언트의 분산값을
Figure pat00052
라고 하고, 세로 방향 그래디언트의 분산값을
Figure pat00053
라고 한다면, 아래 수학식 8과 같이 표현할 수 있다.
Figure pat00054
,
Figure pat00055
는 가로 방향 및 세로 방향 그래디언트 각각의 가중치 값으로서 당업자에 의해 적절히 선택될 수 있다.The amount of dispersion
Figure pat00050
And the variance value of the brightness profile is
Figure pat00051
And the variance value of the horizontal gradient is
Figure pat00052
And the variance value of the longitudinal gradient is
Figure pat00053
, It can be expressed as Equation (8) below.
Figure pat00054
,
Figure pat00055
May be appropriately selected by those skilled in the art as the weight values of the respective horizontal and vertical gradients.

[수학식 8]&Quot; (8) &quot;

Figure pat00056
Figure pat00056

밝기 프로파일의 분산값인

Figure pat00057
는 아래 수학식 9와 같이 표현될 수 있다. VAR는 분산(variance)을 구하는 함수이다.The variance value of the brightness profile
Figure pat00057
Can be expressed by Equation (9) below. VAR is a function to obtain variance.

[수학식 9]&Quot; (9) &quot;

Figure pat00058
Figure pat00058

밝기 프로파일의 가로 방향 그래디언트의 분산값인

Figure pat00059
는 아래 수학식 10과 같이 표현될 수 있다.The variance of the horizontal gradient of the brightness profile.
Figure pat00059
Can be expressed as Equation (10) below.

[수학식 10]&Quot; (10) &quot;

Figure pat00060
Figure pat00060

밝기 프로파일의 세로 방향 그래디언트의 분산값인

Figure pat00061
는 아래 수학식 11과 같이 표현될 수 있다.The variance of the vertical gradient of the brightness profile.
Figure pat00061
Can be expressed by Equation (11) below.

[수학식 11]&Quot; (11) &quot;

Figure pat00062
Figure pat00062

역 깊이 정보 획득부(17)는 이러한 분산량

Figure pat00063
이 가장 낮은 역 깊이 정보를 해당 픽셀에 대한 특정 역 깊이 정보로서 획득할 수 있다. 도 5를 참조하면, 픽셀(P1)의 경우 k=a 일때 그래프(426b)의 분산량이 최소이므로 픽셀(P1)에 대한 특정 역 깊이 정보 wa가 획득된다. 픽셀(P2)의 경우 k=b 일때 그래프(427b)의 분산량이 최소이므로 픽셀(P2)에 대한 특정 역 깊이 정보 wb가 획득된다. 픽셀(P3)의 경우 k=c 일때 그래프(428b)의 분산량이 최소이므로 픽셀(P3)에 대한 특정 역 깊이 정보 wc가 획득된다. k=a일 때 픽셀(P1)이 가장 선명하고(426a), k=b일 때 픽셀(P2)이 가장 선명하고(427a), k=c일 때 픽셀(P3)이 가장 선명한 것(428a)을 확인할 수 있다.The inverse depth information obtaining unit 17 calculates the inverse depth information
Figure pat00063
This lowest inverse depth information can be obtained as specific inverse depth information for that pixel. Referring to FIG. 5, the specific depth information w a for the pixel P 1 is obtained since the variance amount of the graph 426 b is minimum when k = a for the pixel P 1. For pixel P2, the specific depth information w b for pixel P2 is obtained since the variance of the graph 427 b is at a minimum when k = b. For the pixel P3, the specific depth information w c for the pixel P3 is obtained since the variance amount of the graph 428b is minimum when k = c. the pixel P1 is the most vivid when k = a 426a and the pixel P2 is the most vivid 427a when k = b and the pixel P3 is the most vivid 428a when k = can confirm.

상술한 과정은, 특정 역 깊이 정보를

Figure pat00064
라고 하면, 아래의 예시적인 수학식 12와 같이 표현할 수 있다.The above-described process is a process of extracting specific inverse depth information
Figure pat00064
, It can be expressed as the following exemplary equation (12).

[수학식 12]&Quot; (12) &quot;

Figure pat00065
Figure pat00065

도 6를 참조하면 복수의 픽셀에 대해 획득된 복수의 특정 역 깊이 정보를 이용한 깊이 맵(depth map)(430)이 도시되어 있다. 따라서 본 발명의 깊이 정보 획득 장치(10)는 상술한 과정을 통해서 사용자가 별도로 캘리브레이션을 수행하지 않고서도 미소 시점 변화를 갖는 복수의 영상 정보로부터 카메라 파라미터 및 깊이 정보를 획득할 수 있음을 확인할 수 있다.Referring to FIG. 6, a depth map 430 using a plurality of specific depth information obtained for a plurality of pixels is shown. Therefore, the depth information obtaining apparatus 10 of the present invention can confirm that camera parameters and depth information can be obtained from a plurality of image information having a change in the micro-viewpoint without performing a calibration separately by the user through the above-described process .

도 7 내지 10는 이상 역 깊이 정보 제거부 및 정제부를 설명하기 위한 도면이다.Figs. 7 to 10 are views for explaining the abnormal depth information removing unit and the refinement unit. Fig.

도 6를 다시 참조하면 깊이 맵(430)의 가장자리 등에 이상(outlier) 역 깊이 정보로 인해서 스무스 정도(smoothness)가 떨어짐을 확인할 수 있다. 도 7는 도 6와 같은 처리 과정을 거친 러프(rough)한 깊이 맵(510)을 도시한다. 깊이 맵(510)의 부분(511a)을 확대한 부분(511b) 및 부분(512a)를 확대한 부분(512b)을 참조하며 이후 처리 과정을 설명한다.Referring again to FIG. 6, it can be seen that the smoothness of the edge of the depth map 430 is reduced due to outlier depth information. FIG. 7 shows a rough depth map 510 that has undergone a process similar to that of FIG. The enlarged portion 511b of the portion 511a of the depth map 510 and the enlarged portion 512b of the portion 512a will be referred to.

이상 역 깊이 정보 제거부(18)는 복수의 픽셀에 대한 복수의 특정 역 깊이 정보 중 임계치를 초과하는 특정 역 깊이 정보를 이상 역 깊이 정보로 판단하고, 이러한 이상 역 깊이 정보를 제거할 수 있다.The outlier depth information removing unit 18 can determine the specific inverse depth information exceeding the threshold among the plurality of specific inverse depth information for the plurality of pixels as the abnormal inverse depth information and remove the abnormal inverse depth information.

구체적으로, 이상 역 깊이 정보 제거부(18)는 특정 역깊이 정보에 대한 복수의 밝기 프로파일의 분산량

Figure pat00066
의 특정 역 깊이 정보에 대한 복수의 밝기 프로파일의 평균값
Figure pat00067
에 대한 비율
Figure pat00068
이 임계치를 초과하는 경우, 초과한 특정 역 깊이 정보를 이상 역 깊이 정보로 판단하고 이를 제거할 수 있다. 비율
Figure pat00069
은 아래 수학식 13과 같이 표현할 수 있다.Specifically, the anomaly depth information removing unit 18 calculates the amount of variance of the plurality of brightness profiles with respect to the specific inverse depth information
Figure pat00066
The average value of the plurality of brightness profiles for the specific depth information
Figure pat00067
Percentage to
Figure pat00068
If the threshold value is exceeded, the specific inverse depth information is judged to be abnormal inverse depth information and can be removed. ratio
Figure pat00069
Can be expressed by Equation (13) below.

[수학식 13]&Quot; (13) &quot;

Figure pat00070
Figure pat00070

임계치는 영상 정보들 전체의 비율

Figure pat00071
들 중 상위 10 퍼센트에 해당하는 값일 수 있다. 즉, 비율
Figure pat00072
이 지나치게 큰 경우 해당하는 특정 역 깊이 정보를 이상 역 깊이 정보로 판단하고 이를 제거할 수 있다. 이러한 임계치는 당업자의 선택사항일 수 있다. 도 8를 참조하면, 이상 역 깊이 정보가 제거된 깊이 맵(520, 521, 522)이 도시된다.The threshold is the ratio of the total image information
Figure pat00071
Of the top 10 percent. That is,
Figure pat00072
If the depth information is too large, the corresponding specific depth information can be determined as the abnormal depth information and can be removed. These thresholds may be optional to those skilled in the art. Referring to FIG. 8, depth maps 520, 521 and 522 are shown in which the outlier depth information is removed.

정제부(19)는 복수의 픽셀 중 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파(propagation)할 수 있다. 구체적으로, 기준 영상 정보(540)의 색(color) 정보를 참조하여 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파할 수 있다. 도 9를 참조하면, 전파된 역 깊이 정보로 채워져 보다 스무스한 깊이 맵(530, 531, 532)이 도시된다.The refinement section 19 may propagate inverse depth information for a pixel from which specific inverse depth information has been removed from a plurality of pixels. Specifically, referring to the color information of the reference image information 540, the inverse depth information may be propagated to the pixel from which the specific inverse depth information has been removed. Referring to FIG. 9, a smoother depth map 530, 531, 532 is shown filled with propagated inverse depth information.

지금까지 참조한 도면과 기재된 발명의 상세한 설명은 단지 본 발명의 예시적인 것으로서, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are illustrative and explanatory only and are intended to be illustrative of the invention and are not to be construed as limiting the scope of the invention as defined by the appended claims. It is not. Therefore, those skilled in the art will appreciate that various modifications and equivalent embodiments are possible without departing from the scope of the present invention. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

10: 깊이 정보 획득 장치
11: 특징점 및 대응점 추출부
12: 비왜곡 특징점 및 비왜곡 대응점 획득부
13: 추정된 비왜곡 대응점 획득부
14: 카메라 파라미터 획득부
15: 왜곡 제거부
16: 밝기 프로파일 획득부
17: 역 깊이 정보 획득부
18: 이상 역 깊이 정보 제거부
19: 정제부
10: Depth information acquisition device
11: minutiae and corresponding point extraction section
12: non-distortion characteristic point and non-distortion correspondence point acquisition unit
13: Estimated non-distortion corresponding point obtaining unit
14: Camera parameter acquisition unit
15: Distortion elimination
16: Brightness profile acquisition unit
17: Inverse depth information acquisition unit
18: Abnormal depth information removal
19: Purification section

Claims (14)

복수의 시점에 따른 복수의 영상 정보를 이용하여 깊이 정보를 획득하는 깊이 정보 획득 장치로서,
기준 영상 정보로부터 복수의 특징점을 추출하고, 비기준 영상 정보들 각각으로부터 상기 복수의 특징점에 대응하는 복수의 대응점을 추출하는 특징점 및대응점 추출부; 및
비왜곡 특징점 및 비왜곡 대응점 획득부 및 추정된 비왜곡 대응점 획득부를 포함하는 카메라 파라미터 획득부를 포함하고,
상기 비왜곡 특징점 및 비왜곡 대응점 획득부는 상기 복수의 특징점 및 상기 복수의 대응점을 각각 왜곡(distorted) 영상 좌표계에서 비왜곡(undistorted) 영상 좌표계로 매핑(mapping)하여, 복수의 비왜곡 특징점 및 복수의 비왜곡 대응점을 획득하고,
상기 추정된 비왜곡 대응점 획득부는 상기 복수의 비왜곡 특징점의 추정된 삼차원 좌표를 획득하고, 상기 추정된 삼차원 좌표를 상기 비기준 영상 정보들 각각에 투사(project)하여, 복수의 추정된 비왜곡 대응점을 획득하고,
상기 카메라 파라미터 획득부는 상기 복수의 비왜곡 대응점과 상기 복수의 추정된 비왜곡 대응점의 차이를 최소화하는 카메라 파라미터를 획득하는,
깊이 정보 획득 장치.
A depth information acquiring apparatus for acquiring depth information using a plurality of image information according to a plurality of viewpoints,
A feature point extracting unit that extracts a plurality of feature points from the reference image information and extracts a plurality of corresponding points corresponding to the plurality of feature points from each of the non-reference image information; And
A non-distorted corresponding point obtaining unit, and an estimated non-distortion corresponding point obtaining unit,
The non-distorted feature point and non-distorted corresponding point obtaining unit maps the plurality of feature points and the plurality of corresponding points respectively to an undistorted image coordinate system in a distorted image coordinate system to generate a plurality of non- Acquires a non-distortion correspondence point,
The estimated non-distorted corresponding point obtaining unit obtains estimated three-dimensional coordinates of the plurality of non-distorted feature points, projects the estimated three-dimensional coordinates to each of the non-reference image information, calculates a plurality of estimated non- Lt; / RTI &gt;
Wherein the camera parameter obtaining section obtains a camera parameter that minimizes a difference between the plurality of non-distortion corresponding points and the plurality of estimated non-
Depth information acquisition device.
제1 항에 있어서,
상기 카메라 파라미터를 이용해 상기 복수의 영상 정보들로부터 왜곡을 제거하는 왜곡 제거부;
상기 비기준 영상 정보들 각각을 복수의 역깊이(inverse depth) 정보에 따라 기준 영상 좌표계로 매핑하여, 각 픽셀의 각 역 깊이 정보에 대한 복수의 밝기 프로파일을 획득하는 밝기 프로파일 획득부; 및
각 픽셀의 각 역 깊이 정보에 대한 상기 복수의 밝기 프로파일을 이용하여 각 픽셀의 특정 역 깊이 정보를 획득하는 역 깊이 정보 획득부를 더 포함하는
깊이 정보 획득 장치.
The method according to claim 1,
A distortion removing unit for removing distortion from the plurality of image information using the camera parameters;
A brightness profile obtaining unit that maps each of the non-reference image information to a reference image coordinate system according to a plurality of inverse depth information to obtain a plurality of brightness profiles for each inverse depth information of each pixel; And
And an inverse depth information obtaining unit for obtaining specific inverse depth information of each pixel using the plurality of brightness profiles for each inverse depth information of each pixel
Depth information acquisition device.
제2 항에 있어서,
복수의 픽셀에 대한 복수의 특정 역 깊이 정보 중 임계치를 초과하는 특정 역 깊이 정보를 제거하는 이상 역 깊이 정보 제거부; 및
상기 복수의 픽셀 중 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파하는 정제부를 더 포함하는
깊이 정보 획득 장치.
3. The method of claim 2,
An abnormal depth information removing unit that removes specific inverse depth information exceeding a threshold among a plurality of specific inverse depth information for a plurality of pixels; And
Further comprising a refinement section for propagating inverse depth information on a pixel from which the specific inverse depth information has been removed
Depth information acquisition device.
제1 항에 있어서,
상기 특징점 및 대응점 추출부는
상기 복수의 대응점으로부터 상기 기준 영상 정보를 역방향 추적하여 복수의 역방향 대응점을 추출하고,
상기 복수의 역방향 대응점 중 대응하는 특징점과 임계치 이상의 간격을 갖는 이상 역방향 대응점을 검출하고,
상기 이상 역방향 대응점에 대응하는 특징점과 대응점을 상기 복수의 특징점과 상기 복수의 대응점으로부터 제거하는,
깊이 정보 획득 장치.
The method according to claim 1,
The feature point and corresponding point extraction unit
Extracting a plurality of backward corresponding points by tracing back the reference image information from the plurality of corresponding points,
Detecting an anomaly inverse point having an interval greater than or equal to a threshold value from the corresponding minutiae of the plurality of inverse correspondence points,
And removing, from the plurality of feature points and the plurality of corresponding points, feature points and corresponding points corresponding to the anomaly-
Depth information acquisition device.
제2 항에 있어서,
상기 역 깊이 정보 획득부는
각 픽셀의 각 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 분산량(variance amount)을 계산하고,
상기 분산량이 가장 낮은 역깊이 정보를 해당 픽셀에 대한 상기 특정 역 깊이 정보로서 획득하는,
깊이 정보 획득 장치.
3. The method of claim 2,
The inverse depth information obtaining unit
Calculating a variance amount of the plurality of brightness profiles for each inverse depth information of each pixel,
Acquiring the inverse depth information having the lowest amount of dispersion as the specific inverse depth information for the pixel,
Depth information acquisition device.
제3 항에 있어서,
상기 이상 역 깊이 정보 제거부는
상기 특정 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 분산량의 상기 특정 역깊이 정보에 대한 상기 복수의 밝기 프로파일의 평균값에 대한 비율이 상기 임계치를 초과하는 경우, 상기 특정 역 깊이 정보를 제거하는,
깊이 정보 획득 장치.
The method of claim 3,
The abnormal depth information removing unit
Depth information of the plurality of brightness profiles to the average value of the plurality of brightness profiles with respect to the specific depth information of the dispersion amount of the plurality of brightness profiles with respect to the specific depth depth information exceeds the threshold value,
Depth information acquisition device.
제3 항에 있어서,
상기 정제부는
상기 기준 영상 정보의 색(color) 정보를 참조하여 상기 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파하는,
깊이 정보 획득 장치.
The method of claim 3,
The purification unit
Depth information on a pixel from which the specific inverse depth information has been removed by referring to color information of the reference image information,
Depth information acquisition device.
복수의 시점에 따른 복수의 영상 정보를 이용하여 깊이 정보를 획득하는 깊이 정보 획득 방법으로서,
기준 영상 정보로부터 복수의 특징점을 추출하고, 비기준 영상 정보들 각각으로부터 상기 복수의 특징점에 대응하는 복수의 대응점을 추출하는 단계;
상기 복수의 특징점 및 상기 복수의 대응점을 각각 왜곡 영상 좌표계에서 비왜곡 영상 좌표계로 매핑하여, 복수의 비왜곡 특징점 및 복수의 비왜곡 대응점을 획득하는 단계;
상기 복수의 비왜곡 특징점의 추정된 삼차원 좌표를 획득하고, 상기 추정된 삼차원 좌표를 상기 비기준 영상 정보들 각각에 투사하여, 복수의 추정된 비왜곡 대응점을 획득하는 단계; 및
상기 복수의 비왜곡 대응점과 상기 복수의 추정된 비왜곡 대응점의 차이를 최소화하는 카메라 파라미터를 획득하는 단계를 포함하는
깊이 정보 획득 방법.
A depth information acquiring method for acquiring depth information using a plurality of image information according to a plurality of viewpoints,
Extracting a plurality of feature points from the reference image information and extracting a plurality of corresponding points corresponding to the plurality of feature points from each of the non-reference image information;
Obtaining a plurality of non-distorted feature points and a plurality of non-distorted corresponding points by mapping the plurality of feature points and the plurality of corresponding points, respectively, from a distortion image coordinate system to an unoriented image coordinate system;
Obtaining the estimated three-dimensional coordinates of the plurality of non-distorted feature points, projecting the estimated three-dimensional coordinates to each of the non-reference image information to obtain a plurality of estimated non-distortion corresponding points; And
Obtaining a camera parameter that minimizes the difference between the plurality of non-distorted corresponding points and the plurality of estimated non-distorted corresponding points
Depth information acquisition method.
제8 항에 있어서,
상기 카메라 파라미터를 이용해 상기 복수의 영상 정보들로부터 왜곡을 제거하는 단계;
상기 비기준 영상 정보들 각각을 복수의 역 깊이 정보에 따라 기준 영상 좌표계로 매핑하여, 각 픽셀의 각 역 깊이 정보에 대한 복수의 밝기 프로파일을 획득하는 단계; 및
각 픽셀의 각 역 깊이 정보에 대한 상기 복수의 밝기 프로파일을 이용하여 각 픽셀의 특정 역 깊이 정보를 획득하는 단계를 더 포함하는
깊이 정보 획득 방법.
9. The method of claim 8,
Removing distortion from the plurality of image information using the camera parameters;
Mapping each of the non-reference image information to a reference image coordinate system according to a plurality of inverse depth information to obtain a plurality of brightness profiles for each inverse depth information of each pixel; And
Further comprising obtaining the specific inverse depth information of each pixel using the plurality of brightness profiles for each inverse depth information of each pixel
Depth information acquisition method.
제9 항에 있어서,
복수의 픽셀에 대한 복수의 특정 역 깊이 정보 중 임계치를 초과하는 특정 역 깊이 정보를 제거하는 단계; 및
상기 복수의 픽셀 중 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파하는 단계를 더 포함하는
깊이 정보 획득 방법.
10. The method of claim 9,
Removing specific inverse depth information that exceeds a threshold among a plurality of specific inverse depth information for a plurality of pixels; And
Further comprising propagating inverse depth information for a pixel from which the specific inverse depth information has been removed
Depth information acquisition method.
제8 항에 있어서,
상기 복수의 대응점을 추출하는 단계는:
상기 복수의 대응점으로부터 상기 기준 영상 정보를 역방향 추적하여 복수의 역방향 대응점을 추출하는 단계;
상기 복수의 역방향 대응점 중 대응하는 특징점과 임계치 이상의 간격을 갖는 이상 역방향 대응점을 검출하는 단계; 및
상기 이상 역방향 대응점에 대응하는 특징점과 대응점을 상기 복수의 특징점과 상기 복수의 대응점으로부터 제거하는 단계를 포함하는,
깊이 정보 획득 방법.
9. The method of claim 8,
Wherein the extracting of the plurality of corresponding points comprises:
A step of tracing back the reference image information from the plurality of corresponding points to extract a plurality of backward correspondence points;
Detecting an anomaly opposite point having an interval equal to or greater than a threshold value with corresponding minutiae of the plurality of reverse counterparts; And
And removing, from the plurality of feature points and the plurality of corresponding points, feature points and corresponding points corresponding to the abnormal backward corresponding points.
Depth information acquisition method.
제9 항에 있어서,
상기 각 픽셀의 특정 역 깊이 정보를 획득하는 단계는:
각 픽셀의 각 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 분산량을 계산하는 단계; 및
상기 분산량이 가장 낮은 역 깊이 정보를 해당 픽셀에 대한 상기 특정 역 깊이 정보로서 획득하는 단계를 포함하는
깊이 정보 획득 방법.
10. The method of claim 9,
Wherein acquiring specific inverse depth information of each pixel comprises:
Calculating a variance amount of the plurality of brightness profiles for each inverse depth information of each pixel; And
And obtaining the inverse depth information having the smallest variance as the specific inverse depth information for the pixel
Depth information acquisition method.
제10 항에 있어서,
상기 임계치를 초과하는 특정 역 깊이 정보를 제거하는 단계는:
상기 특정 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 분산량의 상기 특정 역 깊이 정보에 대한 상기 복수의 밝기 프로파일의 평균값에 대한 비율이 상기 임계치를 초과하는 경우, 상기 특정 역 깊이 정보를 제거하는,
깊이 정보 획득 방법.
11. The method of claim 10,
Wherein removing the specific inverse depth information exceeding the threshold comprises:
Depth information of the plurality of brightness profiles to the average value of the plurality of brightness profiles with respect to the specific depth information of the dispersion amount of the plurality of brightness profiles with respect to the specific depth depth information exceeds the threshold value,
Depth information acquisition method.
제10 항에 있어서,
상기 역 깊이 정보를 전파하는 단계는:
상기 기준 영상 정보의 색 정보를 참조하여 상기 특정 역 깊이 정보가 제거된 픽셀에 대해 역 깊이 정보를 전파하는,
깊이 정보 획득 방법.
11. The method of claim 10,
Wherein propagating the inverse depth information comprises:
Depth information on the pixel from which the specific inverse depth information has been removed by referring to the color information of the reference image information,
Depth information acquisition method.
KR1020160103546A 2016-08-16 2016-08-16 Depth map acquisition device and depth map acquisition method KR101852085B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160103546A KR101852085B1 (en) 2016-08-16 2016-08-16 Depth map acquisition device and depth map acquisition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160103546A KR101852085B1 (en) 2016-08-16 2016-08-16 Depth map acquisition device and depth map acquisition method

Publications (2)

Publication Number Publication Date
KR20180019329A true KR20180019329A (en) 2018-02-26
KR101852085B1 KR101852085B1 (en) 2018-04-26

Family

ID=61531263

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160103546A KR101852085B1 (en) 2016-08-16 2016-08-16 Depth map acquisition device and depth map acquisition method

Country Status (1)

Country Link
KR (1) KR101852085B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210055260A (en) * 2019-11-07 2021-05-17 연세대학교 산학협력단 Apparatus and method for estimating camera pose and depth using images continuously acquired at various viewpoints
KR20220155496A (en) * 2021-05-14 2022-11-23 주식회사 넥스트칩 Method and apparatus for outputting graphic objects related to vehicel driving information
KR20230161710A (en) * 2022-05-19 2023-11-28 주식회사 브이알크루 Method for acquiring feature point of depth map

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5084374B2 (en) 2007-07-06 2012-11-28 株式会社トプコン Position measuring apparatus and position measuring method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210055260A (en) * 2019-11-07 2021-05-17 연세대학교 산학협력단 Apparatus and method for estimating camera pose and depth using images continuously acquired at various viewpoints
KR20220155496A (en) * 2021-05-14 2022-11-23 주식회사 넥스트칩 Method and apparatus for outputting graphic objects related to vehicel driving information
KR20230161710A (en) * 2022-05-19 2023-11-28 주식회사 브이알크루 Method for acquiring feature point of depth map

Also Published As

Publication number Publication date
KR101852085B1 (en) 2018-04-26

Similar Documents

Publication Publication Date Title
US8422766B2 (en) System and method for depth extraction of images with motion compensation
CN104380338B (en) Information processor and information processing method
CA2687213C (en) System and method for stereo matching of images
US9659382B2 (en) System and method for depth extraction of images with forward and backward depth prediction
CN109660783B (en) Virtual reality parallax correction
US20210241495A1 (en) Method and system for reconstructing colour and depth information of a scene
US20110148868A1 (en) Apparatus and method for reconstructing three-dimensional face avatar through stereo vision and face detection
CN110493488B (en) Video image stabilization method, video image stabilization device and computer readable storage medium
US9747690B2 (en) Image processing device, image processing method, and program
US20160093028A1 (en) Image processing method, image processing apparatus and electronic device
WO2018032841A1 (en) Method, device and system for drawing three-dimensional image
KR20090008808A (en) Apparatus and method for converting 2d image signals into 3d image signals
CN105809664B (en) Method and device for generating three-dimensional image
KR101852085B1 (en) Depth map acquisition device and depth map acquisition method
KR20170029365A (en) Apparatus and method for depth map generation
CN110059537B (en) Three-dimensional face data acquisition method and device based on Kinect sensor
Berdnikov et al. Real-time depth map occlusion filling and scene background restoration for projected-pattern-based depth cameras
CN110009683B (en) Real-time on-plane object detection method based on MaskRCNN
Neverova et al. 2 1/2 D scene reconstruction of indoor scenes from single RGB-D images
US9077963B2 (en) Systems and methods for generating a depth map and converting two-dimensional data to stereoscopic data
CN114399800A (en) Human face posture estimation method and device
US9961327B2 (en) Method for extracting eye center point
Donné et al. Variational multi-image stereo matching
Satapathy Depth Map Completion Using Non-Local and Low-Rank Priors
KR20180051241A (en) Method and system for stereo matching by using rectangular window

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant