KR101826711B1 - Method for Calibrating Depth Map of ToF camera - Google Patents

Method for Calibrating Depth Map of ToF camera Download PDF

Info

Publication number
KR101826711B1
KR101826711B1 KR1020160141464A KR20160141464A KR101826711B1 KR 101826711 B1 KR101826711 B1 KR 101826711B1 KR 1020160141464 A KR1020160141464 A KR 1020160141464A KR 20160141464 A KR20160141464 A KR 20160141464A KR 101826711 B1 KR101826711 B1 KR 101826711B1
Authority
KR
South Korea
Prior art keywords
tof
depth
depth map
camera
cameras
Prior art date
Application number
KR1020160141464A
Other languages
Korean (ko)
Inventor
백으뜸
호요성
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Priority to KR1020160141464A priority Critical patent/KR101826711B1/en
Application granted granted Critical
Publication of KR101826711B1 publication Critical patent/KR101826711B1/en

Links

Images

Classifications

    • H04N13/0246
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • H04N13/0242
    • H04N13/0271
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

The present invention provides a correction method for a depth map of a ToF camera, capable of effectively removing a noise from a depth map generated by a reflectivity of an image. According to an embodiment of the present invention, the method for correcting a depth map of a time of flight (ToF) depth camera comprises the following steps of: obtaining the depth map from a plurality of ToF depth cameras; performing a pre-processing with respect to the obtained depth map; deriving a noise region of the depth map obtained from the plurality of ToF depth cameras; and warping depth information obtained from the ToF cameras located at the left and right sides to the ToF depth camera located at the center, and improving the noise region.

Description

ToF 카메라의 깊이맵 보정 방법{Method for Calibrating Depth Map of ToF camera}[0001] The present invention relates to a method of calibrating a depth map of a ToF camera,

본 발명은 깊이맵 보정 방법에 관한 것으로, 보다 상세하게는 비동기 ToF 카메라의 노출시간을 활용하여 깊이맵을 보정하는 방법에 관한 것이다.The present invention relates to a depth map correction method, and more particularly, to a method for correcting a depth map by utilizing an exposure time of an asynchronous ToF camera.

최근에는 Time-of-flight(ToF) 카메라를 활용하여 깊이 정보 기반의 3차원 영상을 처리하는 연구가 활발하게 이루어지고 있다. ToF 카메라는 약 850nm의 파장을 가진 적외선(IR) 센서에서 방사된 에너지를 광학 센서에서 수신하여 위상각 또는 시차를 계산함으로써, 반사된 표면까지의 거리 정보를 취득하는 능동형 센서이다. In recent years, studies have been actively conducted to process three-dimensional images based on depth information using a time-of-flight (ToF) camera. The ToF camera is an active sensor that receives energy emitted from an infrared (IR) sensor having a wavelength of about 850 nm at an optical sensor and calculates phase angle or parallax to obtain distance information to the reflected surface.

그러나, ToF 카메라를 사용시 나타나는 문제점은 다음과 같다. 우선, 파형의 모양이 sine파로 이상적인 파형이 아니기 때문에 많은 잡음이 발생하며, 거울, 모니터, 안경 등과 같이 반사율이 높은 물체는 정확한 깊이 정보를 얻기에 어려움이 있다. However, the following problems are encountered when using a ToF camera. First, since the shape of the waveform is not an ideal waveform due to sine waves, a lot of noise occurs, and objects with high reflectance such as mirrors, monitors, glasses, etc. are difficult to obtain accurate depth information.

또한, 검은색 물건, 머리카락과 같이 빛의 반사율이 낮은 물체는 부정확한 깊이 정보를 획득할 가능성이 크며, 객체의 윤곽 부근에서 반사되는 빛의 양이 적기 때문에 잡음이 발생하게 되고, 주기적으로 반복되는 파장의 위상각 또는 시차를 계산하기 때문에 최대 10m의 비교적 짧은 취득 범위를 가진다. In addition, objects with low light reflectance such as black objects and hair are more likely to acquire inaccurate depth information, noise is generated because the amount of light reflected near the outline of the object is small, It has a relatively short acquisition range of up to 10 m since it calculates the phase angle or parallax of the wavelength.

그리고, 주로 적외선 센서를 사용하기 때문에 적외선이 많이 존재하는 실외에서는 사용할 수 없는 문제점이 있으며, 이러한 문제를 해결하기 위한 깊이맵 보정 방법에 대한 연구가 진행되고 있다. In addition, since the infrared sensor is mainly used, there is a problem that it can not be used outdoors where there are many infrared rays. To solve this problem, a method of calibrating a depth map is being studied.

ToF 카메라는 낮은 해상도뿐만 아니라 방사 측정, 기하학적, 조명의 변화에 의해 야기되는 내재적인 문제로 인한 에러가 발생하는데, 깊이 왜곡 에러, 적분 시간 관련 에러, 온도 관련 에러, 내장 픽셀 관련 에러, 진폭 관련 에러가 대표적이다. 도 1은 ToF 깊이 센서에 의해 얻어진 깊이맵의 여러 에러들을 나타낸 것이다. 도 1의 (a)는 진폭 맵 (b)는 거리 이미지를 나타낸 것이며, (c)는 어두운 표면, (d)는 불일치 경계, (e)는 밝은 표면, (f)는 불일치 경계를 나타낸 것이다. The ToF camera produces errors due to intrinsic problems caused by changes in radiation measurement, geometry, and illumination, as well as low resolution, such as depth distortion errors, integration time related errors, temperature related errors, built-in pixel related errors, . Figure 1 shows several errors in the depth map obtained by the ToF depth sensor. 1 (a) shows an amplitude map (b) shows a distance image, (c) shows a dark surface, (d) shows a mismatch boundary, (e) shows a bright surface and (f) shows a mismatch boundary.

주로 깊이맵 보정 알고리즘의 대부분은 광학적 잡음을 최소화하는데 초점을 맞추고 있으며, 적응적 샘플링, 가우시안 스무딩 방법등이 깊이맵 정보를 향상시키기 위해 활용되고 있으나, ToF 카메라의 반사율에 의해 발생하는 잡음들을 처리하는데 어려움이 있다.Most of the depth map correction algorithms focus on minimizing optical noise, and adaptive sampling and Gaussian smoothing methods are used to improve the depth map information. However, the noise generated by the reflectance of the ToF camera is processed There is a difficulty.

실시예는 ToF 깊이 카메라를 사용하여 깊이맵을 형성함에 있어서, 이미지의 반사율에 의해 발생되는 깊이맵의 잡음을 효과적으로 제거할 수 있는 깊이맵의 보정 방법을 제공하는데 그 목적이 있다.An object of the present invention is to provide a depth map correction method capable of effectively removing noise of a depth map caused by reflectance of an image in forming a depth map using a ToF depth camera.

실시예는 ToF(Time of Flight) 깊이 카메라의 깊이맵 보정 방법으로서, 복수개의 ToF 깊이 카메라에서 깊이맵을 획득하는 단계; 얻어진 깊이맵에 대한 전처리를 수행하는 단계; 복수개의 ToF 깊이 카메라에서 얻어진 깊이맵의 잡음 영역을 도출하는 단계; 및 좌측과 우측에 배치된 ToF 카메라에서 얻은 깊이 정보를 중간에 배치된 ToF 깊이 카메라로 워핑하여 잡음 영역을 개선하는 단계를 포함하여 구성될 수 있다. An embodiment provides a depth map correction method of a ToF (Time of Flight) depth camera, comprising: obtaining a depth map in a plurality of ToF depth cameras; Performing a preprocessing on the obtained depth map; Deriving a noise region of a depth map obtained from a plurality of ToF depth cameras; And warping the depth information obtained from the left and right ToF cameras with a ToF depth camera disposed in the middle to improve the noise region.

그리고, 상기 ToF 깊이 카메라는 수평방향으로 일정한 거리로 이격된 세개의 카메라이며, 각각의 카메라는 깊이맵을 서로 다른 노출시간으로 획득할 수 있다.And, the ToF depth camera is three cameras separated by a certain distance in the horizontal direction, and each camera can acquire the depth map at different exposure times.

그리고, 얻어진 깊이맵에 대한 전처리를 수행하는 단계는, 카메라 매개변수의 획득 처리, 카메라 교정 처리 및 깊이 보정 중 적어도 어느 하나를 수행하는 것을 특징으로 한다. The step of performing preprocessing on the obtained depth map is characterized by performing at least one of camera parameter acquisition processing, camera calibration processing, and depth correction.

그리고, 복수개의 ToF 깊이 카메라에서 얻어진 깊이맵의 잡음 영역을 도출하는 단계는, 진폭 영상 정보를 이용하여 깊이맵의 잡음을 탐색하는 것을 특징으로 한다. 여기서, 상기 진폭 영상 정보는 ToF 깊이 카메라에 의해 반사되는 광이 얼마나 밝은지를 나타내며, 상기 진폭 영상 정보는 표면의 진폭 정도에 따라 표면의 광 강도가 상이하게 나타나는 것을 특징으로 한다. The step of deriving the noise region of the depth map obtained by the plurality of ToF depth cameras is characterized by searching the noise of the depth map using the amplitude image information. Here, the amplitude image information indicates how much light is reflected by the ToF depth camera, and the amplitude image information has different light intensities depending on the amplitude of the surface.

그리고, 얻어진 깊이맵에 대한 전처리를 수행하는 단계는 잡음 제거 필터링을 처리하는 과정을 포함하며, ToF 깊이 카메라에 사용되는 비이상적인 파형으로 인해 생기는 잡음과 객체의 경계에 생기는 잡음을 제거하기 위해 비대칭 정규 분포 가중치 중간값 필터링을 수행할 수 있다.The step of performing the preprocessing on the obtained depth map includes a process of performing noise elimination filtering. In order to remove the noise caused by the non-ideal waveform used in the ToF depth camera and the noise generated at the boundary between the objects, Distribution weighted median filtering can be performed.

본 발명의 실시예에 따르면, 서로 다른 노출 시간을 갖는 ToF 깊이 카메라와 가중치 중간값 필터를 사용한 거리 에러 정정 방법을 사용하여 밝거나 어두운 표면에서 내재된 주요 에러를 제거할 수 있고, 보다 정확성이 향상된 거리맵을 획득할 수 있다.According to the embodiment of the present invention, it is possible to eliminate a main error inherent in a bright or dark surface by using a ToF depth camera having a different exposure time and a distance error correction method using a weighted median filter, A distance map can be obtained.

도 1은 ToF 깊이 센서에 의해 얻어진 깊이맵의 여러 에러들을 나타낸 도면
도 2는 실시예의 깊이맵 보정 방법에 따른 카메라 시스템을 나타낸 도면
도 3은 실시예에 따른 깊이맵 보정을 위한 시스템을 나타낸 도면
도 4는 실시예에 따른 깊이맵 보정 방법을 나타낸 흐름도
도 5는 파라미터 α로 비대칭 정규 분포를 나타낸 그래프
도 6은 비대칭 정규 분포 가중치 중간값 필터 사용의 예시를 나타낸 도면
도 7은 실시예에 따른 ToF 카메라의 깊이맵 보정 결과를 나타낸 도면
도 8은 줌인된 깊이맵을 사용한 3차원 표면
도 9는 에러 탐색의 결과를 나타낸 도면
도 10은 잡음이 개선된 결과를 나타낸 도면
Figure 1 shows several errors of the depth map obtained by the ToF depth sensor
2 is a view showing a camera system according to the depth map correction method of the embodiment
3 is a diagram illustrating a system for depth map correction according to an embodiment;
4 is a flowchart illustrating a depth map correction method according to an embodiment.
5 is a graph showing an asymmetric normal distribution with a parameter a
6 is a diagram illustrating an example of using an asymmetric normal distribution weighted median filter;
7 is a view showing a depth map correction result of the ToF camera according to the embodiment
FIG. 8 is a diagram illustrating a three-dimensional surface using a zoomed-
9 is a diagram showing the result of error search
Fig. 10 is a diagram showing the result of improved noise

이하 첨부된 도면들을 참조하여 본 발명의 실시예들을 상세하게 설명하지만, 본 발명의 실시예에 의해 제한되거나 한정되는 것은 아니다. 본 발명을 설명함에 있어서, 공지된 기능 혹은 구성에 대해 구체적인 설명은 본 발명의 요지를 명료하게 하기 위해 생략될 수 있다.The embodiments of the present invention will be described in detail with reference to the accompanying drawings, but the present invention is not limited to these embodiments. In describing the present invention, a detailed description of well-known functions or constructions may be omitted for the sake of clarity of the present invention.

도 2는 실시예의 깊이맵 보정 방법에 따른 카메라 시스템을 나타낸 도면이다. 2 is a view showing a camera system according to the depth map correction method of the embodiment.

도 2를 참조하면, 실시예의 깊이맵 보정 방법을 수행하기 위한 카메라 시스템은 노출 시간이 서로 다른 복수개의 ToF 카메라를 일정 간격 이격되도록 수평으로 배치한다. 실시예에서는 바람직하게 3개의 ToF 카메라를 배치하였다. 좌우에 배치된 ToF 1(1)과 ToF 3(3) 카메라는 중간에 배치된 ToF 2(2) 카메라의 잡음을 보정하기 위해 배치되는 카메라이다. Referring to FIG. 2, the camera system for performing the depth map correction method of the embodiment horizontally arranges a plurality of ToF cameras having different exposure times at predetermined intervals. In the embodiment, three ToF cameras are preferably arranged. The ToF 1 (1) and ToF 3 (3) cameras disposed on the left and right are cameras arranged to correct the noise of the ToF 2 (2) camera disposed in the middle.

상기 ToF 카메라들은 동일영역에서 동작할 때 조명 등이 다른 ToF 카메라와 간섭이 일어날 수 있기 때문에, ToF 카메라의 주파수는 서로 다르게 설정됨이 바람직하다. 또한, 각 ToF 카메라의 적분 시간이 다르게 설정되는 것이 바람직하다. When the ToF cameras operate in the same area, the illumination may interfere with other ToF cameras, so that the frequencies of the ToF cameras are preferably set to be different from each other. In addition, it is preferable that the integration time of each ToF camera is set differently.

도 3은 실시예에 따른 깊이맵 보정을 위한 시스템을 나타낸 도면이다. 3 is a diagram illustrating a system for depth map correction according to an embodiment.

도 3을 참조하면, 실시예에 따른 깊이맵 보정을 위한 시스템은 영상획득부(10), 전처리부(20), 잡음 탐색부(30) 및 깊이맵 개선부(40)으로 구성될 수 있다. Referring to FIG. 3, the system for correcting depth maps according to the embodiment may include an image acquiring unit 10, a preprocessing unit 20, a noise searching unit 30, and a depth map improving unit 40.

영상획득부(10)는 도 2에 개시된 바와 같은 세대의 카메라로부터 깊이맵 영상을 획득하며, 하나의 표면에 대해 다시점의 깊이맵 영상을 획득하게 된다. The image acquiring unit 10 acquires a depth map image from a camera of the same generation as shown in FIG. 2, and obtains a depth map image of a multi-view point on one surface.

전처리부(20)는 깊이맵 영상의 보정 전에 카메라 매개변수의 획득 처리, 카메라 교정 처리 및 잡음 제거 필터링 중에서 적어도 어느 하나의 처리를 수행한다. The preprocessing unit 20 performs at least one of a camera parameter acquisition process, a camera calibration process, and a noise removal filtering process before the correction of the depth map image.

잡음탐색부(30)는 세개의 ToF 카메라에서 얻은 깊이맵에서 잡음 영역을 예측하는 구성이며, 깊이맵 개선부(40)는 좌우 ToF 카메라에서 얻은 깊이 정보를 중간시점의 ToF 카메라로 워핑하여 잡음 영역에 대한 개선을 수행하는 구성이다. The noise searching unit 30 predicts a noise region in a depth map obtained from three ToF cameras. The depth map improving unit 40 warps the depth information obtained from the left and right ToF cameras to a ToF camera at an intermediate point, And the like.

도 4는 실시예에 따른 깊이맵 보정 방법을 나타낸 흐름도이다. 4 is a flowchart illustrating a depth map correction method according to an embodiment.

도 4를 참조하면, 실시예에 따른 깊이맵 보정 방법은 복수개의 ToF 카메라에서 깊이맵을 획득하는 단계(S10), 얻어진 깊이맵에 대한 전처리를 수행하는 단계(S20), 복수개의 ToF 카메라에서 얻은 깊이맵의 잡음 영역을 획득하는 단계(S30) 및 좌우에 배치된 ToF 카메라에서 얻은 깊이 정보를 중간시점 ToF 카메라로 워핑하여 잡음 영역을 개선하는 단계(S40)를 포함할 수 있다. 이어서 각 단계에 대하여 상세히 설명한다. Referring to FIG. 4, a depth map correction method according to an embodiment includes a step S10 of obtaining a depth map in a plurality of ToF cameras, a step S20 of performing a preprocessing on the obtained depth map, (S30) of acquiring a noise region of the depth map, and (S40) improving the noise region by warping depth information obtained from the left and right ToF cameras with an intermediate point ToF camera. Next, each step will be described in detail.

복수개의 ToF 카메라에서 깊이맵을 획득하는 단계(S10)는 서로 다른 주파수와 노출시간으로 세팅된 세대의 카메라를 통해서 얻고자 하는 영상의 깊이맵을 얻는 과정이다. 세대의 카메라를 통해 서로 시점이 다른 깊이맵을 획득할 수 있다. Step S10 of obtaining a depth map from a plurality of ToF cameras is a process of obtaining a depth map of an image to be obtained through a camera of a generation set with different frequencies and exposure times. Through the generations of cameras, depth maps with different viewpoints can be acquired.

얻어진 깊이맵에 대한 전처리를 수행하는 단계(S20)는 다음과 같다. ToF 카메라는 핀홀 카메라 모델을 주로 사용하는데, 이는 내재적 변수와 외부적 변수에 의해 매개변수화된다. 카메라 파라미터는 3차원 이미지 프로세싱과 어플리케이션의 주요 정보이며, 내재적 변수는 초점 거리와 같은 카메라의 내재적 특징을 포함한다. The step S20 of performing the preprocessing on the obtained depth map is as follows. The ToF camera mainly uses the pinhole camera model, which is parameterized by implicit and external variables. Camera parameters are the key information for three-dimensional image processing and applications, and implicit parameters include intrinsic features of the camera, such as focal length.

그리고 외부적 변수는 카메라의 방향과 위치에 해당될 수 있으며, 실시예에서 카메라 파라메터는 체스보드를 사용하는 카메라 보정방법에 의해서 평가하였다. ToF 깊이 카메라를 통한 거리 맵은 거리 정보 외에 강도 정보는 제공하지 않으므로, 진폭맵이 카메라 보정을 위해 이용될 수 있다. 적분시간은 진폭맵을 얻는 과정에서 조정될 수 있는데, 주로 적분 시간이 길수록 진폭 측정의 정확도를 높일 수 있다. 또한, 대부분의 ToF 깊이 카메라는 반경 왜곡과 같은 비선형 렌즈 왜곡이 나타나기 때문에 렌즈 왜곡이 교정 방법에 의해 정정될 수 있다. The external parameters may correspond to the direction and position of the camera. In the embodiment, the camera parameters are evaluated by a camera correction method using a chess board. The distance map through the ToF depth camera does not provide intensity information beyond distance information, so an amplitude map can be used for camera calibration. The integration time can be adjusted in the process of obtaining the amplitude map. The longer the integration time is, the higher the accuracy of the amplitude measurement can be. Also, since most ToF depth cameras exhibit nonlinear lens distortion such as radial distortion, the lens distortion can be corrected by the correction method.

그리고, 얻어진 깊이맵에 대한 전처리를 수행하느 과정은 잡음 제거 필터링을 처리하는 과정을 포함할 수 있다. And, the process of performing the preprocessing on the obtained depth map may include a process of performing noise removal filtering.

실시예에서는 ToF 카메라에 사용되는 파형의 모양이 이상적이지 않기 때문에 생기는 잡음이나 객체의 경계에 생기는 잡음을 제거하기 위해 비대칭 정규 분포 가중치 중간값 필터를 사용한다. 비대칭 정규 분포는 연속형 확률 분포로서 비대칭성을 갖는 정규 분포를 의미한다. In the embodiment, an asymmetric normal distribution weighted median filter is used in order to remove the noise generated at the boundary of the object due to the fact that the waveform used in the ToF camera is not ideal. The asymmetric normal distribution is a continuous distribution of probability, which means a normal distribution with asymmetry.

중간값 필터링은 이미지의 경계를 보존하기 위해 이미지로부터 잡음을 제거하기 위해 사용되는 비선형 방법이다. 필터링의 목적은 해당 픽셀의 이웃하는 값의 중간값으로 픽셀값을 대체하는 것이다. 가중치 중간값 필터는 2N+1 의 윈도우 길이를 고려한 비선형 디지털 필터이며, 픽셀들은 히스토그램들에서 가중화될 수 있다. Median filtering is a nonlinear method used to remove noise from an image to preserve image boundaries. The purpose of the filtering is to replace the pixel value with the median of the neighboring values of that pixel. The weighted median filter is a nonlinear digital filter that takes into account the window length of 2N + 1, and the pixels may be weighted in the histograms.

ToF 깊이 카메라는 내재하는 에러를 가진 거리맵을 도출하는데, 실시예에서는 비대칭 정규 분포 가중치를 가지는 중간값 필터를 사용하여 이러한 에러를 정정한다. 사실상, 많은 데이터들이 정규 분포를 따르지 않기 때문에 비대칭 정규 분포가 가중값으로 활용될 수 잇다. The ToF depth camera derives a distance map with an inherent error, which in the example uses an intermediate value filter with asymmetric normal distribution weights to correct for this error. In fact, as many data do not follow a normal distribution, asymmetric normal distributions can be used as weights.

도 5는 파라미터 α로 비대칭 정규 분포를 나타낸 그래프이다. 5 is a graph showing an asymmetric normal distribution with a parameter a.

비대칭 정규 분포의 확률 밀도 함수의 α 파라미터는 다음과 같은 수학식 1로 정의될 수 있다.The? Parameter of the probability density function of the asymmetric normal distribution can be defined by Equation 1 as follows.

Figure 112016105002919-pat00001
Figure 112016105002919-pat00001

여기서, φ(x)는 표준 정규 확률 밀도 함수이며 φ(x)는 다음과 같은 수학식 2로 표현될 수 있다.Here, φ (x) is a standard normal probability density function and φ (x) can be expressed by the following equation (2).

Figure 112016105002919-pat00002
Figure 112016105002919-pat00002

그리고, 수학식 1에서 Φ(x)는 누적 분포 함수를 나타내며 수학식 3과 같이 표현될 수 있다.In Equation (1),? (X) represents a cumulative distribution function and can be expressed by Equation (3).

Figure 112016105002919-pat00003
Figure 112016105002919-pat00003

여기서, erf는 에러 함수이며, 에러 함수는 확률에서 나타나는 S자 형태의 특이 함수이며 이는 다음과 같은 수학식 4로 표현된다.Here, erf is an error function, and the error function is an S-shaped singular function appearing in probability, which is expressed by Equation (4) below.

Figure 112016105002919-pat00004
Figure 112016105002919-pat00004

그리고, 비대칭 정규 분포 가중치 히스토그램은 다음과 같은 수학식 5로 정의될 수 있다.And, the asymmetric normal distribution weight histogram can be defined by the following Equation (5).

Figure 112016105002919-pat00005
Figure 112016105002919-pat00005

도 6은 비대칭 정규 분포 가중치 중간값 필터 사용의 예시를 나타낸 도면이다. 도 6을 참조하면, negative 비대칭은 오른쪽에 집중된 분포의 양을 나타내며, positive 비대칭은 왼쪽에 집중된 분포의 양을 나타낸다. 실시예와 같이 비대칭 정규 분포 가중치 중간값 필터에 의한 프로세싱을 수행함으로써 에러 영역이 찾아질 수 있으며 에러 영역에 대한 정정이 수행될 수 있다. Figure 6 is an illustration of an example of using an asymmetric normal distribution weighted median filter; Referring to FIG. 6, negative asymmetry represents the amount of distribution concentrated to the right, and positive asymmetry represents the amount of distribution concentrated to the left. By performing the processing by the asymmetric normal distribution weighted median filter as in the embodiment, the error region can be found and correction for the error region can be performed.

이어서, 복수개의 ToF 카메라에서 얻은 깊이맵의 잡음 영역을 획득하는 단계(S30)는 다음과 같다. 밝거나 어두운 표면에서의 깊이 정보의 애매함은 에러 발생에 있어 주요 이슈이다. 밝은 표면은 빛을 잘 흡수하지 않으며 주로 반사가 이루어지기 때문에, 밝은 표면은 많은 광 파동이 반사되지만, 반면에 어두운 표면은 밝은 표면에 비해 빛의 흡수량이 크게 나타난다. 이에 어둡거나 밝은 표면 ToF 깊이맵을 얻을 시 많은 잡음이 생기게 되는데, 거리맵이 이러한 표면에 대해 많은 영향을 받게 된다. Next, the step (S30) of acquiring the noise region of the depth map obtained from the plurality of ToF cameras is as follows. Ambiguity of depth information on bright or dark surfaces is a major issue in error generation. Because bright surfaces do not absorb light well and are mainly reflected, bright surfaces reflect a lot of light waves, while dark surfaces have a larger amount of light absorption than bright surfaces. This results in a lot of noise when you get a dark or bright surface ToF depth map, where the distance map is affected much by these surfaces.

ToF 깊이 카메라는 광이 얼마나 밝은지를 나타내는 진폭맵을 제공하며, 표면의 진폭이 너무 낮은 경우에는 표면을 어둡거나 무광이 되게 하고, 표면의 진폭이 너무 높을 경우에는 표면을 밝게 처리한다. 따라서, 진폭맵은 에러 영역을 탐색하는데 활용될 수 있으며 에러 탐색 함수는 수학식 6으로 정의될 수 있다.The ToF depth camera provides an amplitude map that shows how light is light, making the surface dark or matt when the amplitude of the surface is too low, and brightening the surface if the amplitude of the surface is too high. Hence, the amplitude map can be utilized to search for error regions and the error search function can be defined by Equation (6).

Figure 112016105002919-pat00006
Figure 112016105002919-pat00006

여기서 TD와 TS는 어두운 표면의 임계값 및 밝은 표면의 임계값을 나타내며, 이러한 수학식 6을 통해서 에러 영역을 검출하기 위한 각각의 진폭맵이 계산될 수 있다. Where TD and TS represent the threshold of the dark surface and the threshold of the bright surface, respectively, and each amplitude map for detecting the error region can be calculated through this Equation (6).

이어서, 좌우에 배치된 ToF 카메라에서 얻은 깊이 정보를 중간시점 ToF 카메라로 워핑하여 잡음 영역을 개선하는 단계(S40)는 다음과 같다. 비교적 긴 시간동안 적분을 수행한 ToF 깊이 카메라에 의한 변위 맵은 어둡거나 무광 영역에서 거리 측정에서 더욱 정확한 결과를 보이지만, 비교적 짧은 시간동안 적분을 수행한 변위맵은 밝은 영역의 거리 측정에서 더욱 정확한 결과를 나타낸다. Next, step S40 of improving the noise region by warping the depth information obtained from the left and right ToF cameras with the midpoint ToF camera is as follows. The displacement map by the ToF depth camera which performed the integration for a relatively long time shows more accurate results in the distance measurement in the dark or the non-light area. However, the displacement map performing the integration in a relatively short time, .

실시예에서 ToF 1 카메라의 변위맵은 밝은 표면에서 정확한 정보를 가지며, ToF 3 카메라는 어둡고 무광 표면에서 정확한 정보를 가진다고 가정한다. 탐색된 영역에서, 정확한 깊이 정보는 ToF 1과 ToF 3 카메라로부터 ToF 2 카메라로 워핑될 수 있다. 우선, ml과 mc가 ToF 1 및 ToF 2의 시점 이미지에 대응되는 픽셀이라 가정하면, 핀홀 카메라 모델을 기반으로 픽셀 포인트 ml은 카메라 파라메터에 의해 다음의 수학식으로 정의될 수 있다.It is assumed in the embodiment that the displacement map of the ToF 1 camera has accurate information on a bright surface, and the ToF 3 camera has accurate information on a dark, matte surface. In the searched area, the correct depth information can be warped from the ToF 1 and ToF 3 cameras to the ToF 2 camera. First, assuming that m 1 and m c are pixels corresponding to the viewpoint images of ToF 1 and ToF 2, the pixel point m 1 based on the pinhole camera model can be defined by the following formula using the camera parameters.

Figure 112016105002919-pat00007
Figure 112016105002919-pat00007

이어서, ToF 2 카메라의 시점에서 mc에 대응되는 픽셀의 위치를 찾기 위해, 세계 좌표 M은 카메라 파라메터를 사용하여 ToF의 방향으로 주사되며, 이는 수학식 8과 같이 표현될 수 있다.Then, in order to find the position of the pixel corresponding to m c at the viewpoint of the ToF 2 camera, the world coordinate M is scanned in the direction of ToF using the camera parameter, which can be expressed as shown in equation (8).

Figure 112016105002919-pat00008
Figure 112016105002919-pat00008

상술한 과정을 통해 ToF 1과 ToF 3의 지점이 ToF 2의 지점으로 워프될 수 있다. Through the above process, the points of ToF 1 and ToF 3 can be warped to the point of ToF 2.

도 7은 실시예에 따른 ToF 카메라의 깊이맵 보정 결과를 나타낸 도면이다. 도 7을 참조하면, 모든 경우는 세개의 ToF 깊이 카메라를 사용하였으며, 실시예와 같은 필터링된 거리맵을 사용한 경우와 다른 방법을 사용한 경우를 비교하였다. (a)는 ToF 2에서 촬영된 원래의 깊이맵이며, (b)는 중간값 필터만을 사용한 경우의 깊이맵이고, (c)는 실시예와 같이 비대칭 정규 분포 가중치 중간값 필터를 사용한 경우의 깊이맵을 나타낸다. 실시예의 깊이맵 보정을 적용한 경우 의도치 않은 인공물을 사용하지 않고 경계를 보존할 수 있으므로 거리맵의 가시적인 잡음이 줄어들었음을 알 수 있다. FIG. 7 is a view showing the depth map correction result of the ToF camera according to the embodiment. Referring to FIG. 7, three ToF depth cameras are used in all cases, and a case of using the filtered distance map as in the embodiment and a case of using other methods are compared. (a) is an original depth map taken at ToF 2, (b) is a depth map when only an intermediate value filter is used, (c) is a depth map when an asymmetric normal distribution weighted median filter is used Represents a map. In the case of applying the depth map correction of the embodiment, it can be seen that the visible noise of the distance map is reduced because the boundary can be preserved without using unintended artifacts.

도 8은 줌인된 깊이맵을 사용한 3차원 표면 구성을 나타낸다. 도 8을 참조하면, (a)는 거리맵의 표면이 변동이 심한 것을 알 수 있으나, 본 발명과 같이 비대칭 정규 분포 가중치 중간값 필터를 사용한 경우에는 깊이맵의 변동이 줄어들었음을 알 수 있다. 8 shows a three-dimensional surface structure using a zoomed-in depth map. Referring to FIG. 8, (a) shows that the surface of the distance map varies greatly, but it can be seen that when the asymmetric normal distribution weighted median filter is used as in the present invention, the variation of the depth map is reduced.

도 9는 에러 검출의 결과를 나타낸 도면으로, (a)는 거리맵 (b)는 진폭맵 (c)는 에러맵을 나타내며 붉은색 영역은 밝은 표면을 나타내고, 검은 영역은 어둡거나 무광 영역을 나타낸다. 도 10 또한 에러 검출의 결과를 나타낸 것으로 (a)는 컬러 이미지 (b)는 ToF 2 카메라를 이용한 거리맵 (c)는 정정된 거리맵을 나타내고 있다. 9A and 9B show the results of error detection. In FIG. 9A, the distance map (b) shows the error map, the amplitude map shows the error map, the red area shows the bright surface and the black area shows the dark area . FIG. 10 also shows the result of error detection, wherein (a) shows a color image (b), and (c) a distance map using a ToF 2 camera shows a corrected distance map.

세개의 ToF 깊이 카메라를 사용하여 실시예의 에러 정정 방법을 입증하기 위하여, ToF 깊이 카메라에 의해 획득된 실제 영상을 활용할 수 있으며, 도 10에 도시된 바와 같이 정정된 깊이맵인 (c)에서는 깊이맵의 잡음이 현저히 줄어들었음을 확인할 수 있다. In order to verify the error correction method of the embodiment using three ToF depth cameras, the actual image obtained by the ToF depth camera can be used, and in the corrected depth map (c) as shown in FIG. 10, And the noise level of the input signal is significantly reduced.

실시예는 상술한 바와 같이 서로 다른 노출 시간을 갖는 ToF 깊이 카메라와 가중치 중간값 필터를 사용한 거리 에러 정정 방법을 제안하였다. 세개의 ToF 깊이 카메라를 사용하여 밝거나 어두운 표면에서 내재된 주요 에러를 제거할 수 있고, 보다 정확성이 향상된 거리맵을 획득할 수 있다. The embodiment has proposed a distance error correction method using a ToF depth camera and a weighted median filter having different exposure times as described above. Three ToF depth cameras can be used to eliminate key inherent errors on bright or dark surfaces and achieve more accurate distance maps.

이상에서 본 발명에 대하여 그 바람직한 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 발명의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 본 발명의 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood that various modifications and applications other than those described above are possible. For example, each component specifically shown in the embodiments of the present invention can be modified and implemented. It is to be understood that all changes and modifications that come within the meaning and range of equivalency of the claims are therefore intended to be embraced therein.

Claims (6)

ToF(Time of Flight) 깊이 카메라의 깊이맵 보정 방법으로서,
깊이맵을 서로 다른 노출시간으로 획득하는 세개의 ToF 깊이 카메라를 수평방향으로 일정한 거리로 이격되도록 배치하는 단계;
복수개의 ToF 깊이 카메라에서 깊이맵을 획득하는 단계;
얻어진 깊이맵에 대한 전처리를 수행하는 단계;
복수개의 ToF 깊이 카메라에서 얻어진 깊이맵의 잡음 영역을 도출하는 단계; 및
좌측과 우측에 배치된 ToF 카메라에서 얻은 깊이 정보를 중간에 배치된 ToF 깊이 카메라로 워핑하여 잡음 영역을 개선하는 단계를 포함하는 ToF 카메라의 깊이맵 보정 방법.
A method for correcting a depth map of a ToF (Time of Flight) depth camera,
Disposing three ToF depth cameras that acquire the depth map at different exposure times so as to be spaced apart by a certain distance in the horizontal direction;
Obtaining a depth map from a plurality of ToF depth cameras;
Performing a preprocessing on the obtained depth map;
Deriving a noise region of a depth map obtained from a plurality of ToF depth cameras; And
And warping the depth information obtained from the left and right ToF cameras with an intermediate positioned ToF depth camera to improve the noise region.
삭제delete 제 1항에 있어서,
얻어진 깊이맵에 대한 전처리를 수행하는 단계는,
카메라 매개변수의 획득 처리, 카메라 교정 처리 및 깊이 보정 중 적어도 어느 하나를 수행하는 ToF 카메라의 깊이맵 보정 방법.
The method according to claim 1,
The step of performing preprocessing on the obtained depth map comprises:
A depth map correction method of a ToF camera that performs at least one of acquisition processing of camera parameters, camera correction processing, and depth correction.
제 1항에 있어서,
복수개의 ToF 깊이 카메라에서 얻어진 깊이맵의 잡음 영역을 도출하는 단계는, 진폭 영상 정보를 이용하여 깊이맵의 잡음을 탐색하는 ToF 카메라의 깊이맵 보정 방법.
The method according to claim 1,
Deriving the noise region of the depth map obtained from the plurality of ToF depth cameras is a method of correcting the depth map of the ToF camera that searches the noise of the depth map using the amplitude image information.
제 4항에 있어서,
상기 진폭 영상 정보는 ToF 깊이 카메라에 의해 반사되는 광이 얼마나 밝은지를 나타내며, 상기 진폭 영상 정보는 표면의 진폭 정도에 따라 표면의 광 강도가 상이하게 나타나는 ToF 카메라의 깊이맵 보정 방법.
5. The method of claim 4,
Wherein the amplitude image information indicates how much light is reflected by the ToF depth camera, and the amplitude image information has different light intensities depending on the amplitude of the surface.
제 1항에 있어서,
얻어진 깊이맵에 대한 전처리를 수행하는 단계는 잡음 제거 필터링을 처리하는 과정을 포함하며, ToF 깊이 카메라에 사용되는 비이상적인 파형으로 인해 생기는 잡음과 객체의 경계에 생기는 잡음을 제거하기 위해 비대칭 정규 분포 가중치 중간값 필터링을 수행하는 ToF 카메라의 깊이맵 보정 방법.
The method according to claim 1,
The step of performing the preprocessing on the obtained depth map includes a process of performing noise elimination filtering. In order to remove the noise caused by the non-ideal waveform used in the ToF depth camera and the noise generated at the boundary between the objects, A depth map correction method of a ToF camera performing median filtering.
KR1020160141464A 2016-10-27 2016-10-27 Method for Calibrating Depth Map of ToF camera KR101826711B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160141464A KR101826711B1 (en) 2016-10-27 2016-10-27 Method for Calibrating Depth Map of ToF camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160141464A KR101826711B1 (en) 2016-10-27 2016-10-27 Method for Calibrating Depth Map of ToF camera

Publications (1)

Publication Number Publication Date
KR101826711B1 true KR101826711B1 (en) 2018-02-08

Family

ID=61232266

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160141464A KR101826711B1 (en) 2016-10-27 2016-10-27 Method for Calibrating Depth Map of ToF camera

Country Status (1)

Country Link
KR (1) KR101826711B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020047063A1 (en) * 2018-08-30 2020-03-05 Veo Robotics, Inc. Depth-sensing computer vision system
CN111047652A (en) * 2020-03-13 2020-04-21 杭州蓝芯科技有限公司 Rapid multi-TOF camera external parameter calibration method and device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008237840A (en) * 2007-03-29 2008-10-09 Gifu Univ Image analysis system and image analysis program
JP5840114B2 (en) * 2011-11-30 2016-01-06 三菱電機株式会社 How to generate a virtual image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008237840A (en) * 2007-03-29 2008-10-09 Gifu Univ Image analysis system and image analysis program
JP5840114B2 (en) * 2011-11-30 2016-01-06 三菱電機株式会社 How to generate a virtual image

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020047063A1 (en) * 2018-08-30 2020-03-05 Veo Robotics, Inc. Depth-sensing computer vision system
US10887578B2 (en) 2018-08-30 2021-01-05 Veo Robotics, Inc. Depth-sensing computer vision system
US10887579B2 (en) 2018-08-30 2021-01-05 Veo Robotics, Inc. Depth-sensing computer vision system
CN112640447A (en) * 2018-08-30 2021-04-09 韦奥机器人股份有限公司 Depth sensing computer vision system
CN112640447B (en) * 2018-08-30 2022-04-29 韦奥机器人股份有限公司 Depth sensing computer vision system
CN111047652A (en) * 2020-03-13 2020-04-21 杭州蓝芯科技有限公司 Rapid multi-TOF camera external parameter calibration method and device

Similar Documents

Publication Publication Date Title
CN109903241B (en) Depth image calibration method and system of TOF camera system
KR102618542B1 (en) ToF (time of flight) capturing apparatus and method for processing image for decreasing blur of depth image thereof
CN106683070B (en) Height measuring method and device based on depth camera
Kang et al. Automatic targetless camera–lidar calibration by aligning edge with gaussian mixture model
Birchfield et al. A pixel dissimilarity measure that is insensitive to image sampling
CN109685732B (en) High-precision depth image restoration method based on boundary capture
CN107369159B (en) Threshold segmentation method based on multi-factor two-dimensional gray level histogram
JP6435661B2 (en) Object identification system, information processing apparatus, information processing method, and program
CN112534474A (en) Depth acquisition device, depth acquisition method, and program
CN109064505A (en) A kind of depth estimation method extracted based on sliding window tensor
CN103217108B (en) A kind of spectacle frame geometric parameter detection method
CN110520768B (en) Hyperspectral light field imaging method and system
CN115330958A (en) Real-time three-dimensional reconstruction method and device based on laser radar
CN103424083A (en) Object depth detection method, device and system
KR101826711B1 (en) Method for Calibrating Depth Map of ToF camera
McClure et al. Resolving depth-measurement ambiguity with commercially available range imaging cameras
CN111047650A (en) Parameter calibration method for time-of-flight camera
JP7156624B2 (en) Depth map filtering device, depth map filtering method and program
Khan et al. High-density single shot 3D sensing using adaptable speckle projection system with varying preprocessing
US10477187B2 (en) Method of constructing a depth map of a scene and/or a fully focused image
KR102327304B1 (en) A method of improving the quality of 3D images acquired from RGB-depth camera
US20230237693A1 (en) Online matching and optimization method combining geometry and texture, 3d scanning device, system and non-transitory storage medium
KR102209222B1 (en) Three-dimensional scanning system
CN117058183A (en) Image processing method and device based on double cameras, electronic equipment and storage medium
CN112752088B (en) Depth image generation method and device, reference image generation method and electronic equipment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant