KR102351152B1 - Method and apparatus for correcting depth information error due to multiple reflective path of three dimensional camera using time of flight sensor - Google Patents

Method and apparatus for correcting depth information error due to multiple reflective path of three dimensional camera using time of flight sensor Download PDF

Info

Publication number
KR102351152B1
KR102351152B1 KR1020200119698A KR20200119698A KR102351152B1 KR 102351152 B1 KR102351152 B1 KR 102351152B1 KR 1020200119698 A KR1020200119698 A KR 1020200119698A KR 20200119698 A KR20200119698 A KR 20200119698A KR 102351152 B1 KR102351152 B1 KR 102351152B1
Authority
KR
South Korea
Prior art keywords
value
pixel
depth
noise
depth information
Prior art date
Application number
KR1020200119698A
Other languages
Korean (ko)
Inventor
손현성
Original Assignee
(주)미래컴퍼니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)미래컴퍼니 filed Critical (주)미래컴퍼니
Priority to KR1020200119698A priority Critical patent/KR102351152B1/en
Application granted granted Critical
Publication of KR102351152B1 publication Critical patent/KR102351152B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a method for correcting a depth information error due to a multi-reflective path of a three-dimensional (3D) camera using a time of flight (ToF) sensor and an apparatus thereof. According to the present invention, the method comprises: a pixel information acquisition step of acquiring, by a pixel information acquisition unit, light intensity values and depth values of all pixels included in an image captured by a ToF sensor; a pixel classification step of comparing, by a pixel classification unit, a value obtained by multiplying the reciprocal of the squared value of the light intensity value and depth value by a threshold value corresponding to reflectivity and a scale value for adjusting the threshold value to classify all pixels into a normal pixel in which a depth information error does not occur and a noise pixel in which the depth information error occurs; a noise removing step of removing, by a noise removing unit, noise of the noise pixel; and a depth information output step of synthesizing, by a depth information output unit, a depth value of the normal pixel acquired by the depth information acquisition unit and a depth value of the noise pixel from which the noise is removed by the noise removing unit to output depth information of all pixels. Accordingly, the method can effectively remove a depth information error caused by a multi-reflection path in a 3D camera using a ToF sensor.

Description

ToF 센서를 이용한 삼차원 카메라의 다중 반사 경로로 인한 깊이 정보 오차 보정 방법 및 장치{METHOD AND APPARATUS FOR CORRECTING DEPTH INFORMATION ERROR DUE TO MULTIPLE REFLECTIVE PATH OF THREE DIMENSIONAL CAMERA USING TIME OF FLIGHT SENSOR}Method and apparatus for correcting depth information error due to multiple reflection paths of a three-dimensional camera using a ToF sensor

본 발명은 ToF 센서를 이용한 삼차원 카메라의 다중 반사 경로로 인한 깊이 정보 오차 보정 방법 및 장치에 관한 것이다. 보다 구체적으로, 본 발명은 ToF 센서를 이용한 3차원 카메라에서 다중 반사 경로로 인해 발생하는 깊이 정보 오차를 효과적으로 제거할 수 있는 ToF 센서를 이용한 삼차원 카메라의 다중 반사 경로로 인한 깊이 정보 오차 보정 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for correcting a depth information error due to multiple reflection paths of a three-dimensional camera using a ToF sensor. More specifically, the present invention provides a method and apparatus for correcting depth information error due to multiple reflection paths of a three-dimensional camera using a ToF sensor, which can effectively remove a depth information error caused by multiple reflection paths in a three-dimensional camera using a ToF sensor is about

ToF(Time of Flight)는 비행 시간 즉, 빛을 쏘아서 반사되어 오는 시간을 측정하여 거리를 계산하는 방식으로서, ToF 센서는 이러한 ToF 방식을 사용하여 객체와의 거리(depth) 정보를 획득하는 장치이다.ToF (Time of Flight) is a method of calculating the distance by measuring flight time, that is, the time that light is emitted and reflected. .

이러한 ToF 센서는 쿼드콥터, 자율주행차, 모션인식 컨트롤, 가상현실, 게임, 3D 모델링, 인간-로봇 상호작용(Human Robot Interaction) 등의 매우 다양한 분야에 적용될 수 있는 주요한 기술적 수단이다.These ToF sensors are a major technological means that can be applied to a wide variety of fields such as quadcopters, autonomous vehicles, motion recognition control, virtual reality, games, 3D modeling, and human robot interaction.

한편, 광원을 사용하여 반사된 빛의 세기를 검출하여 거리정보를 측정하는 ToF 센서의 경우 광원의 위치는 센서에 최대한 인접한 곳에 위치되어 있다.On the other hand, in the case of a ToF sensor that measures distance information by detecting the intensity of reflected light using a light source, the position of the light source is located as close to the sensor as possible.

이러한 이유로 물체가 센서에 근접했을 경우 물체 및 물체의 경계면 등에서 난반사되어 들어온 빛으로 인해 물체의 거리정보를 정확하게 인식하기가 어렵다는 문제점이 있으며, 이러한 난반사에 의한 노이즈를 감쇄시켜 근접 피사체의 인식률을 향상시키기 위한 기술적 수단이 요구된다.For this reason, when an object is close to the sensor, there is a problem in that it is difficult to accurately recognize the distance information of the object due to the light that is diffusely reflected from the object and the boundary of the object. technical means are required.

대한민국 공개특허공보 제10-2018-0032989호(공개일자: 2018년 04월 02일, 명칭: ToF(time of flight) 촬영 장치 및 다중 반사에 의한 깊이 왜곡 저감 방법)Republic of Korea Patent Publication No. 10-2018-0032989 (published on April 02, 2018, title: ToF (time of flight) photographing apparatus and method for reducing depth distortion by multiple reflections) 대한민국 공개특허공보 제10-2013-0092157호(공개일자: 2013년 08월 20일, 명칭: 깊이 맵 보정 장치 및 방법과 이를 이용한 입체 영상 변환 장치 및 방법)Republic of Korea Patent Publication No. 10-2013-0092157 (Published date: August 20, 2013, title: Depth map correction apparatus and method, and stereoscopic image conversion apparatus and method using the same)

본 발명의 기술적 과제는 ToF 센서를 이용한 3차원 카메라에서 다중 반사 경로로 인해 발생하는 깊이 정보 오차를 효과적으로 제거하는 것이다.It is an object of the present invention to effectively remove a depth information error caused by multiple reflection paths in a three-dimensional camera using a ToF sensor.

이러한 기술적 과제를 해결하기 위한 본 발명에 따른 ToF 센서를 이용한 삼차원 카메라의 다중 반사 경로로 인한 깊이 정보 오차 보정 방법은 픽셀정보 획득부가 ToF 센서에 의해 촬영된 영상에 포함된 전체픽셀의 광세기값과 깊이값을 획득하는 픽셀정보 획득단계, 픽셀 분류부가 상기 광세기값과 상기 깊이값을 제곱한 값의 역수에 반사도에 대응하는 임계치와 상기 임계치를 조절하기 위한 스케일값을 곱한 값을 비교하여 상기 전체픽셀들을 깊이 정보 오차가 발생하지 않은 정상픽셀과 상기 깊이 정보 오차가 발생한 노이즈픽셀로 분류하는 픽셀 분류단계, 노이즈 제거부가 상기 노이즈픽셀의 노이즈를 제거하는 노이즈 제거단계 및 깊이 정보 출력부가 상기 픽셀정보 획득부에 의해 획득된 정상픽셀의 깊이값과 상기 노이즈 제거부에 의해 상기 노이즈가 제거된 노이즈픽셀의 깊이값을 합성하여 상기 전체픽셀의 깊이 정보를 출력하는 깊이정보 출력단계를 포함한다.The method for correcting depth information error due to multiple reflection paths of a three-dimensional camera using a ToF sensor according to the present invention for solving this technical problem is the light intensity value of all pixels included in the image captured by the ToF sensor by the pixel information acquisition unit and A pixel information obtaining step of obtaining a depth value, a pixel classification unit compares a value obtained by multiplying the reciprocal of the square of the light intensity value and the depth value by a threshold value corresponding to the reflectivity and a scale value for adjusting the threshold value A pixel classification step of classifying pixels into a normal pixel in which the depth information error does not occur and a noise pixel in which the depth information error occurs, a noise removing step in which a noise removing unit removes noise of the noise pixel, and a depth information output unit obtaining the pixel information and a depth information output step of outputting depth information of all pixels by synthesizing the depth value of the normal pixel obtained by the unit and the depth value of the noise pixel from which the noise has been removed by the noise removing unit.

본 발명에 따른 ToF 센서를 이용한 3차원 카메라의 다중 반사 경로로 인한 깊이 정보 오차 보정 장치는 ToF 센서에 의해 촬영된 영상에 포함된 전체픽셀의 광세기값과 깊이값을 획득하는 픽셀정보 획득부, 상기 광세기값과 상기 깊이값을 제곱한 값의 역수에 반사도에 대응하는 임계치와 상기 임계치를 조절하기 위한 스케일값을 곱한 값을 비교하여 상기 전체픽셀들을 깊이 정보 오차가 발생하지 않은 정상픽셀과 상기 깊이 정보 오차가 발생한 노이즈픽셀로 분류하는 픽셀 분류부, 상기 노이즈픽셀의 노이즈를 제거하는 노이즈 제거부 및 상기 픽셀정보 획득부에 의해 획득된 정상픽셀의 깊이값과 상기 노이즈 제거부에 의해 상기 노이즈가 제거된 노이즈픽셀의 깊이값을 합성하여 상기 전체픽셀의 깊이 정보를 출력하는 깊이 정보 출력부를 포함한다.The apparatus for correcting depth information error due to multiple reflection paths of a three-dimensional camera using a ToF sensor according to the present invention comprises: a pixel information obtaining unit for obtaining light intensity values and depth values of all pixels included in an image photographed by the ToF sensor; By comparing a value obtained by multiplying a reciprocal of the square of the light intensity value and the depth value by a threshold value corresponding to the reflectivity and a scale value for adjusting the threshold value, all pixels are compared with a normal pixel in which a depth information error does not occur and the A pixel classifier for classifying a noise pixel having a depth information error, a noise removing unit for removing the noise of the noise pixel, and the depth value of the normal pixel obtained by the pixel information obtaining unit and the noise removing unit and a depth information output unit outputting depth information of all pixels by synthesizing the depth values of the removed noise pixels.

본 발명에 따르면, ToF 센서를 이용한 3차원 카메라에서 다중 반사 경로로 인해 발생하는 깊이 정보 오차를 효과적으로 제거할 수 있다.According to the present invention, it is possible to effectively remove a depth information error caused by multiple reflection paths in a 3D camera using a ToF sensor.

도 1은 본 발명의 일 실시 예에 따른 ToF 센서를 이용한 삼차원 카메라의 다중 반사 경로로 인한 깊이 정보 오차 보정 장치를 나타낸 도면이고,
도 2는 본 발명의 일 실시 예에 따른 ToF 센서를 이용한 삼차원 카메라의 다중 반사 경로로 인한 깊이 정보 오차 보정 방법을 나타낸 도면이고,
도 3은 본 발명의 일 실시 예에 있어서, 다중 반사 경로로 인한 깊이 정보 오차가 발생하지 않은 깊이 영상을 광세기 영상과 함께 예시적으로 나타낸 도면이고,
도 4는 본 발명의 일 실시 예에 있어서, 다중 반사 경로로 인한 깊이 정보 오차가 발생한 깊이 영상을 광세기 영상과 함께 예시적으로 나타낸 도면이고,
도 5는 본 발명의 일 실시 예에 있어서, 다중 반사 경로로 인한 깊이 정보 오차가 제거된 깊이 영상을 광세기 영상과 함께 예시적으로 나타낸 도면이다.
1 is a view showing an apparatus for correcting a depth information error due to multiple reflection paths of a three-dimensional camera using a ToF sensor according to an embodiment of the present invention;
2 is a diagram illustrating a method for correcting a depth information error due to multiple reflection paths of a three-dimensional camera using a ToF sensor according to an embodiment of the present invention;
3 is a diagram illustrating a depth image in which a depth information error due to multiple reflection paths does not occur together with a light intensity image according to an embodiment of the present invention;
4 is a diagram illustrating a depth image in which a depth information error due to multiple reflection paths occurs together with a light intensity image according to an embodiment of the present invention;
5 is a diagram illustrating a depth image from which a depth information error due to multiple reflection paths is removed together with a light intensity image according to an embodiment of the present invention.

본 명세서에 개시된 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in this specification are only exemplified for the purpose of explaining the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention may take various forms. It can be implemented with the above and is not limited to the embodiments described herein.

본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Since the embodiments according to the concept of the present invention may have various changes and may have various forms, the embodiments will be illustrated in the drawings and described in detail herein. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosed forms, and includes all modifications, equivalents, or substitutes included in the spirit and scope of the present invention.

제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 벗어나지 않은 채, 제1 구성 요소는 제2 구성 요소로 명명될 수 있고 유사하게 제2 구성 요소는 제1 구성 요소로도 명명될 수 있다.Terms such as first or second may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another, for example without departing from the scope of the inventive concept, a first component may be termed a second component and similarly a second component A component may also be referred to as a first component.

어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접 연결되어 있거나 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성 요소간의 관계를 설명하는 다른 표현들, 즉 "~사이에" 와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it should be understood that other components may exist in between. will be. On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle. Other expressions describing the relationship between elements, such as "between" and "immediately between" or "neighboring to" and "directly adjacent to", should be interpreted similarly.

본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 본 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that a feature, number, step, operation, component, part, or combination thereof described herein exists, but one or more other features It should be understood that it does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 나타낸다. 일반적으로 사용되는 사전에 정의된 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in the dictionary should be interpreted as having meanings consistent with the meanings in the context of the related art, and are not to be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. .

이하에서는, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 ToF 센서를 이용한 삼차원 카메라의 다중 반사 경로로 인한 깊이 정보 오차 보정 장치를 나타낸 도면이고, 도 2는 본 발명의 일 실시 예에 따른 ToF 센서를 이용한 삼차원 카메라의 다중 반사 경로로 인한 깊이 정보 오차 보정 방법을 나타낸 도면이다.1 is a view showing an apparatus for correcting a depth information error due to multiple reflection paths of a three-dimensional camera using a ToF sensor according to an embodiment of the present invention, and FIG. 2 is a three-dimensional camera using a ToF sensor according to an embodiment of the present invention. It is a diagram showing a method of correcting depth information error due to multiple reflection paths.

이하에서는 설명의 중복을 지양하기 위하여 방법 실시 예를 설명하지만, 방법 실시 예에 대한 설명 부분이 장치 실시 예에도 적용될 수 있음을 밝혀둔다.Hereinafter, a method embodiment will be described in order to avoid duplication of description, but it should be noted that the description part of the method embodiment may also be applied to an apparatus embodiment.

도 1 및 도 2를 참조하면, 본 발명의 일 실시 예에 따른 ToF 센서를 이용한 삼차원 카메라의 다중 반사 경로로 인한 깊이 정보 오차 보정 방법은 픽셀정보 획득단계(S10), 픽셀 분류단계(S20), 노이즈 제거단계(S30), 깊이정보 출력단계(S40)를 포함하여 구성된다.1 and 2, the method for correcting depth information error due to multiple reflection paths of a three-dimensional camera using a ToF sensor according to an embodiment of the present invention includes a pixel information acquisition step (S10), a pixel classification step (S20), It is configured to include a noise removal step (S30) and a depth information output step (S40).

픽셀정보 획득단계(S10)에서는, 픽셀정보 획득부(10)가 촬영영상에 포함된 전체픽셀의 광세기값과 깊이값을 획득하는 과정이 수행된다.In the pixel information obtaining step (S10), a process of obtaining, by the pixel information obtaining unit 10, a light intensity value and a depth value of all pixels included in the captured image is performed.

공지 기술이기는 하지만 픽셀정보 획득부(10)가 전체픽셀의 광세기값과 깊이값을 연산하여 획득하는 과정을 예시적으로 설명하면 다음과 같다.Although it is a well-known technique, the process of obtaining the pixel information by calculating the light intensity value and the depth value of all pixels by the pixel information acquisition unit 10 will be described as an example.

ToF 센서를 이용한 3차원 카메라에 구비된 광원의 광속이 C=2.997*108m/s, 광원에 대한 변조주파수(modulation frequency)가 f라고 했을 경우, 변조주파수(f)에 대해 표현할 수 있는 거리 범위는 R(f)= C/2f로 표현되며, 이때의 거리 정보, 즉, 깊이 정보 Depth=(phase * R(f))/2로 표현된다. phase는 광의 위상이다.If the luminous flux of the light source provided in the 3D camera using the ToF sensor is C=2.997*10 8 m/s and the modulation frequency for the light source is f, the distance that can be expressed with respect to the modulation frequency (f) The range is expressed as R(f)=C/2f, and the distance information at this time, ie, depth information, is expressed as Depth=(phase * R(f))/2. phase is the phase of the light.

2π의 위상을 균등배분할 수 있는 수를 N이라고 가정했을 경우 각 위상에 따라 획득된 N등분된 0 ~ N 까지의 영상정보를 이용하여 I, Q를 구할 수 있으며, 이를 이용하여 위상(Phase), 깊이(Depth), 광세기(Amplitude)를 다음 수식 1 내지 수식 5를 이용하여 계산할 수 있다.If it is assumed that the number that can equally distribute the phases of 2π is N, then I and Q can be obtained using the image information from 0 to N divided by N obtained according to each phase, and using this, the phase, Depth and Amplitude can be calculated using Equations 1 to 5 below.

[수식 1][Formula 1]

Figure 112020098750173-pat00001
Figure 112020098750173-pat00001

[수식 2][Equation 2]

Figure 112020098750173-pat00002
Figure 112020098750173-pat00002

[수식 3][Equation 3]

Figure 112020098750173-pat00003
Figure 112020098750173-pat00003

[수식 4][Equation 4]

Figure 112020098750173-pat00004
Figure 112020098750173-pat00004

[수식 5][Equation 5]

Figure 112020098750173-pat00005
Figure 112020098750173-pat00005

픽셀 분류단계(S20)에서는, 픽셀 분류부(20)가 전체픽셀을 구성하는 각각의 픽셀에 대하여 광세기값(Amplitude)과 깊이값(depth)을 제곱한 값의 역수에 반사도에 대응하는 임계치(threshold)와 이 임계치(threshold)를 조절하기 위한 스케일값(scale_value)을 곱한 값을 비교하여 전체픽셀들을 깊이 정보 오차가 발생하지 않은 정상픽셀과 깊이 정보 오차가 발생한 노이즈픽셀로 분류하는 과정이 수행된다.In the pixel classification step (S20), the pixel classification unit 20 for each pixel constituting the entire pixel, a threshold value ( threshold) and a value multiplied by a scale value (scale_value) for adjusting the threshold, and classifying all pixels into a normal pixel in which a depth information error does not occur and a noise pixel in which a depth information error occurs is performed. .

예를 들어, 픽셀 분류단계(S20)에서, 픽셀 분류부(20)는, 1) 전체픽셀 중에서 광세기값이 깊이값을 제곱한 값의 역수에 임계치와 스케일값을 곱한 값보다 작은 픽셀을 노이즈픽셀로 분류하고, 2) 전체픽셀 중에서 광세기값이 깊이값을 제곱한 값의 역수에 임계치와 스케일값을 곱한 값 이상인 픽셀을 정상픽셀로 분류하도록 구성될 수 있다.For example, in the pixel classification step ( S20 ), the pixel classifying unit 20 may 1) select a pixel whose light intensity value is smaller than a value obtained by multiplying a threshold value and a scale value by the reciprocal of a depth value squared among all pixels. It may be configured to classify pixels as pixels, and 2) to classify pixels whose light intensity value is equal to or greater than a value obtained by multiplying a threshold value and a scale value by a reciprocal of a depth value squared among all pixels as normal pixels.

예를 들어, 임계치와 스케일값은 사용자에 의해 설정 및 재설정이 가능하도록 구성될 수 있다.For example, the threshold and scale values may be configured to be set and reset by a user.

전체픽셀을 구성하는 픽셀들 각각에 대하여 깊이 노이즈가 발생하였는지 여부를 판단하여, 전체픽셀을 정상픽셀과 노이즈픽셀로 분류하는 과정을 보다 구체적이고 예시적으로 설명하면 다음과 같다.A process of classifying all pixels into normal pixels and noise pixels by determining whether depth noise has occurred in each of the pixels constituting all pixels will be described in more detail and exemplarily as follows.

ToF 센서를 이용한 3차원 카메라에서 거리측정을 위해 사용된 일정한 세기의 광원에 노출된 물체가 광원으로부터 멀어질수록 물체에서 반사된 광의 세기는 작게 측정된다. 일반적으로 거리에 따른 광의 세기는 거리의 제곱에 반비례하는 값으로 근사화할 수 있다.In a 3D camera using a ToF sensor, as the object exposed to the light source of constant intensity used for distance measurement becomes farther away from the light source, the intensity of light reflected from the object is measured to be smaller. In general, the intensity of light according to the distance can be approximated as a value inversely proportional to the square of the distance.

위와 같은 원리에 의해 픽셀의 노이즈 여부를 판단하는 픽셀 분류단계(S20)에서는 아래 수식 6을 이용할 수 있으며, 측정되는 물체의 반사도와 사용목적에 따라 자유도를 높이기 위해 사용자는 임계치와 스케일값을 입력할 수 있도록 구성될 수 있다.Equation 6 below can be used in the pixel classification step (S20) to determine whether or not the pixel is noisy according to the above principle. It can be configured to

[수식 6][Equation 6]

Figure 112020098750173-pat00006
Figure 112020098750173-pat00006

수식 6에서, Amplitude는 픽셀의 광세기값, Depth는 픽셀의 거리 정보값인 깊이값, threshold는 반사도에 따른 임계치, scale_value는 threshold의 크기를 조절하기 위한 스케일값, threshold와 scale_value는 사용자에 의해 입력되는 값이다.In Equation 6, Amplitude is the light intensity value of a pixel, Depth is a depth value that is a distance information value of the pixel, threshold is a threshold value according to reflectivity, scale_value is a scale value for adjusting the size of the threshold, threshold and scale_value are input by the user is the value

수식 6의 조건이 충족되는 경우, 픽셀 분류부(20)는 해당 픽셀의 깊이값에 다중 반사 경로로 인한 노이즈가 포함되어 있는 것으로 판단한다. 즉, 해당 픽셀은 노이즈 픽셀로 분류된다.When the condition of Equation 6 is satisfied, the pixel classifying unit 20 determines that noise due to multiple reflection paths is included in the depth value of the corresponding pixel. That is, the corresponding pixel is classified as a noise pixel.

역으로, 수식 6의 조건이 충족되지 않는 경우, 픽셀 분류부(20)는 해당 픽셀의 깊이값에 다중 반사 경로로 인한 노이즈가 포함되어 있지 않은 것으로 판단한다. 즉, 해당 픽셀은 정상 픽셀로 분류된다.Conversely, when the condition of Equation 6 is not satisfied, the pixel classifying unit 20 determines that noise due to multiple reflection paths is not included in the depth value of the corresponding pixel. That is, the corresponding pixel is classified as a normal pixel.

threshold와 scale_value가 사용자에 의해 설정되는 방식을 예시적으로 설명하면 다음과 같다.An example of how the threshold and scale_value are set by the user is as follows.

예를 들어, 광원의 종류와 제어방법, 물체에 따라 출력되는 거리에 따른amplitude 값이 상이하므로 실제 사용될 ToF 카메라를 통해 threshold의 최대 범위를 설정한다. For example, since the amplitude value according to the output distance is different depending on the type of light source, the control method, and the object, the maximum range of the threshold is set through the ToF camera to be actually used.

수식 6을 이용하여 threshold의 최대값은 수식 7과 같이 표현될 수 있다.Using Equation 6, the maximum value of the threshold can be expressed as Equation 7.

[수식 7][Equation 7]

Figure 112020098750173-pat00007
Figure 112020098750173-pat00007

예를 들어, 범위설정을 위한 순서는 다음과 같이 수행될 수 있다.For example, the sequence for setting the range may be performed as follows.

먼저, 근접거리(예, 30cm~40cm)에 피사체를 위치시킨 후 출력된 amplitude와 depth 값을 수식 7의 amplitude_close, depth_close에 각각 대입한다.First, after locating the subject at a close distance (eg, 30cm to 40cm), the output amplitude and depth values are substituted into amplitude_close and depth_close of Equation 7, respectively.

다음으로, amplitude_close, depth_close가 대입된 수식 7의 연산결과가 사용자가 입력할 수 있는 threshold 최대값보다 작도록 scale_value값을 설정한다.Next, the scale_value value is set so that the calculation result of Equation 7 to which amplitude_close and depth_close are substituted is smaller than the maximum threshold value that the user can input.

노이즈 제거단계(S30)에서는, 노이즈 제거부(30)가 노이즈픽셀의 노이즈를 제거하는 과정이 수행된다.In the noise removing step ( S30 ), the noise removing unit 30 removes the noise of the noise pixel.

예를 들어, 노이즈 제거단계(S30)에서, 노이즈 제거부(30)는 픽셀정보 획득부(10)가 획득한 노이즈픽셀의 깊이값을 0으로 치환하는 방식으로 노이즈픽셀의 노이즈를 제거하도록 구성될 수 있다.For example, in the noise removing step S30, the noise removing unit 30 may be configured to remove the noise of the noise pixel in such a way that the depth value of the noise pixel obtained by the pixel information obtaining unit 10 is replaced with 0. can

깊이정보 출력단계(S40)에서는, 깊이 정보 출력부(40)가 픽셀정보 획득부(10)가 획득한 정상픽셀의 깊이값과 노이즈 제거부(30)에 의해 노이즈가 제거된 노이즈픽셀의 깊이값을 합성하여 전체픽셀의 깊이 정보를 출력하는 과정이 수행된다.In the depth information output step S40 , the depth information output unit 40 determines the depth value of the normal pixel acquired by the pixel information acquisition unit 10 and the depth value of the noise pixel from which the noise is removed by the noise removal unit 30 . A process of synthesizing and outputting depth information of all pixels is performed.

이하에서는, 다중 반사 경로로 인한 깊이 정보 오차가 발생한 영상과 그렇지 않은 영상을 상호 비교하여 본 발명의 일 실시 예를 설명한다.Hereinafter, an embodiment of the present invention will be described by comparing an image in which a depth information error due to multiple reflection paths occurs and an image in which it does not.

도 3에는 다중 반사 경로로 인한 깊이 정보 오차가 발생하지 않은 깊이 영상이 광세기 영상과 함께 예시적으로 나타나 있다.In FIG. 3 , a depth image in which a depth information error due to multiple reflection paths does not occur is exemplarily shown together with a light intensity image.

도 4는 본 발명의 일 실시 예에 있어서, 다중 반사 경로로 인한 깊이 정보 오차가 발생한 깊이 영상을 광세기 영상과 함께 예시적으로 나타낸 도면이다.4 is a diagram exemplarily showing a depth image in which a depth information error due to multiple reflection paths occurs together with a light intensity image according to an embodiment of the present invention.

도 4를 참조하면, 각각의 픽셀을 기준으로, 광세기값(Amplitude)은 깊이값(Depth)의 제곱에 반비례하므로, 광세기값(Amplitude)은 피사체가 ToF 센서를 이용한 삼차원 카메라에 근접하는 경우 크게 측정되고, 멀어지는 경우 작게 측정된다.Referring to FIG. 4 , based on each pixel, the light intensity value (Amplitude) is inversely proportional to the square of the depth value (Depth). It measures large, and if it is farther away, it measures small.

도 4에서, 손바닥이 ToF 센서를 이용한 삼차원 카메라에 근접하는 경우의 다중 반사 경로로 인한 깊이 정보 오차 발생 이미지를 참조하면, 좌측의 광세기 영상(광세기값이 낮을 수록 검게 표시됨)은 실제 손가락이 위치한 부분만 높은 값이 출력되는 것을 알 수 있다.Referring to the image of the depth information error due to multiple reflection paths when the palm approaches the 3D camera using the ToF sensor in FIG. 4 , the light intensity image on the left (the lower the light intensity value is, the darker the actual finger is) It can be seen that only the located portion is output with a high value.

반면 우측의 보정전 깊이 영상은 실제 손가락이 표시되지 않은 영역도 손가락과 같은 깊이값(거리값)이 출력되는 것을 알 수 있다.On the other hand, in the depth image before correction on the right, it can be seen that the same depth value (distance value) as that of the finger is output even in the area where the actual finger is not displayed.

도 4에서 프로파일 라인은 점선으로 표시되어 있으며, 광세기 영상의 하부에는 프로파일 라인에 해당하는 광세기값이 그래프 형태로 표시되어 있고, 보정전 깊이 영상의 하부에는 프로파일 라인에 해당하는 보정전 깊이값이 그래프 형태로 표시되어 있다.In FIG. 4 , the profile line is indicated by a dotted line, the light intensity value corresponding to the profile line is displayed in a graph form at the lower part of the light intensity image, and the pre-correction depth value corresponding to the profile line is displayed at the lower part of the pre-correction depth image. This is shown in graph form.

도 5는 본 발명의 일 실시 예에 있어서, 다중 반사 경로로 인한 깊이 정보 오차가 제거된 깊이 영상을 세기 영상과 함께 예시적으로 나타낸 도면이다.5 is a diagram exemplarily showing a depth image from which a depth information error due to multiple reflection paths is removed together with an intensity image, according to an embodiment of the present invention.

도 5를 참조하면, 좌측의 광세기 영상과 우측의 보정후 깊이 영상에서 모두 실제손가락이 위치한 영역에만 깊이 정보가 출력되며, 도 4와는 상이하게 손가락 사이의 깊이 오류 부분은 모두 제거된 것을 알 수 있다.Referring to FIG. 5 , in both the light intensity image on the left and the depth image after correction on the right, depth information is output only to the region where the real finger is located, and it can be seen that, unlike in FIG. 4 , the depth error part between the fingers is all removed. have.

도 5에서 프로파일 라인은 점선으로 표시되어 있으며, 광세기 영상의 하부에는 프로파일 라인에 해당하는 광세기값이 그래프 형태로 표시되어 있고, 보정후 깊이 영상의 하부에는 프로파일 라인에 해당하는 보정후 깊이값이 그래프 형태로 표시되어 있다.In FIG. 5, the profile line is indicated by a dotted line, the light intensity value corresponding to the profile line is displayed in the form of a graph at the lower part of the light intensity image, and the post-correction depth value corresponding to the profile line is displayed at the lower part of the post-correction depth image. This is shown in graph form.

이상에서 상세히 설명한 바와 같이 본 발명에 따르면, ToF 센서를 이용한 3차원 카메라에서 다중 반사 경로로 인해 발생하는 깊이 정보 오차를 효과적으로 제거할 수 있다.As described in detail above, according to the present invention, it is possible to effectively remove a depth information error caused by multiple reflection paths in a 3D camera using a ToF sensor.

1: ToF 센서를 이용한 3차원 카메라의 다중 반사 경로로 인한 깊이 정보 오차 보정 장치
10: 픽셀정보 획득부
20: 픽셀 분류부
30: 노이즈 제거부
40: 깊이 정보 출력부
S10: 픽셀정보 획득단계
S20: 픽셀 분류단계
S30: 노이즈 제거단계
S40: 깊이정보 출력단계
1: Depth information error correction device due to multiple reflection paths of a 3D camera using a ToF sensor
10: pixel information acquisition unit
20: pixel classification unit
30: noise removal unit
40: depth information output unit
S10: pixel information acquisition step
S20: Pixel classification stage
S30: Noise Removal Step
S40: depth information output step

Claims (6)

ToF 센서를 이용한 3차원 카메라의 다중 반사 경로로 인한 깊이 정보 오차를 보정하는 방법으로서,
픽셀정보 획득부가 ToF 센서에 의해 촬영된 영상에 포함된 전체픽셀의 광세기값과 깊이값을 획득하는 픽셀정보 획득단계;
픽셀 분류부가 상기 광세기값과 상기 깊이값을 제곱한 값의 역수에 반사도에 대응하는 임계치와 상기 임계치를 조절하기 위한 스케일값을 곱한 값을 비교하여 상기 전체픽셀들을 깊이 정보 오차가 발생하지 않은 정상픽셀과 상기 깊이 정보 오차가 발생한 노이즈픽셀로 분류하는 픽셀 분류단계;
노이즈 제거부가 상기 노이즈픽셀의 노이즈를 제거하는 노이즈 제거단계; 및
깊이 정보 출력부가 상기 픽셀정보 획득부에 의해 획득된 정상픽셀의 깊이값과 상기 노이즈 제거부에 의해 상기 노이즈가 제거된 노이즈픽셀의 깊이값을 합성하여 상기 전체픽셀의 깊이 정보를 출력하는 깊이정보 출력단계를 포함하고,
상기 픽셀 분류단계에서,
상기 픽셀 분류부는 상기 전체픽셀 중에서 상기 광세기값이 상기 깊이값을 제곱한 값의 역수에 상기 임계치와 상기 스케일값을 곱한 값보다 작은 픽셀을 상기 노이즈픽셀로 분류하고,
상기 픽셀 분류단계에서,
상기 픽셀 분류부는 상기 전체픽셀 중에서 상기 광세기값이 상기 깊이값을 제곱한 값의 역수에 상기 임계치와 상기 스케일값을 곱한 값 이상인 픽셀을 상기 정상픽셀로 분류하는, ToF 센서를 이용한 3차원 카메라의 다중 반사 경로로 인한 깊이 정보 오차 보정 방법.
A method of correcting a depth information error due to multiple reflection paths of a three-dimensional camera using a ToF sensor, the method comprising:
A pixel information obtaining step of obtaining, by the pixel information obtaining unit, light intensity values and depth values of all pixels included in the image captured by the ToF sensor;
A pixel classification unit compares a value obtained by multiplying the reciprocal of the square of the light intensity value and the depth value by a threshold value corresponding to the reflectivity and a scale value for adjusting the threshold value, and selects all the pixels as a normal value in which a depth information error does not occur. a pixel classification step of classifying a pixel and a noise pixel in which the depth information error occurs;
a noise removing step of removing the noise of the noise pixel by a noise removing unit; and
The depth information output unit outputs the depth information of all pixels by synthesizing the depth value of the normal pixel obtained by the pixel information obtaining unit and the depth value of the noise pixel from which the noise is removed by the noise removing unit. comprising steps;
In the pixel classification step,
The pixel classification unit classifies a pixel whose light intensity value is smaller than a value obtained by multiplying the threshold value and the scale value by a reciprocal of a square of the depth value among all the pixels as the noise pixel;
In the pixel classification step,
The pixel classification unit classifies pixels, among all the pixels, of which the light intensity value is equal to or greater than a value obtained by multiplying the inverse of the square of the depth value by the threshold value and the scale value, as the normal pixel, a three-dimensional camera using a ToF sensor. Depth information error correction method due to multiple reflection paths.
삭제delete 삭제delete 제1항에 있어서,
상기 노이즈 제거단계에서,
상기 노이즈 제거부는 상기 픽셀정보 획득부에 의해 획득된 노이즈픽셀의 깊이값을 0으로 치환하는 것을 특징으로 하는, ToF 센서를 이용한 3차원 카메라의 다중 반사 경로로 인한 깊이 정보 오차 보정 방법.
According to claim 1,
In the noise removal step,
The method for correcting a depth information error due to multiple reflection paths of a three-dimensional camera using a ToF sensor, characterized in that the noise removing unit substitutes 0 for the depth value of the noise pixel obtained by the pixel information obtaining unit.
제1항에 있어서,
상기 임계치와 상기 스케일값은 사용자에 의해 설정 및 재설정이 가능한 것을 특징으로 하는, ToF 센서를 이용한 3차원 카메라의 다중 반사 경로로 인한 깊이 정보 오차 보정 방법.
According to claim 1,
The depth information error correction method due to multiple reflection paths of a three-dimensional camera using a ToF sensor, characterized in that the threshold value and the scale value can be set and reset by a user.
ToF 센서를 이용한 3차원 카메라의 다중 반사 경로로 인한 깊이 정보 오차를 보정하는 장치로서,
ToF 센서에 의해 촬영된 영상에 포함된 전체픽셀의 광세기값과 깊이값을 획득하는 픽셀정보 획득부;
상기 광세기값과 상기 깊이값을 제곱한 값의 역수에 반사도에 대응하는 임계치와 상기 임계치를 조절하기 위한 스케일값을 곱한 값을 비교하여 상기 전체픽셀들을 깊이 정보 오차가 발생하지 않은 정상픽셀과 상기 깊이 정보 오차가 발생한 노이즈픽셀로 분류하는 픽셀 분류부;
상기 노이즈픽셀의 노이즈를 제거하는 노이즈 제거부; 및
상기 픽셀정보 획득부에 의해 획득된 정상픽셀의 깊이값과 상기 노이즈 제거부에 의해 상기 노이즈가 제거된 노이즈픽셀의 깊이값을 합성하여 상기 전체픽셀의 깊이 정보를 출력하는 깊이 정보 출력부를 포함하고,
상기 픽셀 분류부는 상기 전체픽셀 중에서 상기 광세기값이 상기 깊이값을 제곱한 값의 역수에 상기 임계치와 상기 스케일값을 곱한 값보다 작은 픽셀을 상기 노이즈픽셀로 분류하고, 상기 전체픽셀 중에서 상기 광세기값이 상기 깊이값을 제곱한 값의 역수에 상기 임계치와 상기 스케일값을 곱한 값 이상인 픽셀을 상기 정상픽셀로 분류하는, ToF 센서를 이용한 3차원 카메라의 다중 반사 경로로 인한 깊이 정보 오차 보정 장치.
A device for correcting a depth information error due to multiple reflection paths of a 3D camera using a ToF sensor, comprising:
a pixel information obtaining unit which obtains light intensity values and depth values of all pixels included in the image captured by the ToF sensor;
A value obtained by multiplying the reciprocal of the square of the light intensity value and the depth value by a threshold value corresponding to the reflectivity and a scale value for adjusting the threshold value is compared to compare all pixels with a normal pixel in which a depth information error does not occur and the a pixel classifier for classifying noise pixels with a depth information error;
a noise removing unit for removing the noise of the noise pixel; and
and a depth information output unit outputting depth information of all pixels by synthesizing the depth value of the normal pixel obtained by the pixel information obtaining unit and the depth value of the noise pixel from which the noise has been removed by the noise removing unit;
The pixel classifying unit classifies a pixel in which the light intensity value is smaller than a value obtained by multiplying the threshold value and the scale value by a reciprocal of the square of the depth value among all pixels as the noise pixel, and the light intensity value among all pixels Depth information error correction apparatus due to multiple reflection paths of a three-dimensional camera using a ToF sensor, which classifies pixels having a value equal to or greater than a value obtained by multiplying a value obtained by multiplying a value obtained by multiplying a value obtained by multiplying the threshold value and the scale value by an inverse of the square of the depth value, as the normal pixel.
KR1020200119698A 2020-09-17 2020-09-17 Method and apparatus for correcting depth information error due to multiple reflective path of three dimensional camera using time of flight sensor KR102351152B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200119698A KR102351152B1 (en) 2020-09-17 2020-09-17 Method and apparatus for correcting depth information error due to multiple reflective path of three dimensional camera using time of flight sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200119698A KR102351152B1 (en) 2020-09-17 2020-09-17 Method and apparatus for correcting depth information error due to multiple reflective path of three dimensional camera using time of flight sensor

Publications (1)

Publication Number Publication Date
KR102351152B1 true KR102351152B1 (en) 2022-01-14

Family

ID=79342704

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200119698A KR102351152B1 (en) 2020-09-17 2020-09-17 Method and apparatus for correcting depth information error due to multiple reflective path of three dimensional camera using time of flight sensor

Country Status (1)

Country Link
KR (1) KR102351152B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130092157A (en) 2012-02-10 2013-08-20 에스케이플래닛 주식회사 Apparatus and method for correcting depth map and apparatus and method for generating 3d conversion image using the same
KR20150109404A (en) * 2013-01-18 2015-10-01 후프 휠스벡 운트 퓌르스트 게엠베하 운트 콤파니 카게 Universal sensor assembly for detecting operator gestures in vehicles
KR20180032989A (en) * 2016-09-23 2018-04-02 삼성전자주식회사 ToF(time of flight) capturing apparatus and method for reducing of depth distortion caused by multiple reflection thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130092157A (en) 2012-02-10 2013-08-20 에스케이플래닛 주식회사 Apparatus and method for correcting depth map and apparatus and method for generating 3d conversion image using the same
KR20150109404A (en) * 2013-01-18 2015-10-01 후프 휠스벡 운트 퓌르스트 게엠베하 운트 콤파니 카게 Universal sensor assembly for detecting operator gestures in vehicles
KR20180032989A (en) * 2016-09-23 2018-04-02 삼성전자주식회사 ToF(time of flight) capturing apparatus and method for reducing of depth distortion caused by multiple reflection thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
대한민국 공개특허공보 제10-2018-0032989호(공개일자: 2018년 04월 02일, 명칭: ToF(time of flight) 촬영 장치 및 다중 반사에 의한 깊이 왜곡 저감 방법)

Similar Documents

Publication Publication Date Title
TWI536318B (en) Depth measurement quality enhancement
CN104104941B (en) Acquiring three-dimensional images device and the method for generating depth image
US9621793B2 (en) Information processing apparatus, method therefor, and measurement apparatus
US5081689A (en) Apparatus and method for extracting edges and lines
EP3594617B1 (en) Three-dimensional-shape measurement device, three-dimensional-shape measurement method, and program
JP6239594B2 (en) 3D information processing apparatus and method
JP6990859B2 (en) Depth acquisition device, depth acquisition method and program
EP3004926B1 (en) Edge preserving depth filtering
CN109640066B (en) Method and device for generating high-precision dense depth image
US10354413B2 (en) Detection system and picture filtering method thereof
WO2019167453A1 (en) Image processing device, image processing method, and program
KR20130072073A (en) Apparatus and method for extracting edge in image
JP2024507089A (en) Image correspondence analysis device and its analysis method
US20160247286A1 (en) Depth image generation utilizing depth information reconstructed from an amplitude image
JP2014067193A (en) Image processing apparatus and image processing method
CN105787429B (en) The method and apparatus for being used to check object using machine vision
JP2020077165A (en) Image processing device, image processing method, and program
US10803625B2 (en) Detection system and picturing filtering method thereof
JP2020052001A (en) Depth acquisition device, depth acquisition method, and program
KR102351152B1 (en) Method and apparatus for correcting depth information error due to multiple reflective path of three dimensional camera using time of flight sensor
JP2014130086A (en) Range image sensor, processor and program
EP3062516B1 (en) Parallax image generation system, picking system, parallax image generation method, and computer-readable recording medium
US11313676B2 (en) Three-dimensional measurement apparatus, three-dimensional measurement method, and three-dimensional measurement non-transitory computer readable medium
CN112313541B (en) Apparatus and method
JP2004191198A (en) Apparatus and method for measuring three-dimensional geometry

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant