WO2020138754A1 - 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법 - Google Patents

펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법 Download PDF

Info

Publication number
WO2020138754A1
WO2020138754A1 PCT/KR2019/017174 KR2019017174W WO2020138754A1 WO 2020138754 A1 WO2020138754 A1 WO 2020138754A1 KR 2019017174 W KR2019017174 W KR 2019017174W WO 2020138754 A1 WO2020138754 A1 WO 2020138754A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
phase
pulse
error correction
measuring camera
Prior art date
Application number
PCT/KR2019/017174
Other languages
English (en)
French (fr)
Inventor
손현성
Original Assignee
㈜미래컴퍼니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US17/309,870 priority Critical patent/US20220075039A1/en
Application filed by ㈜미래컴퍼니 filed Critical ㈜미래컴퍼니
Priority to DE112019006405.3T priority patent/DE112019006405T5/de
Priority to CN201980085852.6A priority patent/CN113227828B/zh
Priority to JP2021537890A priority patent/JP7109676B2/ja
Publication of WO2020138754A1 publication Critical patent/WO2020138754A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak

Definitions

  • the present invention relates to a method for correcting a nonlinear distance error of a 3D distance measuring camera using pulse phase shift. More specifically, the present invention is performed by performing a non-linear distance error correction of a 3D distance measuring camera through a pulse phase shifting method at a fixed position, thereby reducing the space constraints arising in the process of correcting a nonlinear distance error of a 3D distance measuring camera.
  • the present invention relates to a technology capable of overcoming, reducing a facility cost required for distance error correction, and shortening a distance error correction time.
  • three-dimensional distance measuring cameras such as a TOF (Time Of Flight) camera, are known.
  • FIG. 1 is a view showing a distance measurement principle of a conventional TOF camera
  • FIG. 2 is a view showing a phase delay according to a distance in the distance measurement of a conventional TOF camera.
  • a 3D distance measuring camera such as a time of flight (TOF) camera irradiates light on a subject and calculates reflected light through a formula using a sinusoidal phase to convert it into distance information.
  • TOF time of flight
  • a conventional technique is provided with a stage capable of moving the camera back and forth from a subject in a space equal to the total measurement distance of a 3D distance measuring camera, and a plurality of measurement points where the camera knows the actual distance. It uses a method of generating a look-up table that can perform the distance measurement work in the state of being placed in the field and correct the error between a plurality of actual distances and the measurement distance based on the measurement result and embedding it in the camera. Did.
  • FIG. 3 discloses measurement data when the nonlinear distance error is not corrected according to the prior art
  • FIG. 4 discloses measurement data when the nonlinear distance error is corrected according to the prior art.
  • the present invention overcomes the space constraints occurring in the process of correcting the nonlinear distance error of the 3D distance measuring camera by performing the nonlinear distance error correction of the 3D distance measuring camera through a pulse phase shifting method at a fixed position, and the distance
  • the technical problem is to reduce the equipment cost required for error correction and to shorten the distance error correction time.
  • a method of correcting a distance nonlinearity of a 3D distance measuring camera using pulse phase shift according to the present invention for solving this technical problem is a phase adjusting step in which the control unit adjusts the phase of the output light pulse output by the light emitting unit.
  • a light-emitting step in which the light-emitting section outputs the phase-controlled output light pulse to a subject, a light-receiving section in which the light-receiving section receives the reflected light pulse reflected from the subject, and the controller determines the adjusted phase of the output light pulse at an estimated actual distance.
  • Mapping so as to correspond, calculating a measurement distance using a time difference between the output time of the output light pulse and the reception time of the reflected light pulse, and correcting a distance error to correct the difference between the estimated actual distance and the measured distance And calculating/storing a distance error correction value to calculate and store the value.
  • the method for correcting distance nonlinearity of a 3D distance measuring camera using pulse phase shift determines whether the phase of the output light pulse is equal to a preset termination reference phase after the calculation/storing step of the distance error correction value. Further comprising a determination of whether or not the measurement is finished based on whether or not the measurement is finished, and if the phase of the output light pulse is not the same as the termination reference phase as a result of the determination at the determination whether or not the measurement is finished, the phase is adjusted. It is characterized by being converted to a stage.
  • the control unit equalizes the phase of the output light pulse and the period of the output light pulse at equal intervals. interval).
  • the control unit looks up the distance error correction value in a look-up table.
  • the phase adjustment step, the light emission step, the light reception step, the distance error correction value calculation/storage step and the measurement end is characterized in that the position of the 3D distance measuring camera is performed in a fixed state.
  • the controller is embedded in the 3D distance measuring camera as an FPGA IP (Field Programmable Gate Array Intellectual Property) or the 3D distance It is provided on the outside of the measurement camera, it characterized in that it is connected to the three-dimensional distance measuring camera.
  • FPGA IP Field Programmable Gate Array Intellectual Property
  • the present invention by performing the non-linear distance error correction of the three-dimensional distance measuring camera through a pulse phase shifting method at a fixed position, to overcome the space constraints occurring in the process of correcting the non-linear distance error of the three-dimensional distance measuring camera It is possible to reduce the equipment cost required for distance error correction, there is an effect that can shorten the distance error correction time.
  • the non-linear distance error correction method using the pulse phase shifting method of the present invention uses a fixed space in a space of about 1 to 2 meters in which light reflected from the subject is not saturated at the sensor surface, and thus has a space limitation compared to the conventional method. There is no effect.
  • the present invention is equipped with a device capable of moving the phase of the light source to be irradiated on the subject inside or outside the camera, without using a stage that moves the camera by an actual measurement distance from the subject, so there is little equipment cost required for production. It is effective.
  • the present invention has an effect of significantly shortening the error correction time compared to the prior art since the measurement data is collected by changing only the phase of the pulse at a fixed position without moving the actual position.
  • 1 is a view showing a distance measuring principle of a conventional TOF camera
  • FIG. 2 is a view showing a phase delay according to a distance to a subject in a distance measurement of a conventional TOF camera
  • FIG. 5 is an exemplary functional block diagram of an apparatus in which a method for correcting a nonlinear distance error of a 3D distance measuring camera using pulse phase shift according to an embodiment of the present invention is performed,
  • FIG. 6 is a view showing an actual configuration of a device in which a method for correcting a nonlinear distance error of a 3D distance measuring camera using pulse phase shift according to an embodiment of the present invention is performed;
  • FIG. 7 is a view showing a method for correcting a nonlinear distance error of a 3D distance measuring camera using pulse phase shift according to an embodiment of the present invention
  • FIG. 8 is a view for explaining an exemplary configuration for delaying the phase of the output light pulse in an embodiment of the present invention
  • FIG. 9 is a view showing measurement data when a nonlinear distance error is not corrected according to an embodiment of the present invention.
  • FIG. 10 is a view showing measurement data when a nonlinear distance error is corrected according to an embodiment of the present invention.
  • first or second may be used to describe various components, but the components should not be limited by the terms. The above terms are only for the purpose of distinguishing one component from other components, for example, without departing from the scope of rights according to the concept of the present invention, the first component may be referred to as the second component and similarly the second component The component may also be referred to as the first component.
  • FIG. 5 is an exemplary functional block diagram of an apparatus in which a method of correcting a nonlinear distance error of a 3D distance measuring camera using pulse phase shift according to an embodiment of the present invention is performed
  • FIG. 6 is according to an embodiment of the present invention
  • FIG. 7 is a diagram showing an actual configuration of a device in which a method for correcting a nonlinear distance error of a 3D distance measuring camera using pulse phase shift is performed
  • FIG. 7 is a view of a 3D distance measuring camera using pulse phase shift according to an embodiment of the present invention.
  • a diagram showing a method for correcting a nonlinear distance error is shown in which a method of correcting a nonlinear distance error of a 3D distance measuring camera using pulse phase shift according to an embodiment of the present invention.
  • a non-linear distance error correction method of a 3D distance measuring camera 10 using pulse phase shift includes a phase adjustment step (S10), a light emission step (S20), It includes a light receiving step (S30), a distance error correction value calculation/storage step (S40) and a measurement end determination step (S50).
  • phase adjustment step (S10 ) a process of the controller 150 adjusting the phase of the output light pulse output by the light emitting unit 200 is performed.
  • the controller 150 in the phase adjustment step (S10), the controller 150 May be configured to delay the phase of the output light pulse by a value obtained by dividing the period of the output light pulse into equal intervals.
  • the modulation frequency f of the output light pulse is 50 MHz
  • the period T of the output light pulse is 20 ns
  • the delay phase that is, the period of the output light pulse is divided at equal intervals.
  • One value is 5ns.
  • TOF Time Of Flight
  • the output light pulse that the light emitting unit 200 outputs to the subject is reflected from the subject, and the light receiving unit 300 receives the reflected light pulse reflected from the subject, of the reflected light pulse received from the light receiving unit 300
  • the phase has a characteristic of being delayed in proportion to the distance to the subject.
  • An embodiment of the present invention corresponds to the actual distance between the subject and the camera while the position of the 3D distance measuring camera 10 is fixed to one specific point by using the relationship between the distance to the subject and the pulse phase delay.
  • the non-linear distance error of the 3D distance measuring camera 10 is corrected through a configuration in which a phase-adjusted output light pulse is irradiated to a subject.
  • the pulse phase shifting method moves the phase of the pulse irradiated onto the subject without physically changing the distance between the 3D distance measuring camera 10 and the subject, thereby reflecting the time to be reflected back to the real subject. Changes. Using this principle, the effect measured by changing the distance between the 3D distance measuring camera 10 and the subject can be seen without physical movement.
  • the maximum measurement distance (measurement range) of the 3D distance measuring camera 10 including the TOF camera is determined according to the modulation frequency used for optical output, and the time of one cycle of the modulation frequency can be matched with the actual distance.
  • the maximum measurement distance (measurement range) can be obtained by Equation 1 below.
  • One cycle time of the modulation frequency f is matched to the actual distance, and as illustrated in FIG. 8, when the pulse phase is moved by T/4, it moves by 1/4 of the measurement range.
  • the measurement range is 3000 mm
  • the pulse phase is moved by T/4, it is moved by 750 mm, which is 1/4 of the measurement range.
  • the stage is used. Therefore, there is an advantage that there is no space limitation compared to the prior art that physically moves the position of the camera.
  • the present invention is equipped with a device capable of moving the phase of the light source to be irradiated on the subject inside or outside the camera, without using a stage that moves the camera by an actual measurement distance from the subject, so there is little equipment cost required for production. It has the advantage of not.
  • the controller 150 is built into the 3D distance measuring camera 10 as an FPGA IP (Field Programmable Gate Array Intellectual Property) or is provided outside the 3D distance measuring camera 10 to perform distance error correction. If it can be configured to be connected to the three-dimensional distance measuring camera 10.
  • FPGA IP Field Programmable Gate Array Intellectual Property
  • step S20 a process in which the light emitting unit 200 outputs a phase-adjusted output light pulse as a subject is performed.
  • the light receiving step S30 a process in which the light receiving unit 300 receives the reflected light pulse reflected from the subject is performed.
  • the controller 150 maps the adjusted phase of the output light pulse to correspond to the estimated actual distance, and outputs the output light pulse and the reflected light pulse.
  • the process of calculating the measurement distance using the parallax of and calculating and storing a distance error correction value for correcting the difference between the estimated actual distance and the measurement distance is performed.
  • the controller 150 may store the distance error correction value in a look-up table format.
  • the control unit 150 determines whether the end of measurement is based on whether the phase of the output light pulse is equal to a preset termination reference phase.
  • the phase of the output light pulse when the determination result in the determination whether the measurement is finished (S50), the phase of the output light pulse is not the same as the termination reference phase, it may be configured to switch to the phase adjustment step (S10).
  • the phase adjustment step (S10), the light emission step (S20), the light receiving step (S30), the distance error correction value calculation / storage step (S40) and the measurement end determination step (S50) is a three-dimensional distance measurement camera ( The position of 10) can be performed in a physically fixed state.
  • FIG. 9 is a view showing measurement data when a nonlinear distance error is not corrected according to an embodiment of the present invention
  • FIG. 10 shows measurement data when a nonlinear distance error is corrected according to an embodiment of the present invention It is a drawing.
  • the non-linear distance error of the three-dimensional distance measuring camera 10 by performing the non-linear distance error correction of the three-dimensional distance measuring camera 10 through a pulse phase shift method at a fixed position, the non-linear distance error of the three-dimensional distance measuring camera 10 It has the effect of overcoming the space constraints generated in the process of correcting, reducing the equipment cost required for error correction, and shortening the error correction time.
  • the non-linear distance error correction method using the pulse phase shifting method of the present invention uses a fixed space in a space of about 1 to 2 meters in which light reflected from the subject is not saturated at the sensor surface, and thus has a space limitation compared to the conventional method. There is no effect.
  • the present invention is equipped with a device capable of moving the phase of the light source to be irradiated on the subject inside or outside the camera, without using a stage that moves the camera by an actual measurement distance from the subject, so there is little equipment cost required for production. It is effective.
  • the present invention has an effect of significantly shortening the error correction time compared to the prior art since the measurement data is collected by changing only the phase of the pulse at a fixed position without moving the actual position.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

본 발명은 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법에 관한 것이다. 본 발명은 제어부가 발광부에 의해 출력되는 출력광 펄스의 위상을 조절하는 단계. 발광부가 위상이 조절된 출력광 펄스를 피사체로 출력하는 단계, 수광부가 피사체에서 반사되는 반사광 펄스를 수신하는 단계 및 제어부가 출력광 펄스의 조절된 위상을 추정실제거리에 대응되도록 매핑하고, 출력광 펄스의 출력시점과 반사광 펄스의 수신시점의 시차를 이용하여 측정거리를 계산하고, 추정실제거리와 측정거리의 차이를 보정하기 위한 거리오차 보정값을 계산하여 저장하는 단계를 포함한다. 본 발명에 따르면, 3차원 거리측정 카메라의 비선형 거리 오차를 보정하는 과정에서 발생하는 공간제약성을 극복할 수 있고, 거리 오차 보정을 위해 요구되는 설비비용을 줄일 수 있고, 거리 오차 보정 시간을 단축시킬 수 있다.

Description

펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법
본 발명은 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법에 관한 것이다. 보다 구체적으로, 본 발명은 3차원 거리측정 카메라의 비선형 거리 오차 보정을 고정된 위치에서 펄스 위상 이동방식을 통해 수행함으로써, 3차원 거리측정 카메라의 비선형 거리 오차를 보정하는 과정에서 발생하는 공간 제약성을 극복하고, 거리 오차 보정을 위해 요구되는 설비 비용을 줄이고, 거리 오차 보정 시간을 단축시킬 수 있는 기술에 관한 것이다.
일반적으로, TOF(Time Of Flight) 카메라 등과 같은 3차원 거리측정 카메라가 알려져 있다.
도 1은 종래의 TOF 카메라의 거리측정 원리를 나타낸 도면이고, 도 2는 종래의 TOF 카메라의 거리측정에 있어서, 거리에 따른 위상 지연을 나타낸 도면이다.
도 1 및 도 2를 참조하면, TOF(Time Of Flight) 카메라 등과 같은 3차원 거리측정 카메라는 피사체에 광을 조사하고 반사되어 되돌아온 광을 정현파 위상을 이용한 수식을 통해 연산하여 거리정보로 환산한다.
이러한 연산과정에서 완벽한 정현파가 아닌 하드웨어 특성 등에 의한 불완전한 구형파를 사용하는 등의 이유로 계산된 거리와 실제 거리에 다소 차이가 생기며, 이러한 차이는 거리에 따라 그 정도가 상이하기 때문에, 3차원 거리측정 카메라에는 거리에 따라 그 정도가 상이한 비선형적 오차가 발생한다는 문제점이 있다.
이와 같은 비선형적 오차를 보정하기 위해 종래의 기술은 3차원 거리측정 카메라의 전체 측정거리 만큼의 공간에서 카메라를 피사체로부터 앞뒤로 움직일 수 있는 스테이지를 설치하고, 카메라를 실제거리를 알고 있는 복수의 측정지점들에 위치시킨 상태에서 거리 측정 작업을 수행하고, 측정 결과를 바탕으로 복수의 실제거리와 측정거리간의 오차를 보정할 수 있는 룩업 테이블(look-up table)을 생성하여 카메라에 내장시키는 방식을 사용하였다.
도 3에는 종래 기술에 따라 비선형 거리 오차가 보정되지 않은 경우의 측정 데이터가 개시되어 있고, 도 4에는 종래 기술에 따라 비선형 거리 오차가 보정된 경우의 측정 데이터가 개시되어 있다.
그러나 이러한 종래 기술에 따르면, 3차원 거리측정 카메라의 측정거리가 늘어날수록 측정을 위한 더 넓은 공간이 필요하고, 스테이지를 설치하기 위한 높은 비용이 발생한다는 문제점이 있다. 또한, 작업자가 오차 측정을 위하여 카메라를 스테이지 상의 복수의 측정지점들로 이동시키는 과정에서 소모되는 시간으로 인해 카메라의 오차 보정에 많은 시간이 소요되는 문제점이 있다.
[선행기술문헌]
대한민국 공개특허공보 제10-2016-0054156호(공개일자: 2016년 05월 16일, 명칭: 거리 측정 장치)
대한민국 공개특허공보 제10-2017-0051752호(공개일자: 2017년 05월 12일, 명칭: TOF 카메라 제어방법)
본 발명은 3차원 거리측정 카메라의 비선형 거리 오차 보정을 고정된 위치에서 펄스 위상 이동방식을 통해 수행함으로써, 3차원 거리측정 카메라의 비선형 거리 오차를 보정하는 과정에서 발생하는 공간 제약성을 극복하고, 거리 오차 보정을 위해 요구되는 설비 비용을 줄이고, 거리 오차 보정 시간을 단축시키는 것을 기술적 과제로 한다.
이러한 기술적 과제를 해결하기 위한 본 발명에 따른 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 거리 비선형성 보정 방법은 제어부가 발광부에 의해 출력되는 출력광 펄스의 위상을 조절하는 위상 조절 단계. 상기 발광부가 상기 위상이 조절된 출력광 펄스를 피사체로 출력하는 발광 단계, 수광부가 상기 피사체에서 반사되는 반사광 펄스를 수신하는 수광 단계 및 상기 제어부가 상기 출력광 펄스의 조절된 위상을 추정실제거리에 대응되도록 매핑(mapping)하고, 상기 출력광 펄스의 출력시점과 상기 반사광 펄스의 수신시점의 시차를 이용하여 측정거리를 계산하고, 상기 추정실제거리와 상기 측정거리의 차이를 보정하기 위한 거리오차 보정값을 계산하여 저장하는 거리오차 보정값 계산/저장단계를 포함한다.
본 발명에 따른 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 거리 비선형성 보정 방법은 상기 거리오차 보정값 계산/저장단계 이후, 상기 제어부가 상기 출력광 펄스의 위상이 미리 설정된 종료기준위상과 동일한지 여부를 기준으로 측정종료여부를 판단하는 측정종료여부 판단단계를 더 포함하고, 상기 측정종료여부 판단단계에서의 판단결과 상기 출력광 펄스의 위상이 상기 종료기준위상과 동일하지 않은 경우, 상기 위상 조절 단계로 전환되는 것을 특징으로 한다.
본 발명에 따른 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 거리 비선형성 보정 방법에 있어서, 상기 위상 조절 단계에서, 상기 제어부는 상기 출력광 펄스의 위상을 상기 출력광 펄스의 주기를 등 간격(equidistant interval)으로 분할한 값만큼 지연시키는 것을 특징으로 한다.
본 발명에 따른 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 거리 비선형성 보정 방법에 있어서, 상기 거리오차 보정값 계산/저장단계에서, 상기 제어부는 상기 거리오차 보정값을 룩업 테이블(look-up table) 형식으로 저장하는 것을 특징으로 한다.
본 발명에 따른 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 거리 비선형성 보정 방법에 있어서, 상기 위상 조절 단계, 상기 발광 단계, 상기 수광 단계, 상기 거리오차 보정값 계산/저장단계 및 상기 측정종료여부 판단단계는 상기 3차원 거리측정 카메라의 위치가 고정된 상태에서 수행되는 것을 특징으로 한다.
본 발명에 따른 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 거리 비선형성 보정 방법에 있어서, 상기 제어부는 상기 3차원 거리측정 카메라에 FPGA IP(Field Programmable Gate Array Intellectual Property)로 내장되거나 상기 3차원 거리측정 카메라의 외부에 구비되어 상기 3차원 거리측정 카메라에 연결되는 것을 특징으로 한다.
본 발명에 따르면, 3차원 거리측정 카메라의 비선형 거리 오차 보정을 고정된 위치에서 펄스 위상 이동방식을 통해 수행함으로써, 3차원 거리측정 카메라의 비선형 거리 오차를 보정하는 과정에서 발생하는 공간제약성을 극복할 수 있고, 거리 오차 보정을 위해 요구되는 설비비용을 줄일 수 있고, 거리 오차 보정 시간을 단축시킬 수 있는 효과가 있다.
또한, 본 발명의 펄스 위상 이동 방식을 이용한 비선형 거리 오차 보정 방법은 피사체로부터 반사된 광이 센서 면에서 포화되지 않는 1~2미터 정도의 공간에 카메라를 고정시켜 사용하므로 종래 방법에 비해 공간제약이 없다는 효과가 있다.
또한, 본 발명은 카메라를 피사체로부터 실제 측정거리만큼 이동시키는 스테이지를 사용하지 않고 피사체에 조사될 광원의 위상을 이동시킬 수 있는 장치를 카메라 내부나 외부에 장착하므로 생산에 필요한 설비비용이 거의 발생하지 않는다는 효과가 있다.
또한, 본 발명은 실제 위치가 이동되지 않고 고정된 위치에서 펄스의 위상만 변화시켜 측정 데이터를 수집하므로 종래 기술에 비하여 오차 보정 시간이 크게 단축되는 효과가 있다.
도 1은 종래의 TOF 카메라의 거리측정 원리를 나타낸 도면이고,
도 2는 종래의 TOF 카메라의 거리측정에 있어서, 피사체와의 거리에 따른 위상 지연을 나타낸 도면이고,
도 3은 종래 기술에 따라 비선형 거리 오차가 보정되지 않은 경우의 측정 데이터를 나타낸 도면이고,
도 4는 종래 기술에 따라 비선형 거리 오차가 보정된 경우의 측정 데이터를 나타낸 도면이고,
도 5는 본 발명의 일 실시 예에 따른 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법이 수행되는 장치의 예시적인 기능 블록도이고,
도 6은 본 발명의 일 실시 예에 따른 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법이 수행되는 장치의 실제 구성을 나타낸 도면이고,
도 7은 본 발명의 일 실시 예에 따른 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법을 나타낸 도면이고,
도 8은 본 발명의 일 실시 예에 있어서, 출력광 펄스의 위상을 지연시키는 예시적인 구성을 설명하기 위한 도면이고,
도 9는 본 발명의 일 실시 예에 따라 비선형 거리 오차가 보정되지 않은 경우의 측정 데이터를 나타낸 도면이고,
도 10은 본 발명의 일 실시 예에 따라 비선형 거리 오차가 보정된 경우의 측정 데이터를 나타낸 도면이다.
본 명세서에 개시된 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.
본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 벗어나지 않은 채, 제1 구성 요소는 제2 구성 요소로 명명될 수 있고 유사하게 제2 구성 요소는 제1 구성 요소로도 명명될 수 있다.
어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접 연결되어 있거나 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성 요소간의 관계를 설명하는 다른 표현들, 즉 "~사이에" 와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 본 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 나타낸다. 일반적으로 사용되는 사전에 정의된 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하에서는, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명한다.
도 5는 본 발명의 일 실시 예에 따른 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법이 수행되는 장치의 예시적인 기능 블록도이고, 도 6은 본 발명의 일 실시 예에 따른 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법이 수행되는 장치의 실제 구성을 나타낸 도면이고, 도 7은 본 발명의 일 실시 예에 따른 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법을 나타낸 도면이다.
도 5 내지 도 7을 참조하면, 본 발명의 일 실시 예에 따른 펄스 위상 이동을 이용한 3차원 거리측정 카메라(10)의 비선형 거리 오차 보정 방법은 위상 조절 단계(S10), 발광 단계(S20), 수광 단계(S30), 거리오차 보정값 계산/저장단계(S40) 및 측정종료여부 판단단계(S50)를 포함한다.
위상 조절 단계(S10)에서는, 제어부(150)가 발광부(200)에 의해 출력되는 출력광 펄스의 위상을 조절하는 과정이 수행된다.
예를 들어, 본 발명의 일 실시 예에 있어서, 출력광 펄스의 위상을 지연시키는 예시적인 구성을 설명하기 위한 도면인 도 8을 추가로 참조하면, 위상 조절 단계(S10)에서, 제어부(150)는 출력광 펄스의 위상을 출력광 펄스의 주기를 등 간격(equidistant interval)으로 분할한 값만큼 지연시키도록 구성될 수 있다. 도 8은 하나의 예시로서, 출력광 펄스의 변조주파수(f)가 50MHz이고, 이에 따라 출력광 펄스의 주기(T)가 20ns이고, 지연 위상, 즉, 출력광 펄스의 주기를 등 간격으로 분할한 값은 5ns이다. 물론, 이는 설명을 위한 하나의 예시일 뿐이다.
이와 같이 구성되는 이유 및 그에 따른 효과를 설명하면 다음과 같다.
종래 기술을 설명하는 과정에서 도 2를 참조하여 설명한 바 있지만, TOF(Time Of Flight) 카메라 등을 포함하는 3차원 거리측정 카메라(10)로 깊이맵(depth map)을 생성하기 위해 피사체와의 거리를 측정하는 과정에서, 발광부(200)가 피사체로 출력하는 출력광 펄스는 피사체에서 반사되고, 수광부(300)가 피사체에서 반사되는 반사광 펄스를 수신하는데, 수광부(300)에서 수신되는 반사광 펄스의 위상은 피사체와의 거리에 비례하여 지연되는 특성을 갖는다.
본 발명의 일 실시 예는 이러한 피사체와의 거리와 펄스 위상 지연의 관계를 이용하여, 3차원 거리측정 카메라(10)의 위치를 하나의 특정 지점에 고정된 상태에서 피사체와 카메라 간의 실제거리에 대응하도록 위상이 조절된 출력광 펄스를 피사체로 조사하는 구성을 통하여, 3차원 거리측정 카메라(10)의 비선형 거리 오차를 보정한다.
이러한 구성을 보다 구체적으로 설명하면 다음과 같다.
본 발명의 일 실시 예에 따른 펄스 위상 이동 방식은 3차원 거리측정 카메라(10)와 피사체 간의 거리를 물리적으로 변경시키지 않고 피사체에 조사되는 펄스의 위상을 이동시켜 실제 피사체에 반사되어 되돌아오는 시간을 변화시킨다. 이와 같은 원리를 이용하면 물리적인 위치 이동 없이도 3차원 거리측정 카메라(10)와 피사체 간의 거리를 변화시켜 측정한 효과를 볼 수 있다.
TOF 카메라를 포함하는 3차원 거리측정 카메라(10)의 최대측정거리(측정범위)는 광출력에 사용되는 변조주파수에 따라 결정되며, 그 변조 주파수의 한 주기의 시간을 실제거리와 정합시킬 수 있으며, 아래 수식 1로 최대측정거리(측정범위)를 구할 수 있다.
[수식 1]
최대측정거리(측정범위) = C/(2f), C(광속) = 3*1011mm, f는 변조주파수
변조주파수(f)의 한 주기 시간은 실제 거리에 정합되며 도 8에 예시된 바와 같이, 펄스 위상을 T/4만큼 이동시키면 측정범위의 1/4만큼 이동한다.
예를 들어, 변조주파수가 50MHz인 경우, 측정범위는 3000mm가 되며, T/4만큼 펄스 위상을 이동시키면 측정범위의 1/4인 750mm만큼 이동된다.
이와 같은 원리로 한 주기 T를 등 간격으로 이동시켜 그때 측정된 위상값을 측정하면 종래 기술에 따라 스테이지를 이용한 것과 유사한 효과를 얻을 수 있다.
본 발명의 이러한 구성에 따르면, 피사체로부터 반사된 광, 즉, 반사광 펄스가 수광부(300)를 구성하는 이미지센서에서 포화되지 않는 1~2미터 정도의 특정 지점에 카메라를 고정시켜 사용하므로 스테이지를 사용하여 카메라의 위치를 물리적으로 이동시키는 종래 기술에 비해 공간제약이 없다는 장점이 있다.
또한, 본 발명은 카메라를 피사체로부터 실제 측정거리만큼 이동시키는 스테이지를 사용하지 않고 피사체에 조사될 광원의 위상을 이동시킬 수 있는 장치를 카메라 내부나 외부에 장착하므로 생산에 필요한 설비비용이 거의 발생하지 않는다는 장점이 있다.
예를 들어, 제어부(150)는 3차원 거리측정 카메라(10)에 FPGA IP(Field Programmable Gate Array Intellectual Property)로 내장되거나 3차원 거리측정 카메라(10)의 외부에 구비되어 거리오차 보정 작업을 수행하는 경우 3차원 거리측정 카메라(10)에 연결되도록 구성될 수 있다.
발광 단계(S20)에서는, 발광부(200)가 위상이 조절된 출력광 펄스를 피사체로 출력하는 과정이 수행된다.
수광 단계(S30)에서는, 수광부(300)가 피사체에서 반사되는 반사광 펄스를 수신하는 과정이 수행된다.
거리오차 보정값 계산/저장단계(S40)에서는, 제어부(150)가 출력광 펄스의 조절된 위상을 추정실제거리에 대응되도록 매핑(mapping)하고, 출력광 펄스의 출력시점과 반사광 펄스의 수신시점의 시차를 이용하여 측정거리를 계산하고, 추정실제거리와 측정거리의 차이를 보정하기 위한 거리오차 보정값을 계산하여 저장하는 과정이 수행된다.
예를 들어, 거리오차 보정값 계산/저장단계(S40)에서, 제어부(150)는 거리오차 보정값을 룩업 테이블(look-up table) 형식으로 저장할 수 있다.
측정종료여부 판단단계(S50)에서는, 제어부(150)가 출력광 펄스의 위상이 미리 설정된 종료기준위상과 동일한지 여부를 기준으로 측정종료여부를 판단하는 과정이 수행된다.
예를 들어, 측정종료여부 판단단계(S50)에서의 판단결과 출력광 펄스의 위상이 종료기준위상과 동일하지 않은 경우, 위상 조절 단계(S10)로 전환되도록 구성될 수 있다.
예를 들어, 위상 조절 단계(S10), 발광 단계(S20), 수광 단계(S30), 거리오차 보정값 계산/저장단계(S40) 및 측정종료여부 판단단계(S50)는 3차원 거리측정 카메라(10)의 위치가 물리적으로 고정된 상태에서 수행될 수 있다.
도 9는 본 발명의 일 실시 예에 따라 비선형 거리 오차가 보정되지 않은 경우의 측정 데이터를 나타낸 도면이고, 도 10은 본 발명의 일 실시 예에 따라 비선형 거리 오차가 보정된 경우의 측정 데이터를 나타낸 도면이다.
도 9 및 도 10을 추가로 참조하면, 본 발명의 일 실시 예에 따라 3차원 거리측정 카메라의 위치를 물리적으로 이동시키지 않고 실제거리에 대응하도록 위상을 이동시키는 경우에도, 도 3 및 도 4에 개시된 종래 기술에 따라 카메라와 피사체와의 거리를 변경시키기 위해 스테이지를 사용하는 방식과 유사하거나 동등한 수준의 거리오차 보정이 가능하다는 것을 확인할 수 있다.
이상에서 상세히 설명한 바와 같이 본 발명에 따르면, 3차원 거리측정 카메라(10)의 비선형 거리 오차 보정을 고정된 위치에서 펄스 위상 이동방식을 통해 수행함으로써, 3차원 거리측정 카메라(10)의 비선형 거리 오차를 보정하는 과정에서 발생하는 공간제약성을 극복할 수 있고, 오차 보정을 위해 요구되는 설비비용을 줄일 수 있고, 오차 보정 시간을 단축시킬 수 있는 효과가 있다.
또한, 본 발명의 펄스 위상 이동 방식을 이용한 비선형 거리 오차 보정 방법은 피사체로부터 반사된 광이 센서 면에서 포화되지 않는 1~2미터 정도의 공간에 카메라를 고정시켜 사용하므로 종래 방법에 비해 공간제약이 없다는 효과가 있다.
또한, 본 발명은 카메라를 피사체로부터 실제 측정거리만큼 이동시키는 스테이지를 사용하지 않고 피사체에 조사될 광원의 위상을 이동시킬 수 있는 장치를 카메라 내부나 외부에 장착하므로 생산에 필요한 설비비용이 거의 발생하지 않는다는 효과가 있다.
또한, 본 발명은 실제 위치가 이동되지 않고 고정된 위치에서 펄스의 위상만 변화시켜 측정 데이터를 수집하므로 종래 기술에 비하여 오차 보정 시간이 크게 단축되는 효과가 있다.
[도면 부호의 설명]
10: 3차원 거리측정 카메라
100: 제어부
200: 발광부
300: 수광부
S10: 위상 조절 단계
S20: 발광 단계
S30: 수광 단계
S40: 거리오차 보정값 계산/저장단계
S50: 측정종료여부 판단단계

Claims (6)

  1. 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법으로서,
    제어부가 발광부에 의해 출력되는 출력광 펄스의 위상을 조절하는 위상 조절 단계;
    상기 발광부가 상기 위상이 조절된 출력광 펄스를 피사체로 출력하는 발광 단계;
    수광부가 상기 피사체에서 반사되는 반사광 펄스를 수신하는 수광 단계; 및
    상기 제어부가 상기 출력광 펄스의 조절된 위상을 추정실제거리에 대응되도록 매핑(mapping)하고, 상기 출력광 펄스의 출력시점과 상기 반사광 펄스의 수신시점의 시차를 이용하여 측정거리를 계산하고, 상기 추정실제거리와 상기 측정거리의 차이를 보정하기 위한 거리오차 보정값을 계산하여 저장하는 거리오차 보정값 계산/저장단계를 포함하는, 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법.
  2. 제1항에 있어서,
    상기 거리오차 보정값 계산/저장단계 이후, 상기 제어부가 상기 출력광 펄스의 위상이 미리 설정된 종료기준위상과 동일한지 여부를 기준으로 측정종료여부를 판단하는 측정종료여부 판단단계를 더 포함하고,
    상기 측정종료여부 판단단계에서의 판단결과 상기 출력광 펄스의 위상이 상기 종료기준위상과 동일하지 않은 경우, 상기 위상 조절 단계로 전환되는 것을 특징으로 하는, 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법.
  3. 제1항에 있어서,
    상기 위상 조절 단계에서,
    상기 제어부는 상기 출력광 펄스의 위상을 상기 출력광 펄스의 주기를 등 간격(equidistant interval)으로 분할한 값만큼 지연시키는 것을 특징으로 하는, 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법.
  4. 제2항에 있어서,
    상기 거리오차 보정값 계산/저장단계에서,
    상기 제어부는 상기 거리오차 보정값을 룩업 테이블(look-up table) 형식으로 저장하는 것을 특징으로 하는, 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법.
  5. 제2항에 있어서,
    상기 위상 조절 단계, 상기 발광 단계, 상기 수광 단계, 상기 거리오차 보정값 계산/저장단계 및 상기 측정종료여부 판단단계는 상기 3차원 거리측정 카메라의 위치가 고정된 상태에서 수행되는 것을 특징으로 하는, 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법.
  6. 제1항에 있어서,
    상기 제어부는 상기 3차원 거리측정 카메라에 FPGA IP(Field Programmable Gate Array Intellectual Property)로 내장되거나 상기 3차원 거리측정 카메라의 외부에 구비되어 상기 3차원 거리측정 카메라에 연결되는 것을 특징으로 하는, 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법.
PCT/KR2019/017174 2018-12-26 2019-12-06 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법 WO2020138754A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/309,870 US20220075039A1 (en) 2018-12-26 2019-06-12 Method for correcting nonlinear distance error of 3-dimensional distance measuring camera by using pulse phase shift
DE112019006405.3T DE112019006405T5 (de) 2018-12-26 2019-12-06 Verfahren zur korrektur eines nichtlinearen abstandsfehlers einer dreidimensionalen abstandsmesskamera mittels pulsphasenverschiebung
CN201980085852.6A CN113227828B (zh) 2018-12-26 2019-12-06 利用脉冲相移的三维距离测量照相机的非线性距离误差校正方法
JP2021537890A JP7109676B2 (ja) 2018-12-26 2019-12-06 パルス位相シフトを利用した三次元距離測定カメラの非線形距離誤差補正方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180169224A KR102196035B1 (ko) 2018-12-26 2018-12-26 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법
KR10-2018-0169224 2018-12-26

Publications (1)

Publication Number Publication Date
WO2020138754A1 true WO2020138754A1 (ko) 2020-07-02

Family

ID=71129797

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/017174 WO2020138754A1 (ko) 2018-12-26 2019-12-06 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법

Country Status (6)

Country Link
US (1) US20220075039A1 (ko)
JP (1) JP7109676B2 (ko)
KR (1) KR102196035B1 (ko)
CN (1) CN113227828B (ko)
DE (1) DE112019006405T5 (ko)
WO (1) WO2020138754A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4063904A1 (en) * 2021-03-22 2022-09-28 Ricoh Company, Ltd. Distance measurement apparatus and distance measurement method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102591863B1 (ko) * 2021-11-30 2023-10-26 (주)미래컴퍼니 3차원 거리측정 카메라의 성능 평가 장치
KR20240065866A (ko) 2022-11-07 2024-05-14 한화오션 주식회사 가상 모델을 활용한 영상 기반 3d 거리 측정 시스템 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012137478A (ja) * 2010-12-10 2012-07-19 Rcs:Kk 距離測定装置および距離補正手段
KR20130129861A (ko) * 2012-05-21 2013-11-29 지멘스 악티엔게젤샤프트 다차원, 공간 선택적 무선 주파수 여기 펄스들에서의 위상 에러들을 보정하는 방법, 및 자기 공명 시스템
KR20140062720A (ko) * 2012-11-15 2014-05-26 삼성전자주식회사 적외선 반사도에 따른 깊이 오차를 보정하는 3d 카메라 및 그 방법
JP2016095298A (ja) * 2014-10-24 2016-05-26 アナログ・デバイシズ・インコーポレーテッド 飛行時間カメラの位相整列誤差の能動的補償
JP2016142534A (ja) * 2015-01-29 2016-08-08 シャープ株式会社 距離測定装置

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3975731A (en) * 1974-12-10 1976-08-17 Grumman Aerospace Corporation Airborne positioning system
KR950019661A (ko) * 1993-12-29 1995-07-24 김주용 광학식 거리측정 장치의 거리오차 조정장치 및 그 방법
DE19521771A1 (de) * 1995-06-20 1997-01-02 Jan Michael Mrosik FMCW-Abstandsmeßverfahren
CN1172967A (zh) * 1996-08-02 1998-02-11 中国科学院长春光学精密机械研究所 测量相机内方位元素测试仪
US6052190A (en) * 1997-09-09 2000-04-18 Utoptics, Inc. Highly accurate three-dimensional surface digitizing system and methods
JP2001153624A (ja) * 1999-11-24 2001-06-08 Asahi Optical Co Ltd 3次元画像入力装置
JP2003255218A (ja) * 2002-03-05 2003-09-10 Olympus Optical Co Ltd 測距装置のための調整装置
EP1645890A1 (de) * 2004-10-09 2006-04-12 Leica Geosystems AG Distanzmessverfahren mit Bestimmung eines nichtidealen Chirpverlaufs
JP2006126008A (ja) * 2004-10-28 2006-05-18 Nippon Telegr & Teleph Corp <Ntt> 光パルスの瞬時強度位相計測方法および装置
JP4878127B2 (ja) * 2005-06-10 2012-02-15 株式会社トプコン 時間差測定装置および距離測定装置並びに距離測定方法
JP4855749B2 (ja) * 2005-09-30 2012-01-18 株式会社トプコン 距離測定装置
JP4893202B2 (ja) * 2006-09-28 2012-03-07 沖電気工業株式会社 光時分割多重差動位相変調信号生成装置
CN101216562A (zh) * 2007-01-05 2008-07-09 薛志强 激光测距系统
EP2128588B1 (en) * 2007-02-28 2013-04-10 Nippon Telegraph and Telephone Corporation Optical refractometry measuring method and device
JP5173017B2 (ja) * 2008-03-20 2013-03-27 トリムブレ、アクチボラグ 効率が向上した測地スキャナ
EP2264481A1 (en) * 2009-06-04 2010-12-22 IEE International Electronics & Engineering S.A. Method and device for acquiring a range image
US8174949B2 (en) * 2009-07-02 2012-05-08 Lsi Corporation Systems and methods for format efficient timing recovery in a read channel
DE102010014385B4 (de) * 2010-04-06 2011-12-08 Wafios Ag Verfahren und Vorrichtung zur Herstellung von Schraubenfedern durch Federwinden, sowie Federwindemaschine
US8587771B2 (en) * 2010-07-16 2013-11-19 Microsoft Corporation Method and system for multi-phase dynamic calibration of three-dimensional (3D) sensors in a time-of-flight system
JP5602554B2 (ja) * 2010-09-21 2014-10-08 日本信号株式会社 光測距装置
DE102010041999A1 (de) * 2010-10-05 2012-04-05 Robert Bosch Gmbh Verfahren und Vorrichtung zum Korrigieren einer Sensorgröße eines Sensors und zum Betreiben einer Regelung für ein Stellglied
US8619239B2 (en) * 2011-01-28 2013-12-31 Analog Modules Inc. Accuracy of a laser rangefinder receiver
JP5812713B2 (ja) * 2011-06-20 2015-11-17 三菱電機株式会社 レーザ測距装置
JP2014159994A (ja) * 2013-02-19 2014-09-04 Panasonic Corp 距離測定装置
KR101465036B1 (ko) * 2013-03-18 2014-11-25 박찬수 피사체의 표면 밝기에 따른 오차 보정이 가능한 거리측정 장치 및 방법
DE102014205585B4 (de) * 2013-03-28 2016-02-25 Pmdtechnologies Gmbh Verfahren zum Betreiben einer Lichtlaufzeitkamera und Lichtlaufzeitkamerasystem
JP2014204451A (ja) * 2013-04-01 2014-10-27 三菱電機株式会社 車両用発電電動機の制御装置およびその方法
WO2014208018A1 (ja) * 2013-06-26 2014-12-31 パナソニックIpマネジメント株式会社 測距システム
DE102014013099B4 (de) * 2014-09-03 2019-11-14 Basler Aktiengesellschaft Verfahren und Vorrichtung zur vereinfachten Erfassung eines Tiefenbildes
US9823352B2 (en) * 2014-10-31 2017-11-21 Rockwell Automation Safety Ag Absolute distance measurement for time-of-flight sensors
KR102144539B1 (ko) 2014-11-05 2020-08-18 주식회사 히타치엘지 데이터 스토리지 코리아 거리 측정 장치
JP2016170053A (ja) * 2015-03-13 2016-09-23 オムロンオートモーティブエレクトロニクス株式会社 レーザレーダ装置
KR20170051752A (ko) 2015-10-30 2017-05-12 현대위아 주식회사 Tof 카메라 제어방법
JP6626132B2 (ja) * 2016-02-09 2019-12-25 富士フイルム株式会社 距離画像取得装置及びその応用
JP2017150893A (ja) * 2016-02-23 2017-08-31 ソニー株式会社 測距モジュール、測距システム、および、測距モジュールの制御方法
CN107514983B (zh) * 2016-08-16 2024-05-10 上海汇像信息技术有限公司 一种基于三维测量技术测量物体表面积的系统及方法
CN106643979A (zh) * 2016-12-23 2017-05-10 重庆川仪自动化股份有限公司 一种导波雷达物位计测量值的自动补偿方法及装置
CN107144850A (zh) * 2017-03-23 2017-09-08 苏州矗联电子技术有限公司 一种高精度、宽量程的测距方法及系统
KR101926405B1 (ko) * 2017-05-23 2018-12-07 (주) 루리텍 거리 측정 카메라 거리의 측정 오차 보정 장치
KR101974875B1 (ko) * 2017-05-23 2019-05-03 (주) 루리텍 가변형 거리 측정 카메라의 거리 측정 오차 보정 장치
EP3415950B1 (de) * 2017-06-13 2020-05-27 Hexagon Technology Center GmbH Distanzmesser mit spad-anordnung und range walk kompensation
KR102111539B1 (ko) * 2017-11-29 2020-05-19 에이테크솔루션(주) TOF(Time-Of-Flight) 카메라를 이용한 거리 측정 장치 및 방법
CN208255413U (zh) * 2018-05-15 2018-12-18 湖北秉正讯腾科技有限公司 集成相位补偿校正控制器的ToF飞行时间三维测距传感器
CN109031253A (zh) * 2018-08-27 2018-12-18 森思泰克河北科技有限公司 激光雷达标定系统及标定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012137478A (ja) * 2010-12-10 2012-07-19 Rcs:Kk 距離測定装置および距離補正手段
KR20130129861A (ko) * 2012-05-21 2013-11-29 지멘스 악티엔게젤샤프트 다차원, 공간 선택적 무선 주파수 여기 펄스들에서의 위상 에러들을 보정하는 방법, 및 자기 공명 시스템
KR20140062720A (ko) * 2012-11-15 2014-05-26 삼성전자주식회사 적외선 반사도에 따른 깊이 오차를 보정하는 3d 카메라 및 그 방법
JP2016095298A (ja) * 2014-10-24 2016-05-26 アナログ・デバイシズ・インコーポレーテッド 飛行時間カメラの位相整列誤差の能動的補償
JP2016142534A (ja) * 2015-01-29 2016-08-08 シャープ株式会社 距離測定装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4063904A1 (en) * 2021-03-22 2022-09-28 Ricoh Company, Ltd. Distance measurement apparatus and distance measurement method

Also Published As

Publication number Publication date
CN113227828A (zh) 2021-08-06
JP7109676B2 (ja) 2022-07-29
KR20200079743A (ko) 2020-07-06
CN113227828B (zh) 2024-04-16
KR102196035B1 (ko) 2020-12-29
JP2022517737A (ja) 2022-03-10
US20220075039A1 (en) 2022-03-10
DE112019006405T5 (de) 2021-10-28

Similar Documents

Publication Publication Date Title
WO2020138754A1 (ko) 펄스 위상 이동을 이용한 3차원 거리측정 카메라의 비선형 거리 오차 보정 방법
WO2012050378A2 (ko) 기판 검사방법
KR20110134842A (ko) 비행 시간 이미저
US8772731B2 (en) Apparatus and method for synchronizing sample stage motion with a time delay integration charge-couple device in a semiconductor inspection tool
WO2016145582A1 (zh) 相位偏移校准方法、3d形状检测的方法、系统及投影系统
US6739516B2 (en) Distance information acquisition apparatus or system, pattern projector, and distance information acquisition method
CN112365546B (zh) Tof相机标定方法、系统及标定箱体
WO2011068268A1 (ko) 엘이디 검사방법
JP2002524884A (ja) 電気的な構成群の製作装置に設けられた保持装置の移動距離及び/又は角度位置を校正するための方法及び装置並びに校正基板
WO2020130440A1 (ko) 3차원 거리측정 카메라
JP2012132727A (ja) 三次元計測装置及び三次元計測方法
CN108387176B (zh) 一种激光振镜重复定位精度的测量方法
TWI613416B (zh) 三維測量裝置
WO2011071313A2 (ko) 텍스쳐 영상과 깊이 영상을 추출하는 장치 및 방법
WO2021118279A1 (en) Electronic apparatus and method for controlling thereof
WO2013180394A1 (ko) 단일주기격자를 이용한 멀티 모아레 비전검사장치
CN110161484B (zh) 距离补偿查找表建立方法及装置、距离补偿方法及装置
WO2014046325A1 (ko) 3차원 계측 시스템 및 그 방법
WO2021210737A1 (ko) Led 헤드 램프 연동 자동차 라이다 시스템
WO2017119547A1 (ko) 신호간섭검출장치 및 방법
WO2017104905A1 (ko) 광 전송 지연 보상 방법 및 장치
WO2020045932A1 (ko) 영상 처리 장치 및 영상 처리 방법
JP2017122641A (ja) 三次元計測装置
WO2016093415A1 (ko) 거리 측정 장치 및 거리 측정 방법
CN112198494A (zh) 飞行时间模组标定方法、装置、系统及终端设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19904580

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021537890

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19904580

Country of ref document: EP

Kind code of ref document: A1