WO2019212065A1 - 다중 라이다 신호 보정 방법 및 시스템 - Google Patents

다중 라이다 신호 보정 방법 및 시스템 Download PDF

Info

Publication number
WO2019212065A1
WO2019212065A1 PCT/KR2018/004986 KR2018004986W WO2019212065A1 WO 2019212065 A1 WO2019212065 A1 WO 2019212065A1 KR 2018004986 W KR2018004986 W KR 2018004986W WO 2019212065 A1 WO2019212065 A1 WO 2019212065A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor data
sensor
lidar
sensors
detection
Prior art date
Application number
PCT/KR2018/004986
Other languages
English (en)
French (fr)
Inventor
권진산
김동순
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Publication of WO2019212065A1 publication Critical patent/WO2019212065A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Definitions

  • the present invention relates to sensor signal processing techniques and to a method for correcting distortion of distance values measured by a plurality of lidar sensors.
  • Lidar sensor used for autonomous vehicles, spatial surveying, object detection, etc., measures the time it takes for the laser light emitted from the laser light emitting unit mounted inside the sensor to reach the light receiving unit Calculate the unit in centimeters.
  • the resolution of the Lidar sensor is determined according to the number of channels. Using a lidar sensor with a resolution, or by operating a plurality of lidar sensors at the same time to fill the resolution and rectangular area required in the application scenario.
  • time and space synchronization is performed so that all the lidar sensors simultaneously fire a laser at a specific time using visual information transmitted from a GPS satellite, but there is a problem that cannot be used in a situation where GPS satellite signal reception is impossible.
  • the present invention has been made to solve the above problems, and an object of the present invention is to provide a method and system for correcting parallax in addition to three-dimensional spatial correction for lidar signals received from a plurality of lidars. In providing.
  • a sensor data correction method comprises the steps of: receiving a plurality of sensor data from a plurality of sensors; Measuring a detection parallax relative to each of the plurality of sensor data; And correcting the plurality of sensor data with reference to the measured parallax.
  • the distortion generated by the movement of the moving body in which the plurality of sensors is installed may be corrected from the detection time of the sensor that first detects the plurality of sensors from the time of detecting the corresponding sensor.
  • R ' may be corrected sensor data
  • R may be sensor data
  • ⁇ t may be a detection parallax of the sensor
  • d may be a distance that a moving body provided with a plurality of sensors is moved during ⁇ t.
  • the sensor data correction method may further include converting the plurality of corrected sensor data into 3D spatial coordinate data.
  • the converting step may be performed by converting the plurality of corrected sensor data using the following equation,
  • may be an azimuth angle and ⁇ may be a launch angle.
  • the measuring step and the correcting step may be repeated periodically.
  • the period may be a measurable period of the sensor.
  • a sensor system a receiver for receiving a plurality of sensor data from a plurality of sensors; And a processor configured to measure a detection parallax relative to each of the plurality of sensor data, and correct the plurality of sensor data with reference to the measured parallax.
  • the lidar signals received from the plurality of lidars are corrected by the parallax in addition to the three-dimensional spatial correction, so that the subject is sharper than the result of performing only the spatial correction.
  • the contour can be measured.
  • FIG. 1 is a block diagram of a multiple lidar system according to an embodiment of the present invention.
  • FIG. 2 is a flowchart provided to explain a multiple lidar signal processing method according to an embodiment of the present invention.
  • the multiple lidar system according to an embodiment of the present invention is a system for processing a plurality of lidar signals required for autonomous driving of a vehicle.
  • the multiple lidar system corrects the distortion based on the object detection parallax of the lidar sensor with respect to the distance values (sensor data) measured by the plurality of lidar sensors. This allows for independent operation without GPS or similar time synchronization system.
  • a multi-lidar system which performs such a function, includes a plurality of lidar sensors 110, a plurality of sensor data receivers 120, a sensor data processor 130, and a controller 140. Is built, including
  • the lidar data generated by the lidar sensors 110 are represented in different three-dimensional spaces.
  • the lidar data generated by the lidar sensors 110 generate deviations due to the movement of the vehicle during the detection parallax.
  • the sensor data receivers 120 receive the lidar sensor data from the lidar sensors 110, respectively.
  • n of the lidar sensors 110 and the sensor data receivers 120 there is no limitation on the number n of the lidar sensors 110 and the sensor data receivers 120. In other words, any number of two or more can be implemented.
  • the sensor data processor 130 corrects the lidar sensor data received from the sensor data receivers 120 based on the detection parallax, and arranges and fuses them in one stereoscopic space.
  • the controller 140 generates control data for the vehicle using the sensor data generated by the sensor data processor 130.
  • FIG. 2 is a flowchart provided to explain a multi-lidar signal correction method according to another embodiment of the present invention.
  • the relative parallax with respect to the received lidar sensor data is measured according to the number of lidar sensors 110 (S240).
  • the sensor signal is output through the correction process S250 for each sensor signal.
  • the space time generation step S220 to the detection data output step S260 are repeated as long as the system operates.
  • the results detected in one iteration are valid only for the spacetime to which the results belong, and the size of the spacetime is determined by the number of measurements per second of the lidar sensor.
  • the space time is set to 1/30 second during the initialization process, and the resolution of the measurement result is n * Even if it does not reach (resolution of one lidar sensor), the detection result is summed and output every 1/30 second.
  • the repetition period in the multiple lidar signal correction method according to an embodiment of the present invention can be determined by the measurable period of the lidar sensor, and in receiving sensor data, space-time is determined according to the resolution of the participating sensor. You will create a new one each time.
  • the sensor data processor 130 is the sensor data The detection parallax relative to each of them is measured (S240).
  • the detection parallax means a difference between the time when the lidar sensor performs the detection from the detection time of the lidar sensor that performs the first detection among the lidar sensors in the space time.
  • the sensor data processor 130 corrects the lidar data received in step S230 with reference to the parallax measured in step S240 (S250).
  • Correction in step S250 is a procedure for correcting the distortion generated in the lidar sensor due to the movement of the vehicle (moving body) during the detection parallax of the lidar sensors 110.
  • Parallax correction is performed using the following formula (1).
  • R ' is the calibrated lidar sensor data (distance)
  • R is the received sensor data (distance)
  • ⁇ t is the detection parallax of the lidar sensor
  • d is the distance traveled by the vehicle on which the plurality of lidar sensors are installed during ⁇ t. to be.
  • the distance traveled by the time difference starting time from the space time start time is increased by the time difference from the space time start time.
  • the plurality of lidar sensor data corrected in step S250 are converted into three-dimensional spatial coordinate data, and output as detection data (S260).
  • step S260 The conversion in step S260 is performed using Equation 2 below.
  • (x, y, z) is the three-dimensional spatial coordinate data
  • R ' is the corrected Lida sensor data (distance)
  • is the azimuth angle of the lidar sensor
  • is the firing angle of the lidar sensor.
  • parallax correction is performed on signals received from a plurality of lidars in addition to three-dimensional spatial correction to measure a sharper object outline than a result of performing only spatial correction.
  • a plurality of low channel lidar sensors can replace bulky expensive high channel lidar sensors, thereby reducing the cost of the lidar application system and reducing the impact on the system appearance design. To make it possible.
  • lidar sensors 110 mentioned in the above embodiment are merely exemplary, which are mentioned as a kind of sensors that are mounted and used in an autonomous vehicle. Therefore, the technical idea of the present invention can be applied to other types of sensors or sensors used in general vehicles other than autonomous vehicles.
  • the present invention by receiving a signal from a plurality of lidar sensors at the same time, it is possible to fuse the three-dimensional space defined separately for each sensor, which is a three-dimensional space fused from a plurality of low-channel lidar sensor Has the same effect as the stereoscopic space received from the high-channel lidar sensor.
  • the technical idea of the present invention can be applied to a computer-readable recording medium containing a computer program for performing the functions of the apparatus and method according to the present embodiment.
  • the technical idea according to various embodiments of the present disclosure may be implemented in the form of computer readable codes recorded on a computer readable recording medium.
  • the computer-readable recording medium can be any data storage device that can be read by a computer and can store data.
  • the computer-readable recording medium may be a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical disk, a hard disk drive, or the like.
  • the computer-readable code or program stored in the computer-readable recording medium may be transmitted through a network connected between the computers.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

다중 라이다 신호 보정 방법 및 시스템이 제공된다. 본 발명의 실시예에 따른 센서 데이터 보정 방법은, 복수의 센서들로부터 복수의 센서 데이터들을 수신하고, 복수의 센서 데이터들 각각에 대한 상대적인 검출 시차를 측정하며, 측정된 시차를 참조하여 복수의 센서 데이터들을 보정한다. 이에 의해, 복수 개의 라이다들로부터 수신한 라이다 신호들에 대해, 3차원 공간 보정 외에 추가로 시차를 보정함으로써, 공간 보정만 수행한 결과보다 더 선명한 피사체 윤곽을 측정할 수 있게 된다.

Description

다중 라이다 신호 보정 방법 및 시스템
본 발명은 센서 신호 처리 기술에 관한 것으로, 복수의 라이다 센서로 측정한 거리 값의 왜곡을 보정하기 위한 방법에 관한 것이다.
자율주행차량, 공간측량, 물체 검지 등의 목적으로 사용되는 라이다(Lidar) 센서는, 센서 내부에 장착된 레이저 발광부에서 발사된 레이저가 수광부까지 도달하는 데 걸리는 시간을 측정하여 피사체까지의 거리를 센티미터 단위로 계산한다.
따라서, 센서의 발광부 개수(채널)가 많을수록 피사체에서 반사된 신호가 풍부해지므로 채널 수에 따라 라이다 센서의 해상도가 결정되는데, 이것이 높을수록 피사체의 정확한 윤곽을 측정할 수 있기에 통상적으로는 높은 해상도를 지닌 라이다 센서를 사용하거나, 복수 개의 라이다 센서를 동시에 운용하여 응용 시나리오에서 요구되는 해상도 및 사각 영역을 채우고 있다.
한편, 동일한 피사체에 대해 복수 개의 레이저를 발사하여 복수 개의 수광부로 신호가 측정되는 경우, 각 라이다 센서 발광부의 상대적인 위치와 각도 보정만으로도 정확한 윤곽을 얻을 수 있으나, 차량, 무인항공기 등 센서가 탑재된 플랫폼이 움직이는 경우, 동일한 피사체 위치에 대해 복수 개의 발광부에서 레이저를 발사하였을 때, 각 발광부의 레이저 발사 시각에 따라 시차를 두고 각각의 수광부로 도착하게 된다.
이는 라이다로 검출된 피사체의 모습을 흐리게 만드는 원인이 되며, 플랫폼의 이동 속도가 빠를수록 피사체 초점 흐림 현상은 더욱 심해진다.
이를 해결하기 위해 GPS 위성에서 송신되는 시각 정보를 이용하여, 특정 시간에 모든 라이다 센서가 동시에 레이저를 발사하도록 시공간 동기화를 하고 있으나, GPS 위성 신호 수신이 불가능한 상황에서는 사용할 수 없는 문제가 있다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 복수 개의 라이다들로부터 수신한 라이다 신호들에 대해, 3차원 공간 보정 외에 추가로 시차를 보정하는 방법 및 시스템을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 센서 데이터 보정 방법은, 복수의 센서들로부터 복수의 센서 데이터들을 수신하는 단계; 복수의 센서 데이터들 각각에 대한 상대적인 검출 시차를 측정하는 단계; 측정된 시차를 참조하여, 복수의 센서 데이터들을 보정하는 단계;를 포함한다.
그리고, 보정 단계는, 복수의 센서들의 최초로 검출을 수행한 센서의 검출 시간으로부터 해당 센서가 검출을 수행한 시간의 차이 동안 복수의 센서들이 설치된 이동체의 이동에 의해 발생하는 왜곡을 보정할 수 있다.
또한, 보정 단계는, 다음의 수학식을 이용하여, 복수의 센서 데이터들을 보정하고,
Figure PCTKR2018004986-appb-I000001
여기서, R'은 보정된 센서 데이터, R은 센서 데이터, Δt는 센서의 검출 시차, d는 Δt 동안 복수의 센서들이 설치된 이동체가 이동한 거리일 수 있다.
그리고, 본 발명의 일 실시예에 따른 센서 데이터 보정 방법은, 보정된 복수의 센서 데이터들을 3차원 공간좌표 데이터들로 변환하는 단계;를 더 포함할 수 있다.
또한, 변환 단계는, 다음의 수학식을 이용하여, 보정된 복수의 센서 데이터들을 변환하고,
Figure PCTKR2018004986-appb-I000002
ω는 방위각, α는 발사각일 수 있다.
그리고, 수신 단계는, 측정 단계 및 보정 단계는, 주기적으로 반복될 수 있다.
또한, 주기는, 센서의 측정 가능 주기일 수 있다.
한편, 본 발명의 다른 실시예에 따른, 센서 시스템은, 복수의 센서들로부터 복수의 센서 데이터들을 수신하는 수신부; 복수의 센서 데이터들 각각에 대한 상대적인 검출 시차를 측정하고, 측정된 시차를 참조하여, 복수의 센서 데이터들을 보정하는 처리부;를 포함한다.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 복수 개의 라이다들로부터 수신한 라이다 신호들에 대해, 3차원 공간 보정 외에 추가로 시차를 보정함으로써, 공간 보정만 수행한 결과보다 더 선명한 피사체 윤곽을 측정할 수 있게 된다.
또한, 본 발명의 실시예들에 따르면, 여러 대의 저 채널 라이다 센서로 부피가 큰 고가의 고 채널 라이다 센서를 대체할 수 있으므로, 라이다 응용 시스템의 단가를 절감하고 시스템 외형 디자인에 주는 영향을 줄일 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른 다중 라이다 시스템의 블럭도,
도 2는 본 발명의 일 실시예에 따른 다중 라이다 신호 처리 방법의 설명에 제공되는 흐름도이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 다중 라이다 시스템의 블럭도이다. 본 발명의 실시예에 따른 다중 라이다 시스템은, 차량의 자율주행을 위해 필요한 복수의 라이다 신호들을 처리하기 위한 시스템이다.
정확한 처리를 위하여, 본 발명의 실시예에 따른 다중 라이다 시스템은, 복수 개의 라이다 센서에서 측정된 거리 값(센서 데이터)에 대해 라이다 센서의 피사체 검출 시차를 기반으로 왜곡을 보정한다. 이에 의해, GPS 또는 이와 비슷한 시간 동기화 시스템 없이 독립적인 운용을 가능하게 한다.
이와 같은 기능을 수행하는, 본 발명의 실시예에 따른 다중 라이다 시스템은, 복수의 라이다 센서들(110), 복수의 센서 데이터 수신부들(120), 센서 데이터 처리부(130) 및 제어부(140)를 포함하여 구축된다.
라이다 센서들(110)은 차량의 각기 다른 위치들에 개별적으로 설치되므로, 라이다 센서들(110)에서 생성되는 라이다 데이터들은 각기 다른 입체공간들에서 표현된다.
또한, 라이다 센서들(110)은 순차적으로 시차를 두고 검출을 수행하기 때문에, 라이다 센서들(110)에서 생성되는 라이다 데이터들은 검출 시차 동안 차량의 이동에 의한 편차들이 생긴다.
센서 데이터 수신부들(120)은 라이다 센서들(110)로부터 라이다 센서 데이터들을 각각 수신한다.
라이다 센서들(110)과 센서 데이터 수신부들(120)의 개수(n)에 대한 제한은 없다. 즉, 2개 이상의 복수라면, 몇 개로도 구현 가능하다.
센서 데이터 처리부(130)는 센서 데이터 수신부들(120)로부터 수신한 라이다 센서 데이터들을 검출 시차 기반으로 보정한 후 하나의 입체공간에 배열하여 융합한다.
제어부(140)는 센서 데이터 처리부(130)에서 생성된 센서 데이터를 이용하여 차량에 대한 제어 데이터를 생성한다.
이하에서는, 도 1에 도시된 다중 라이다 시스템에 의한 라이다 신호 보정 과정에 대해 도 2를 참조하여 상세히 설명한다. 도 2는 본 발명의 다른 실시예에 따른 다중 라이다 신호 보정 방법의 설명에 제공되는 흐름도이다.
본 발명의 실시예에 따른 다중 라이다 신호 보정 방법은, 도 2에 도시된 바와 같이, 라이다 센서들(110)의 개수에 따라 수신된 라이다 센서 데이터들에 대한 상대적인 시차를 측정하여(S240), 각 센서 신호들에 대해 보정 과정(S250)을 거쳐 검출 결과를 출력한다(S260).
이때, 시공간 생성 단계(S220)부터 검출 데이터 출력단계(S260)까지는, 시스템이 동작하는 한 계속하여 반복한다. 하나의 반복에서 검출된 결과는 그 결과가 속한 시공간 동안만 유효하며, 해당 시공간의 크기는 라이다 센서의 초당 측정 횟수에 따라 정해진다.
가령, 하나의 라이다 센서가 1초 당 30회의 측정이 가능하고, 동시에 연결되는 라이다 센서의 개수가 n개일 때, 초기화 과정에서 시공간은 1/30초로 결정되며, 측정 결과의 해상도가 n * (라이다 센서 1기의 해상도)에 도달하지 않더라도 1/30초마다 검출 결과를 종합하여 출력한다.
즉, 본 발명의 실시예에 따른 다중 라이다 신호 보정 방법에서의 반복 주기는, 라이다 센서의 측정 가능 주기에 의해 결정된다고 볼 수 있으며, 센서 데이터 수신에 있어서는 참여하는 센서의 해상도에 따라 시공간을 매 회 새로이 생성하게 된다.
초기화 단계(S210)와 초기 시공간 생성이 완료되고(S220), 센서 데이터 수신부들(120)이 라이다 센서들(110)로부터 센서 데이터들을 수신하면(S230), 센서 데이터 처리부(130)는 센서 데이터들 각각에 대한 상대적인 검출 시차를 측정한다(S240).
여기서, 검출 시차란, 해당 시공간에서 라이다 센서들 중 최초로 검출을 수행한 라이다 센서의 검출 시간으로부터 해당 라이다 센서가 검출을 수행한 시간의 차이를 의미한다.
다음, 센서 데이터 처리부(130)는 S240단계에서 측정된 시차를 참조하여, S230단계에서 수신된 라이다 데이터들을 보정한다(S250).
S250단계에서의 보정은, 라이다 센서들(110)의 검출 시차 동안 차량(이동체)가 이동함으로 인해 해당 라이다 센서에서 발생하게 되는 왜곡을 보정하기 위한 절차이다.
시차 보정은, 다음의 수학식 1을 이용하여 수행된다.
[수학식 1]
Figure PCTKR2018004986-appb-I000003
여기서, R'은 보정된 라이다 센서 데이터(거리), R은 수신된 센서 데이터(거리), Δt는 라이다 센서의 검출 시차, d는 Δt 동안 복수의 라이다 센서들이 설치된 차량이 이동한 거리이다.
이에 의해, 라이다 센서 해상도의 역수인 시공간 내에서, 각각의 라이다 센서로부터 수신된 라이다 데이터는 시공간 시작 시간으로부터 경과한 시차(Δt)만큼 이동한 거리가 보정된다.
다음, S250단계에서 보정된 복수의 라이다 센서 데이터들을 3차원 공간좌표 데이터들로 변환하여, 검출 데이터로 출력한다(S260).
S260단계에서의 변환은, 다음의 수학식 2를 이용하여 수행된다.
[수학식 2]
Figure PCTKR2018004986-appb-I000004
여기서, (x,y,z)는 3차원 공간좌표 데이터들, R'은 보정된 라이다 센서 데이터(거리), ω는 라이다 센서의 방위각, α는 라이다 센서의 발사각이다.
지금까지, 자율 주행 차량을 위한 다중 라이다 시스템 및 이에 의한 라이다 데이터 보정 방법에 대해 바람직한 실시예를 들어 상세히 설명하였다.
본 발명의 실시예에서는, 복수 개의 라이다로부터 수신한 신호에 대해, 3차원 공간 보정 외에 추가로 시차 보정을 수행하여, 공간 보정만 수행한 결과보다 더 선명한 피사체 윤곽을 측정할 수 있도록 하였다.
또한, 본 발명의 실시예에서는, 여러 대의 저 채널 라이다 센서로 부피가 큰 고가의 고 채널 라이다 센서를 대체할 수 있으므로, 라이다 응용 시스템의 단가를 절감하고 시스템 외형 디자인에 주는 영향을 줄일 수 있도록 하였다.
그리고, 위 실시예에서 언급한 라이다 센서들(110)은 자율 주행 차량에 장착되어 사용되는 센서들의 일종으로 언급한 예시적인 것에 불과하다. 따라서, 다른 종류의 센서나 자율 주행 차량이 아닌 일반 차량에 이용되는 센서에 대해서도 본 발명의 기술적 사상이 적용될 수 있다.
본 발명의 실시예에 의해, 복수개의 라이다 센서들로부터 동시에 신호를 수신하여, 센서마다 따로 정의된 입체공간을 하나로 융합할 수 있으며, 이는 여러 개의 저채널 라이다 센서로부터 융합된 입체공간은 하나의 고채널 라이다 센서에서 수신한 입체공간과 같은 효과를 가진다.
한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (8)

  1. 복수의 센서들로부터 복수의 센서 데이터들을 수신하는 단계;
    복수의 센서 데이터들 각각에 대한 상대적인 검출 시차를 측정하는 단계;
    측정된 시차를 참조하여, 복수의 센서 데이터들을 보정하는 단계;를 포함하는 것을 특징으로 하는 센서 데이터 보정 방법.
  2. 청구항 1에 있어서,
    보정 단계는,
    복수의 센서들의 최초로 검출을 수행한 센서의 검출 시간으로부터 해당 센서가 검출을 수행한 시간의 차이 동안 복수의 센서들이 설치된 이동체의 이동에 의해 발생하는 왜곡을 보정하는 것을 특징으로 하는 센서 데이터 보정 방법.
  3. 청구항 2에 있어서,
    보정 단계는,
    다음의 수학식을 이용하여, 복수의 센서 데이터들을 보정하고,
    Figure PCTKR2018004986-appb-I000005
    여기서, R'은 보정된 센서 데이터, R은 센서 데이터, Δt는 센서의 검출 시차, d는 Δt 동안 복수의 센서들이 설치된 이동체가 이동한 거리인 것을 특징으로 하는 센서 데이터 보정 방법.
  4. 청구항 3에 있어서,
    보정된 복수의 센서 데이터들을 3차원 공간좌표 데이터들로 변환하는 단계;를 더 포함하는 것을 특징으로 하는 센서 데이터 보정 방법.
  5. 청구항 4에 있어서,
    변환 단계는,
    다음의 수학식을 이용하여, 보정된 복수의 센서 데이터들을 변환하고,
    Figure PCTKR2018004986-appb-I000006
    ω는 방위각, α는 발사각인 것을 특징으로 하는 센서 데이터 보정 방법.
  6. 청구항 1에 있어서,
    수신 단계는, 측정 단계 및 보정 단계는,
    주기적으로 반복되는 것을 특징으로 하는 센서 데이터 보정 방법.
  7. 청구항 7에 있어서,
    주기는,
    센서의 측정 가능 주기인 것을 특징으로 하는 센서 데이터 보정 방법.
  8. 복수의 센서들로부터 복수의 센서 데이터들을 수신하는 수신부;
    복수의 센서 데이터들 각각에 대한 상대적인 검출 시차를 측정하고, 측정된 시차를 참조하여, 복수의 센서 데이터들을 보정하는 처리부;를 포함하는 것을 특징으로 하는 센서 시스템.
PCT/KR2018/004986 2018-04-30 2018-04-30 다중 라이다 신호 보정 방법 및 시스템 WO2019212065A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0049594 2018-04-30
KR1020180049594A KR20190125600A (ko) 2018-04-30 2018-04-30 다중 라이다 신호 보정 방법 및 시스템

Publications (1)

Publication Number Publication Date
WO2019212065A1 true WO2019212065A1 (ko) 2019-11-07

Family

ID=68385959

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/004986 WO2019212065A1 (ko) 2018-04-30 2018-04-30 다중 라이다 신호 보정 방법 및 시스템

Country Status (2)

Country Link
KR (1) KR20190125600A (ko)
WO (1) WO2019212065A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115656082A (zh) * 2022-10-17 2023-01-31 中船重工安谱(湖北)仪器有限公司 视差像素校准系统及其校准方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100157280A1 (en) * 2008-12-19 2010-06-24 Ambercore Software Inc. Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions
JP4645489B2 (ja) * 2006-02-16 2011-03-09 三菱電機株式会社 測位装置
JP2014081871A (ja) * 2012-10-18 2014-05-08 Yamaha Motor Co Ltd 障害物検出装置及びそれを用いた車両
KR101663290B1 (ko) * 2015-03-20 2016-10-07 주식회사 성우모바일 영상과 거리 보정을 통한 주차 보조 시스템
JP2017156306A (ja) * 2016-03-04 2017-09-07 株式会社リコー 距離センサ、走行体、ロボット及び3次元計測装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4645489B2 (ja) * 2006-02-16 2011-03-09 三菱電機株式会社 測位装置
US20100157280A1 (en) * 2008-12-19 2010-06-24 Ambercore Software Inc. Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions
JP2014081871A (ja) * 2012-10-18 2014-05-08 Yamaha Motor Co Ltd 障害物検出装置及びそれを用いた車両
KR101663290B1 (ko) * 2015-03-20 2016-10-07 주식회사 성우모바일 영상과 거리 보정을 통한 주차 보조 시스템
JP2017156306A (ja) * 2016-03-04 2017-09-07 株式会社リコー 距離センサ、走行体、ロボット及び3次元計測装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115656082A (zh) * 2022-10-17 2023-01-31 中船重工安谱(湖北)仪器有限公司 视差像素校准系统及其校准方法
CN115656082B (zh) * 2022-10-17 2023-11-21 中船重工安谱(湖北)仪器有限公司 视差像素校准系统及其校准方法

Also Published As

Publication number Publication date
KR20190125600A (ko) 2019-11-07

Similar Documents

Publication Publication Date Title
US10091492B2 (en) Imaging apparatuses and a time of flight imaging method
WO2017051986A1 (ko) 라이다 센서 장치
CN111915678B (zh) 一种基于深度学习的水下单目视觉目标深度定位融合估计方法
CN102736084B (zh) 使用两个调制光源的用于对象检测系统的方法和设备
CN109901177B (zh) 一种提升激光雷达测距能力的方法及装置
CN111435081B (zh) 海面测量系统、海面测量方法以及存储介质
EP1279312A2 (en) Calibration of positioning systems
CN111352120B (zh) 飞行时间测距系统及其测距方法
US10705195B2 (en) Distance measuring apparatus and distance measuring method
KR102021202B1 (ko) 다중 센서의 단일 3차원 좌표계 통합을 위한 캘리브레이션 방법
CN106289235A (zh) 基于建筑结构图的自主计算精度可控室内定位导航方法
CN109801333A (zh) 体积测量方法、装置、系统及计算设备
WO2019212065A1 (ko) 다중 라이다 신호 보정 방법 및 시스템
KR20140126790A (ko) 무선 센서 네트워크 기반의 위치 추정방법
CN110887486A (zh) 一种基于激光线辅助的无人机视觉导航定位方法
CN111175786A (zh) 一种多路消除串扰的宽视场高分辨率固态激光雷达
KR100901312B1 (ko) 자율이동플랫폼의 지형데이터 생성 장치, 이를 구비하는 자율이동플랫폼 및 자율이동플랫폼의 지형데이터 생성 방법
WO2022114455A1 (ko) 노면 영상정보를 이용한 자율주행 차량의 위치신호 보정장치
CN117250956A (zh) 一种多观测源融合的移动机器人避障方法和避障装置
WO2017119547A1 (ko) 신호간섭검출장치 및 방법
CN112816971B (zh) 分离式mimo雷达波系统中目标位置的估计方法和装置
WO2022114311A1 (ko) 다중 영상을 이용한 라이다 센서 정보 보정 및 업-샘플링 방법 및 장치
CN212721762U (zh) 一种基于距离补偿的红外测温装置
KR101999065B1 (ko) 밀리라디안을 이용한 카메라와 피사체 간의 거리 측정 방법
WO2024123159A1 (ko) 연속적인 rgb-d 프레임 세트를 활용한 고품질 깊이 영상 생성 방법 및 이의 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18917415

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18917415

Country of ref document: EP

Kind code of ref document: A1