WO2018159902A1 - 복수의 라이다 센서 캘리브레이션 방법 및 장치 - Google Patents

복수의 라이다 센서 캘리브레이션 방법 및 장치 Download PDF

Info

Publication number
WO2018159902A1
WO2018159902A1 PCT/KR2017/006888 KR2017006888W WO2018159902A1 WO 2018159902 A1 WO2018159902 A1 WO 2018159902A1 KR 2017006888 W KR2017006888 W KR 2017006888W WO 2018159902 A1 WO2018159902 A1 WO 2018159902A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance information
targets
lidar
lidar sensor
predetermined number
Prior art date
Application number
PCT/KR2017/006888
Other languages
English (en)
French (fr)
Inventor
박태형
김태형
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Publication of WO2018159902A1 publication Critical patent/WO2018159902A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours

Definitions

  • This embodiment relates to a technique for calibrating a plurality of LIDAR (Light Detection And Ranging) sensors.
  • LIDAR Light Detection And Ranging
  • a LIDAR Light Detection And Ranging
  • the lidar sensor has about 100m in the range of obtainable distance information and about ⁇ 3cm in the accuracy of the distance information. Accordingly, the lidar sensor has higher accuracy than other distance sensing devices such as a stereo camera and an ultrasonic sensor.
  • the amount and amount of information available depends on the quantity and location of mounting. Therefore, it is necessary to reduce the measurement limit by distributing a large number of lidar sensors.
  • the effects obtained by distributing multiple lidar sensors are as follows.
  • 1 is a diagram comparing ranges of distance information that can be obtained by a single lidar sensor and a dual lidar sensor, respectively.
  • the dual lidar sensor has a wider range of obtainable distance information. That is, by distributing a plurality of lidar sensors at a certain distance, it is possible to obtain distance information in a wider range.
  • FIG. 2 is a view comparing ranges of viewing angles of distance information obtainable by a single lidar sensor and a dual lidar sensor, respectively.
  • the dual lidar sensor has a wider viewing angle range of obtainable distance information.
  • the blind area caused by mounting of a single lidar sensor is reduced.
  • 3 is a view comparing a short range region of a single lidar sensor and a dual lidar sensor.
  • the number of channels of measurement information is improved in a short range region of the lidar sensor due to overlap of distance information.
  • ICP Intelligent closest points
  • the present embodiment is provided to solve the above problems, and provides a dual lidar sensor calibration method and apparatus capable of reducing calibration execution time and detecting distance information without specifying a target position. There is a purpose.
  • a device disposed within the measurement range of the plurality of lidar sensors Processing distance information for each lidar sensor using a set number of targets; estimating an origin point for the preset number of targets for each lidar sensor using the processed distance information; And performing calibration on an origin of a predetermined number of targets estimated by a lidar sensor.
  • the predetermined number of targets may be implemented in the form of a cone of material that exceeds a predetermined reflectivity.
  • the processing of the distance information may include obtaining distance information including the predetermined number of targets from each lidar sensor, filtering distance information exceeding the reflectivity among the obtained distance information, and filtering the distance information. Clustering the residual distance information for each channel of the plurality of lidar sensors using the remaining residual distance information.
  • the estimating of the origin may include clustering the residual distance information, extracting an ellipse model for each cluster, calculating a midpoint and a radius for the extracted elliptic model, and using the calculated midpoint and the radius for each target. And estimating the origin of each target using a radius of the lower end of each target.
  • the performing of the calibration may include repeatedly matching the origins of a predetermined number of targets estimated by the respective lidar sensors, and including relative distances and angles between the plurality of lidar sensors using the matching result. Generating a transformation matrix, obtaining a relative distance and angle between the plurality of lidar sensors from the generated transformation matrix, and calculating a transformation relationship between the plurality of lidar sensors by applying the relative distance and angle. It can be made, including.
  • an ellipse model for each cluster may be extracted using a random sample consensus (RANSAC) algorithm.
  • RNSAC random sample consensus
  • the origin of the predetermined number of targets may be repeatedly matched using an iterative closest point (ICP) algorithm.
  • ICP iterative closest point
  • a lidar sensor calibration apparatus for calibrating a plurality of lidar sensors according to an embodiment of the present invention
  • a plurality of lidar sensors and a predetermined number of targets disposed within the measurement range of the plurality of lidar sensors and the The distance information is processed for each lidar sensor using a predetermined number of targets, and the origin of the predetermined number of targets is estimated for each lidar sensor using the processed distance information, and the plurality of targets are estimated.
  • a controller for performing calibration on the origins of the three targets estimated in the lidar sensor.
  • the predetermined number of targets may be implemented in the form of a cone of material that exceeds a predetermined reflectivity.
  • the control unit obtains distance information including the predetermined number of targets from each lidar sensor, filters distance information exceeding the reflectivity among the acquired distance information, and uses the remaining distance information that has passed through the filtering.
  • the remaining distance information may be clustered for each channel of the plurality of lidar sensors.
  • the controller After the clustering of the residual distance information, the controller extracts an ellipse model for each cluster, calculates a midpoint and a radius of the extracted elliptic model, estimates the height of each target using the calculated midpoint and the radius, The origin of each target can be estimated using the radius of the lower end of each target.
  • the control unit repeatedly matches the origins of a predetermined number of targets estimated by the respective lidar sensors, and generates a transformation matrix including relative distances and angles between the plurality of lidar sensors using the matching result.
  • the relative distance and angle between the plurality of lidar sensors may be obtained from the generated transformation matrix, and the conversion relationship between the plurality of lidar sensors may be calculated by applying the relative distance and angle.
  • the controller may extract an ellipse model for each cluster using a random sample consensus (RANSAC) algorithm.
  • RANSAC random sample consensus
  • the controller may repeatedly match the origin of the predetermined number of targets using an iterative closest point (ICP) algorithm.
  • ICP iterative closest point
  • the process of detecting distance information corresponding to the target can be simplified and the detection time of the distance information can be shortened. It works. That is, in the present embodiment, the number of distance information required for calibration is reduced by 90% or more, thereby reducing the overall calibration execution time.
  • the distance information of the target can be detected without inputting the approximate position of the conical target, there is an effect that contributes to the convenience of the user.
  • 1 is a view comparing distance ranges of distance information that can be obtained by a single lidar sensor and a dual lidar sensor, respectively.
  • FIG. 2 is a view comparing ranges of viewing angles of distance information obtainable by a single lidar sensor and a dual lidar sensor, respectively.
  • 3 is a view comparing a short range region of a single lidar sensor and a dual lidar sensor.
  • FIG. 4 is a view for explaining a dual lidar sensor calibration device according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a dual lidar sensor calibration method according to an exemplary embodiment of the present invention.
  • FIG. 6 illustrates a conical target and reflectivity according to an embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating a process of processing distance information in a dual lidar sensor calibration method according to an embodiment of the present invention.
  • FIG. 8 is a diagram illustrating a process of obtaining distance information in a dual lidar sensor calibration method according to an embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating a target origin estimation process in a dual lidar sensor calibration method according to an embodiment of the present invention.
  • FIG. 10 is a diagram illustrating a target origin estimation process in a dual lidar sensor calibration method according to an exemplary embodiment of the present invention.
  • FIG. 11 is a diagram illustrating a calibration process in the dual lidar sensor calibration method according to an embodiment of the present invention.
  • FIG. 12 is a diagram illustrating a calibration result in the dual lidar sensor calibration method according to an embodiment of the present invention.
  • the present invention relates to a dual lidar sensor calibration apparatus and method for calibration for two lidar sensors.
  • FIG. 4 is a view for explaining a dual lidar sensor calibration device according to an embodiment of the present invention.
  • a dual lidar sensor calibration apparatus includes two lidar sensors 110 and 120, three targets 210, 220, and 230, and a controller (not shown). do.
  • the number of targets is three, and the lidar sensor is illustrated as two, but is not limited thereto. Any number of targets other than three may be used, and two or more lidar sensors may be used. However, hereinafter, for convenience of description, three targets are set, and two lidar sensors will be described in a limited case.
  • Three targets 210, 220, 230 according to an embodiment of the present invention are arranged asymmetrically within the measurement range of the two lidar sensors.
  • the three targets 210, 220, and 230 may be implemented in the form of a cone of material that exceeds a predetermined reflectivity.
  • FIG. 6 illustrates a conical target and reflectivity according to an embodiment of the present invention.
  • the three targets 210, 220, and 230 are manufactured using a reflector with a relatively high reflectivity, and are implemented in a cone shape. 6 (b) shows the difference in reflectance between the surrounding environment and the target.
  • the calibration apparatus can obtain distance information corresponding to the target using only the reflectivity by using a conical target having high reflectivity, thereby shortening the calibration execution time.
  • the calibration apparatus uses three targets arranged asymmetrically.
  • the controller processes distance information for each lidar sensor using three targets 210, 220, and 230, and estimates origins of three targets for each lidar sensor using the processed distance information. Calibration is performed on the origins of the three targets 210, 220, and 230 estimated by the respective lidar sensors 110 and 120.
  • the calibration device In calculating the distance information on the target, since the calibration device according to the exemplary embodiment does not require the approximate location information on the target, the user of the calibration device has an effect of increasing convenience.
  • the controller obtains distance information including three targets from each of two LiDAR sensors 210 and 220. At this time, the controller filters the distance information exceeding the reflectivity among the acquired distance information, and clusters the distance information for each channel of each lidar sensor 110 and 120 by using the remaining distance information after filtering. )do.
  • the controller After clustering the distance information, the controller extracts an ellipse model for each cluster and calculates a midpoint and a radius of the extracted ellipse model.
  • the controller estimates the height of each target using the calculated midpoint and the radius, and estimates the origin of each target using the radius of the lower end of each target.
  • the controller may extract an ellipse model for each cluster using a random sample consensus (RANSAC) algorithm.
  • RANSAC random sample consensus
  • the controller repeatedly matches the origins of the targets estimated using the two LiDAR sensors 110 and 120, and generates a transformation matrix including the relative distance and angle between the two LiDAR sensors using the matching result.
  • the controller obtains the relative distance and angle between the two lidar sensors 110 and 120 from the generated transformation matrix, and calculates the conversion relationship between the two lidar sensors 110 and 120 by applying the relative distance and angle. Perform calibration of the dual lidar sensor.
  • the controller may repeatedly match the origin of the targets by using an iterative closest point (ICP) algorithm.
  • ICP iterative closest point
  • FIG. 5 is a flowchart illustrating a dual lidar sensor calibration method according to an exemplary embodiment of the present invention.
  • the controller first processes distance information for each lidar sensor using three targets 210, 220, and 230 disposed within the measurement ranges of the two lidar sensors 110 and 120 ( S510).
  • the controller estimates the origin of three targets for each lidar sensor using the processed distance information (S520).
  • the controller performs calibration on the origins of the three targets 210, 220, and 230 estimated by the two lidar sensors 110 and 120, respectively (S530).
  • the three targets 210, 220, and 230 may be implemented in the form of a cone of material that exceeds a predetermined reflectivity.
  • FIG. 7 is a flowchart illustrating a process of processing distance information in a dual lidar sensor calibration method according to an embodiment of the present invention.
  • the target includes three targets 210, 220, and 230 from two lidar sensors 110 and 120, respectively.
  • FIG. 8 is a diagram illustrating a process of obtaining distance information in a dual lidar sensor calibration method according to an embodiment of the present invention.
  • FIG. 8 shows distance information of the lidar sensor 1110, and (b) shows distance information of the lidar sensor 2120. And (c) shows the reflectivity filtering result, (d) shows the lidar sensor measurement principle, and (e) shows the clustering result.
  • the controller acquires distance information including targets generated from the respective lidar sensors 110 and 120. As shown in (c), the controller filters distance information exceeding a predetermined reflectivity, thereby obtaining only distance information corresponding to the target.
  • the lidar sensor rotates the stacked laser beams, and measures the distance to each obstacle of each laser beam for each channel.
  • distance information is clustered for each channel using only the remaining distance information after filtering.
  • FIG. 9 is a flowchart illustrating a target origin estimation process in a dual lidar sensor calibration method according to an embodiment of the present invention.
  • the control unit estimates an origin in the embodiment of the present disclosure, after clustering, extracting an elliptic model for each cluster (S521), and extracting an elliptic model from the center.
  • the radius (S522) and using the midpoint and the radius to estimate the height of each target, and using the radius of the lower end of each target to estimate the origin of each target (S523).
  • FIG. 10 is a diagram illustrating a target origin estimation process in a dual lidar sensor calibration method according to an exemplary embodiment of the present invention.
  • the controller estimates the origin of the target 210 existing on the ground through the following three steps.
  • the controller extracts an ellipse model for each cluster using a random sample consensus (RANSAC) algorithm.
  • RANSAC random sample consensus
  • the controller calculates a midpoint and a radius of the extracted ellipse.
  • the controller estimates the height of the target using the calculated midpoint and the radius, and estimates the origin of the target using the bottom radius.
  • the controller may use the following equation in estimating the height and the origin of the target.
  • R and H are parameters (constants) for the target.
  • FIG. 11 is a diagram illustrating a calibration process in the dual lidar sensor calibration method according to an embodiment of the present invention.
  • the lidar sensors repeatedly match the origins of the targets estimated by the lidar sensors, and use two matching liars. Generate a transformation matrix including the relative distances and angles between the sensors 110 and 120, obtain the relative distances and angles between the two LiDAR sensors 110 and 120 from the generated transformation matrix, and apply the relative distances and angles.
  • the calibration is performed by calculating a conversion relationship between the two lidar sensors 110 and 120.
  • the controller may repeatedly match the origin of the targets while reducing an error by using an iterative closest point (ICP) algorithm.
  • ICP iterative closest point
  • FIG. 12 is a diagram illustrating a calibration result in the dual lidar sensor calibration method according to an embodiment of the present invention.
  • the calibration device simplifies the process of detecting distance information corresponding to the target by using a conical target having high reflectivity when performing dual lidar sensor calibration.
  • the detection time of this distance information can be shortened. That is, the calibration apparatus according to an embodiment of the present invention can shorten the overall calibration execution time by reducing the number of distance information required for calibration by 90% or more.
  • the calibration apparatus can detect distance information on the target without inputting an approximate position of the conical target.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

복수의 라이다 센서 캘리브레이션 방법 및 장치를 개시한다. 본 실시예의 일 측면에 의하면, 캘리브레이션 수행 시간을 감소시키고, 타겟의 위치를 지정하지 않아도 거리 정보를 검출할 수 있는 듀얼 라이다 센서 캘리브레이션 방법 및 장치를 제공하는 데 일 목적이 있다.

Description

복수의 라이다 센서 캘리브레이션 방법 및 장치
본 실시예는 복수의 라이다(LIDAR: Light Detection And Ranging) 센서를 캘리브레이션(Calibration)하기 위한 기술에 관한 것이다.
자율주행 자동차는, 인간을 대신하여 주변환경을 감지해야 하므로, 다양한 종류의 센서를 필요로 한다. 다양한 센서 중 주변환경을 감지하기 위해 장애물까지의 거리 정보를 획득할 수 있는 라이다(LIDAR: Light Detection And Ranging) 센서가 대표적으로 사용되고 있다. 라이다 센서는 획득 가능한 거리 정보의 범위로 약 100m를, 거리 정보의 정확도로 약 ±3cm를 갖는다. 이에 따라, 라이다 센서는 스테레오 카메라, 초음파 센서 등의 다른 거리 센싱장치에 비해 정확도가 높다.
해상도, 시야각 등의 특정 한계가 존재하기 때문에, 장착 수량 및 장착 위치에 따라 라이다 센서가 획득할 수 있는 정보의 질과 양이 달라진다. 따라서 다수의 라이다 센서를 분산 배치하여 측정 한계를 줄이는 것이 필요하다. 다수의 라이다 센서를 분산 배치함으로써 얻을 수 있는 효과는 다음과 같다.
도 1은 싱글 라이다 센서와 듀얼 라이다 센서가 각각 획득 가능한 거리 정보의 범위를 비교한 도면이다.
도 1에서 보는 바와 같이, 듀얼 라이다 센서는 보다 넓은, 획득 가능한 거리 정보의 범위를 갖는다. 즉, 다수의 라이다 센서를 일정거리를 두고 분산 배치함으로써, 보다 넓은 범위에서 거리 정보를 획득하는 것이 가능해진다.
도 2는 싱글 라이다 센서와 듀얼 라이다 센서가 각각 획득 가능한 거리 정보의 시야각 범위를 비교한 도면이다.
도 2에서 보는 바와 같이, 듀얼 라이다 센서는 보다 넓은, 획득 가능한 거리 정보의 시야각 범위를 갖는다. 즉, 다수의 라이다 센서를 이용함으로써, 단일 라이다 센서 장착으로 인해 발생하는 사각 영역이 감소된다.
도 3은 싱글 라이다 센서와 듀얼 라이다 센서의 근거리 영역을 비교한 도면이다.
도 3에서 보는 바와 같이, 다수의 라이다 센서가 장착되는 경우, 거리 정보의 중첩으로 인해 라이다 센서의 근거리 영역에서 측정 정보의 채널 수가 향상된다.
다수의 라이다 센서로부터 획득한 거리 정보를 효과적으로 사용하기 위해 서로 다른 위치에 존재하는 각 라이다 센서의 상대 위치 및 상대 각도를 파악해 정확하게 캘리브레이션하는 것이 선행되어야 한다.
기존에는 라이다 센서의 캘리브레이션을 위해 점대점 매칭 방법 중 하나인 ICP(Iterative closest points) 방법을 이용하였다. 그러나 종래의 방법은 라이다 센서로부터 입력된 전체 거리 정보를 이용하기 때문에, 캘리브레이션 수행 시간이 오래 걸린다는 문제점이 있다.
본 발명의 배경기술은 대한민국 공개특허공보 제10-2016-0057756호에 개시되어 있다.
본 실시예는, 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 캘리브레이션 수행 시간을 감소시키고, 타겟의 위치를 지정하지 않아도 거리 정보를 검출할 수 있는 듀얼 라이다 센서 캘리브레이션 방법 및 장치를 제공하는데 일 목적이 있다.
본 실시예의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
이와 같은 목적을 달성하기 위한 본 발명의 일 실시예에 따른 복수의 라이다 센서를 이용한 캘리브레이션 장치가 복수의 라이다 센서를 캘리브레이션하기 위한 방법에서, 상기 복수의 라이다 센서의 측정 범위 내에 배치된 기 설정된 개수의 타겟을 이용하여, 각 라이다 센서 별로 거리 정보를 가공하는 단계와 가공된 거리 정보를 이용하여, 상기 각 라이다 센서 별로 상기 기 설정된 개수의 타겟에 대한 원점을 추정하는 단계 및 상기 각 라이다 센서에서 추정된 기 설정된 개수의 타겟의 원점에 대하여 캘리브레이션을 수행하는 단계를 포함한다.
상기 기 설정된 개수의 타겟은 미리 정해진 반사도를 초과하는 재질의 원뿔 형태로 구현될 수 있다.
상기 거리 정보를 가공하는 단계는 상기 각 라이다 센서로부터 상기 기 설정된 개수의 타겟을 포함하는 거리 정보를 획득하는 단계와 획득한 거리 정보 중에서 상기 반사도를 초과하는 거리 정보를 필터링하는 단계 및 상기 필터링을 거쳐 남은 잔여 거리 정보를 이용하여, 상기 복수의 라이다 센서의 각 채널별로 상기 잔여 거리 정보를 클러스터링하는 단계를 포함하여 이루어질 수 있다.
상기 원점을 추정하는 단계는 상기 잔여 거리 정보를 클러스터링한 후, 각 클러스터에 대해 타원 모델을 추출하는 단계와 추출한 타원 모델에 대해 중점과 반지름을 계산하는 단계 및 계산된 중점과 반지름을 이용하여 각 타겟의 높이를 추정하고, 각 타겟의 하단부 반지름을 이용하여 각 타겟의 원점을 추정하는 단계를 포함하여 이루어질 수 있다.
상기 캘리브레이션을 수행하는 단계는 상기 각 라이다 센서에서 추정된, 기 설정된 개수의 타겟의 원점을 반복적으로 정합하는 단계와 상기 정합 결과를 이용하여 상기 복수의 라이다 센서 간의 상대 거리 및 각도를 포함하는 변환행렬을 생성하는 단계와 생성된 변환행렬로부터 상기 복수의 라이다 센서 간의 상대 거리 및 각도를 획득하는 단계 및 상기 상대 거리 및 각도를 적용하여 상기 복수의 라이다 센서 간의 변환 관계를 산출하는 단계를 포함하여 이루어질 수 있다.
상기 타원 모델을 추출하는 단계에서 RANSAC(Random sample consensus) 알고리즘을 이용하여 각 클러스터에 대한 타원 모델을 추출할 수 있다.
상기 기 설정된 개수의 타겟의 원점을 반복적으로 정합하는 단계에서, ICP(Iterative closest point) 알고리즘을 이용하여 상기 기 설정된 개수의 타겟의 원점을 반복적으로 정합할 수 있다.
본 발명의 일 실시예에 따른 복수의 라이다 센서에 대한 캘리브레이션을 위한 라이다 센서 캘리브레이션 장치에서, 복수의 라이다 센서와 상기 복수의 라이다 센서의 측정 범위 내에 배치된 기 설정된 개수의 타겟 및 상기 기 설정된 개수의 타겟을 이용하여, 각 라이다 센서 별로 거리 정보를 가공하고, 가공된 거리 정보를 이용하여, 상기 각 라이다 센서 별로 상기 기 설정된 개수의 타겟에 대한 원점을 추정하고, 상기 복수의 라이다 센서에서 각각 추정된 3개의 타겟의 원점에 대하여 캘리브레이션을 수행하는 제어부를 포함한다.
상기 기 설정된 개수의 타겟은 미리 정해진 반사도를 초과하는 재질의 원뿔 형태로 구현될 수 있다.
상기 제어부는 상기 각 라이다 센서로부터 상기 기 설정된 개수의 타겟을 포함하는 거리 정보를 획득하고, 획득한 거리 정보 중에서 상기 반사도를 초과하는 거리 정보를 필터링하고, 상기 필터링을 거쳐 남은 잔여 거리 정보를 이용하여, 상기 복수의 라이다 센서의 각 채널별로 상기 잔여 거리 정보를 클러스터링할 수 있다.
상기 제어부는 상기 잔여 거리 정보를 클러스터링한 후, 각 클러스터에 대해 타원 모델을 추출하고, 추출한 타원 모델에 대해 중점과 반지름을 계산하고, 계산된 중점과 반지름을 이용하여 각 타겟의 높이를 추정하고, 각 타겟의 하단부 반지름을 이용하여 각 타겟의 원점을 추정할 수 있다.
상기 제어부는 상기 각 라이다 센서에서 추정된, 기 설정된 개수의 타겟의 원점을 반복적으로 정합하고, 상기 정합 결과를 이용하여 상기 복수의 라이다 센서 간의 상대 거리 및 각도를 포함하는 변환행렬을 생성하고, 생성된 변환행렬로부터 상기 복수의 라이다 센서 간의 상대 거리 및 각도를 획득하고, 상기 상대 거리 및 각도를 적용하여 상기 복수의 라이다 센서 간의 변환 관계를 산출할 수 있다.
상기 제어부는 RANSAC(Random sample consensus) 알고리즘을 이용하여 상기 각 클러스터에 대한 타원 모델을 추출할 수 있다.
상기 제어부는 ICP(Iterative closest point) 알고리즘을 이용하여 상기 기 설정된 개수의 타겟의 원점을 반복적으로 정합할 수 있다.
본 실시예에 의하면, 듀얼 라이다 센서 캘리브레이션을 수행함에 있어서, 반사도가 높은 원뿔형 타겟을 이용함으로써, 타겟에 해당하는 거리 정보를 검출하는 과정을 간소화하며, 해당 거리 정보의 검출시간을 단축할 수 있는 효과가 있다. 즉, 본 실시예에서는 캘리브레이션에 필요한 거리 정보의 수가 90%이상 감소하여 전체적인 캘리브레이션 수행시간을 단축할 수 있다.
또한, 본 실시예에 의하면, 원뿔형 타겟의 대략적인 위치를 입력하지 않아도 타겟에 대한 거리정보를 검출할 수 있으므로, 사용자의 편의에 기여하는 효과가 있다.
또한, 본 실시예에서는 두 대의 라이다 센서에 대한 캘리브레이션 방법을 반복하여 적용함으로써, 두 대 이상의 라이다 센서에 대한 캘리브레이션이 가능하다는 장점이 있다.
도 1은 싱글 라이다 센서와 듀얼 라이다 센서가 각각 획득 가능한 거리 정보의 거리 범위를 비교한 도면이다.
도 2는 싱글 라이다 센서와 듀얼 라이다 센서가 각각 획득 가능한 거리 정보의 시야각 범위를 비교한 도면이다.
도 3은 싱글 라이다 센서와 듀얼 라이다 센서의 근거리 영역을 비교한 도면이다.
도 4는 본 발명의 일 실시예에 따른 듀얼 라이다 센서 캘리브레이션 장치를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 듀얼 라이다 센서 캘리브레이션 방법을 보여주는 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 원뿔형 타겟과 반사도를 보여주는 도면이다.
도 7은 본 발명의 일 실시예에 따른 듀얼 라이다 센서 캘리브레이션 방법에서 거리 정보 가공 과정을 보여주는 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 듀얼 라이다 센서 캘리브레이션 방법에서 거리 정보 획득 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 듀얼 라이다 센서 캘리브레이션 방법에서 타겟 원점 추정 과정을 보여주는 흐름도이다.
도 10은 본 발명의 일 실시예에 따른 듀얼 라이다 센서 캘리브레이션 방법에서 타겟 원점 추정 과정을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시예에 따른 듀얼 라이다 센서 캘리브레이션 방법에서 캘리브레이션 과정을 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시예에 따른 듀얼 라이다 센서 캘리브레이션 방법에서 캘리브레이션 결과를 보여주는 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 갖는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
본 발명은 두 대의 라이다 센서에 대한 캘리브레이션을 위한 듀얼 라이다 센서 캘리브레이션 장치 및 방법에 대한 것이다.
도 4는 본 발명의 일 실시예에 따른 듀얼 라이다 센서 캘리브레이션 장치를 설명하기 위한 도면이다.
도 4를 참조하면, 본 발명의 일 실시예에 따른 듀얼 라이다 센서 캘리브레이션 장치는 두 대의 라이다 센서(110, 120), 3개의 타겟(210, 220, 230), 제어부(미도시)를 포함한다. 도 4에서는 타겟의 개수가 3개인 것으로, 라이다 센서는 2개인 것으로 도시되어 있으나, 이에 한정되는 것은 아니다. 3개 이외의 다른 개수의 타겟이 이용될 수 있으며, 두 개 이상의 라이다 센서가 이용될 수 있다. 다만, 이하에서는 설명의 편의상, 타겟은 3개로 설정되고, 라이다 센서는 두 개가 이용되는 경우로 한정하여 설명하기로 한다.
본 발명의 일 실시예에 따른 3개의 타겟(210, 220, 230)은 두 대의 라이다 센서의 측정 범위 내에 비대칭으로 배치되어 있다.
3개의 타겟(210, 220, 230)은 미리 정해진 반사도를 초과하는 재질의 원뿔 형태로 구현될 수 있다.
도 6은 본 발명의 일 실시예에 따른 원뿔형 타겟과 반사도를 보여주는 도면이다.
도 6 (a)을 참조하면, 3개의 타겟(210, 220, 230)은 상대적으로 반사도가 높은 반사판을 이용하여 제작되며, 원뿔형태로 구현된다. 도 6 (b)은 주변 환경과 타겟의 반사도 차이를 도시한다.
이처럼 본 발명의 일 실시예에 따른 캘리브레이션 장치는 반사도가 높은 원뿔형 타겟을 사용함으로써, 반사도만으로 타겟에 해당하는 거리정보를 획득할 수 있어, 캘리브레이션 수행 시간을 단축할 수 있다.
3개 미만의 타겟을 사용할 경우, 타겟의 위치가 모호할 우려가 있으므로, 본 발명의 일 실시예에 따른 캘리브레이션 장치는 비대칭으로 배치된, 3개의 타겟을 이용한다.
제어부는 3개의 타겟(210, 220, 230)을 이용하여, 각 라이다 센서 별로 거리 정보를 가공하고, 가공된 거리 정보를 이용하여, 각 라이다 센서 별로 3개의 타겟에 대한 원점을 추정하고, 각 라이다 센서(110, 120)에서 추정된 3개의 타겟(210, 220, 230)의 원점에 대하여 캘리브레이션을 수행한다.
타겟에 대한 거리 정보를 산출함에 있어, 본 발명의 일 실시예에 따른 캘리브레이션 장치는 타겟에 대한 대략적인 위치 정보를 요구하지 않기 때문에, 캘리브레이션 장치 사용자의 편의를 증대시키는 효과가 있다.
제어부는 거리 정보를 획득함에 있어서, 두 대의 라이다 센서(210, 220) 각각으로부터 3개의 타겟을 포함하는 거리 정보를 획득한다. 이때, 제어부는 획득한 거리 정보 중에서 반사도를 초과하는 거리 정보를 필터링(filtering)하고, 필터링을 거쳐 남은 거리 정보를 이용하여, 각 라이다 센서(110, 120)의 채널 별로 거리 정보를 클러스터링(clustering)한다.
거리정보를 클러스터링 후, 제어부는 각 클러스터에 대해 타원 모델을 추출하고, 추출한 타원 모델의 중점과 반지름을 계산한다. 제어부는 계산한 중점과 반지름을 이용하여 각 타겟의 높이를 추정하고, 각 타겟의 하단부 반지름을 이용하여 각 타겟의 원점을 추정할 수 있다. 이때, 제어부는 RANSAC(Random sample consensus) 알고리즘을 이용하여 각 클러스터에 대한 타원 모델을 추출할 수 있다.
제어부는 두 대의 라이다 센서(110, 120)를 이용해 추정한 타겟들의 원점을 반복적으로 정합하고, 정합 결과를 이용하여 두 대의 라이다 센서 간의 상대 거리 및 각도를 포함하는 변환행렬을 생성한다. 제어부는 생성된 변환행렬로부터 두 대의 라이다 센서(110, 120) 간의 상대 거리 및 각도를 획득하고, 상대 거리 및 각도를 적용하여 두 라이다 센서(110, 120) 간의 변환 관계를 산출하는 방식으로 듀얼 라이다 센서의 캘리브레이션을 수행한다.
본 발명의 일 실시에에서 제어부는 ICP(Iterative closest point) 알고리즘을 이용하여 타겟들의 원점을 반복적으로 정합할 수 있다.
도 5는 본 발명의 일 실시예에 따른 듀얼 라이다 센서 캘리브레이션 방법을 보여주는 흐름도이다.
도 5를 참조하면, 제어부는 먼저 두 대의 라이다 센서(110, 120)의 측정 범위 내에 배치된 3개의 타겟(210, 220, 230)을 이용하여, 각 라이다 센서 별로 거리 정보를 가공한다(S510).
제어부는 가공된 거리 정보를 이용하여, 각 라이다 센서 별로 3개의 타겟에 대한 원점을 추정한다(S520).
제어부는 두 대의 라이다 센서(110, 120)에서 각각 추정된 3개의 타겟(210, 220, 230)의 원점에 대하여 캘리브레이션을 수행한다(S530).
본 발명의 일 실시예에서 3개의 타겟(210, 220, 230)은 미리 정해진 반사도를 초과하는 재질의 원뿔 형태로 구현될 수 있다.
도 7은 본 발명의 일 실시예에 따른 듀얼 라이다 센서 캘리브레이션 방법에서 거리 정보 가공 과정을 보여주는 흐름도이다.
도 7을 참조하면, 본 발명의 일 실시예에서 제어부가 거리 정보를 가공하는 단계(S510)는, 두 대의 라이다 센서(110, 120) 각각으로부터 3개의 타겟(210, 220, 230)을 포함하는 거리 정보를 획득하고(S511), 획득한 거리 정보 중에서 반사도를 초과하는 거리 정보를 필터링하고(S512), 필터링을 거쳐 남은 거리 정보를 이용하여, 두 대의 라이다 센서(110, 120)의 각 채널 별로 거리 정보를 클러스터링하는 단계(S513)를 포함한다.
도 8은 본 발명의 일 실시예에 따른 듀얼 라이다 센서 캘리브레이션 방법에서 거리 정보 획득 과정을 설명하기 위한 도면이다.
도 8을 참조하면, (a)는 라이다 센서1(110)의 거리 정보를 도시한 것이고, (b)는 라이다 센서2(120)의 거리 정보를 도시한 것이다. 그리고, (c)는 반사도 필터링 결과를 도시한 것이고, (d)는 라이다 센서 측정 원리를 도시한 것이고, (e)는 클러스터링 결과를 도시한 것이다.
도 8의 (a), (b)에서 보는 바와 같이, 제어부는 각 라이다 센서(110, 120)로부터 생성된 타겟을 포함하는 거리 정보를 획득한다. 그리고 (c)에서 보는 바와 같이, 제어부는 미리 정해진 반사도를 초과하는 거리 정보를 필터링함으로써, 타겟에 해당하는 거리 정보만을 획득한다.
(d)에서 보는 바와 같이, 라이다 센서는 적층된 레이저 빔이 회전하면서, 채널 별로 각 레이저 빔이 장애물까지의 거리를 측정한다.
그래서, (e)에서 보는 바와 같이, 필터링을 거쳐 남은 거리 정보만을 이용하여 각 채널별로 거리 정보를 클러스터링한다.
도 9는 본 발명의 일 실시예에 따른 듀얼 라이다 센서 캘리브레이션 방법에서 타겟 원점 추정 과정을 보여주는 흐름도이다.
도 9를 참조하면, 본 발명의 일 실시예에서 제어부가 원점을 추정하는 단계(S520)는, 클러스터링 후, 각 클러스터에 대해 타원 모델을 추출하는 단계(S521)와, 추출한 타원 모델에 대해 중점과 반지름을 계산하는 단계(S522)와, 중점과 반지름을 이용하여 각 타겟의 높이를 추정하고, 각 타겟의 하단부 반지름을 이용하여 각 타겟의 원점을 추정하는 단계(S523)를 포함한다.
도 10은 본 발명의 일 실시예에 따른 듀얼 라이다 센서 캘리브레이션 방법에서 타겟 원점 추정 과정을 설명하기 위한 도면이다.
도 10을 참조하면, 제어부는 다음과 같은 세 단계를 거쳐 지면에 존재하는 타겟(210)의 원점을 추정한다.
먼저, 제어부는 RANSAC(Random sample consensus) 알고리즘을 이용하여 각 클러스터에 대한 타원 모델을 추출한다.
그리고 제어부는 추출한 타원에 대한 중점과 반지름을 계산한다.
그리고 제어부는 계산한 중점과 반지름을 이용하여 타겟의 높이를 추정하고, 하단부 반지름을 이용하여 타겟의 원점을 추정한다. 이때, 제어부는 타겟의 높이와 원점을 추정함에 있어, 다음과 같은 수학식을 사용할 수 있다.
Figure PCTKR2017006888-appb-M000001
여기서, R, H는 타겟에 대한 파라미터(상수)이다.
도 11은 본 발명의 일 실시예에 따른 듀얼 라이다 센서 캘리브레이션 방법에서 캘리브레이션 과정을 설명하기 위한 도면이다.
도 11을 참조하면, 본 발명의 일 실시예에서 제어부가 캘리브레이션을 수행하는 단계(S530)는, 각 라이다 센서가 추정한 타겟들의 원점을 반복적으로 정합하고, 정합 결과를 이용하여 두 대의 라이다 센서(110, 120) 간의 상대 거리 및 각도를 포함하는 변환행렬을 생성하고, 생성된 변환행렬로부터 두 대의 라이다 센서(110, 120) 간의 상대 거리 및 각도를 획득하고, 상대 거리 및 각도를 적용하여 두 라이다 센서(110, 120) 간의 변환 관계를 산출하는 방식으로 캘리브레이션을 수행한다. 이때, 제어부는 ICP(Iterative closest point) 알고리즘을 이용하여 에러를 줄여가면서, 타겟들의 원점을 반복적으로 정합할 수 있다.
도 12는 본 발명의 일 실시예에 따른 듀얼 라이다 센서 캘리브레이션 방법에서 캘리브레이션 결과를 보여주는 도면이다.
도 12에서 (a)는 캘리브레이션 수행 전이고, (b)는 캘리브레이션 수행 후의 결과를 도시한 것이다.
이상에서 설명한 바와 같이, 본 발명의 일 실시예에 따른 캘리브레이션 장치는 듀얼 라이다 센서 캘리브레이션을 수행함에 있어서, 반사도가 높은 원뿔형 타겟을 이용함으로써, 타겟에 해당하는 거리 정보를 검출하는 과정을 간소화하며, 해당 거리 정보의 검출시간을 단축할 수 있다. 즉, 본 발명의 일 실시예에 따른 캘리브레이션 장치는 캘리브레이션에 필요한 거리 정보의 수를 90% 이상 감소시켜 전체적인 캘리브레이션 수행시간을 단축할 수 있다.
본 발명의 일 실시예에 따른 캘리브레이션 장치는 원뿔형 타겟의 대략적인 위치를 입력하지 않아도 타겟에 대한 거리정보를 검출할 수 있다.
본 발명에서는 두 대의 라이다 센서에 대한 캘리브레이션 방법을 반복하여 적용함으로써, 두 대 이상의 라이다 센서에 대한 캘리브레이션이 가능하다.
이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.
CROSS-REFERENCE TO RELATED APPLICATION
본 특허출원은 2017년 03월 02일 한국에 출원한 특허출원번호 제10-2017-0027137호에 대해 미국 특허법 119(a)조(35 U.S.C § 119(a))에 따라 우선권을 주장하며, 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다. 아울러, 본 특허출원은 미국 이외에 국가에 대해서도 위와 동일한 이유로 우선권을 주장하며 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다.

Claims (14)

  1. 복수의 라이다 센서를 이용한 캘리브레이션 장치가 복수의 라이다 센서를 캘리브레이션하기 위한 방법에서,
    상기 복수의 라이다 센서의 측정 범위 내에 배치된 기 설정된 개수의 타겟을 이용하여, 각 라이다 센서 별로 거리 정보를 가공하는 단계;
    가공된 거리 정보를 이용하여, 상기 각 라이다 센서 별로 상기 기 설정된 개수의 타겟에 대한 원점을 추정하는 단계; 및
    상기 각 라이다 센서에서 추정된 기 설정된 개수의 타겟의 원점에 대하여 캘리브레이션을 수행하는 단계를 포함하는 것을 특징으로 하는 라이다 센서 캘리브레이션 방법.
  2. 청구항 1에 있어서,
    상기 기 설정된 개수의 타겟은 미리 정해진 반사도를 초과하는 재질의 원뿔 형태로 되어 있는 것임을 특징으로 하는 라이다 센서 캘리브레이션 방법.
  3. 청구항 2에 있어서,
    상기 거리 정보를 가공하는 단계는,
    상기 각 라이다 센서로부터 상기 기 설정된 개수의 타겟을 포함하는 거리 정보를 획득하는 단계;
    획득한 거리 정보 중에서 상기 반사도를 초과하는 거리 정보를 필터링하는 단계; 및
    상기 필터링을 거쳐 남은 잔여 거리 정보를 이용하여, 상기 복수의 라이다 센서의 각 채널별로 상기 잔여 거리 정보를 클러스터링하는 단계를 포함하는 것을 특징으로 하는 라이다 센서 캘리브레이션 방법.
  4. 청구항 3에 있어서,
    상기 원점을 추정하는 단계는,
    상기 잔여 거리 정보를 클러스터링한 후, 각 클러스터에 대해 타원 모델을 추출하는 단계;
    추출한 타원 모델에 대해 중점과 반지름을 계산하는 단계; 및
    계산된 중점과 반지름을 이용하여 각 타겟의 높이를 추정하고, 각 타겟의 하단부 반지름을 이용하여 각 타겟의 원점을 추정하는 단계를 포함하여 이루어지는 것을 특징으로 하는 라이다 센서 캘리브레이션 방법.
  5. 청구항 2에 있어서,
    상기 캘리브레이션을 수행하는 단계는,
    상기 각 라이다 센서에서 추정된, 기 설정된 개수의 타겟의 원점을 반복적으로 정합하는 단계;
    상기 정합 결과를 이용하여 상기 복수의 라이다 센서 간의 상대 거리 및 각도를 포함하는 변환행렬을 생성하는 단계;
    생성된 변환행렬로부터 상기 복수의 라이다 센서 간의 상대 거리 및 각도를 획득하는 단계; 및
    상기 상대 거리 및 각도를 적용하여 상기 복수의 라이다 센서 간의 변환 관계를 산출하는 단계를 포함하는 것을 특징으로 하는 라이다 센서 캘리브레이션 방법.
  6. 청구항 4에 있어서,
    상기 타원 모델을 추출하는 단계에서, RANSAC(Random sample consensus) 알고리즘을 이용하여 각 클러스터에 대한 타원 모델을 추출하는 것을 특징으로 하는 라이다 센서 캘리브레이션 방법.
  7. 청구항 5에 있어서,
    상기 기 설정된 개수의 타겟의 원점을 반복적으로 정합하는 단계에서, ICP(Iterative closest point) 알고리즘을 이용하여 상기 기 설정된 개수의 타겟의 원점을 반복적으로 정합하는 것을 특징으로 하는 듀얼 라이다 센서 캘리브레이션 방법.
  8. 복수의 라이다 센서에 대한 캘리브레이션을 위한 라이다 센서 캘리브레이션 장치에서,
    복수의 라이다 센서;
    상기 복수의 라이다 센서의 측정 범위 내에 배치된 기 설정된 개수의 타겟; 및
    상기 기 설정된 개수의 타겟을 이용하여, 각 라이다 센서 별로 거리 정보를 가공하고, 가공된 거리 정보를 이용하여, 상기 각 라이다 센서 별로 상기 기 설정된 개수의 타겟에 대한 원점을 추정하고, 상기 복수의 라이다 센서에서 각각 추정된 3개의 타겟의 원점에 대하여 캘리브레이션을 수행하는 제어부를 포함하는 것을 특징으로 하는 라이다 센서 캘리브레이션 장치.
  9. 청구항 8에 있어서,
    상기 기 설정된 개수의 타겟은 미리 정해진 반사도를 초과하는 재질의 원뿔 형태로 되어 있는 것임을 특징으로 하는 라이다 센서 캘리브레이션 장치.
  10. 청구항 9에 있어서,
    상기 제어부는,
    상기 각 라이다 센서로부터 상기 기 설정된 개수의 타겟을 포함하는 거리 정보를 획득하고, 획득한 거리 정보 중에서 상기 반사도를 초과하는 거리 정보를 필터링하고, 상기 필터링을 거쳐 남은 잔여 거리 정보를 이용하여, 상기 복수의 라이다 센서의 각 채널별로 상기 잔여 거리 정보를 클러스터링하는 것을 특징으로 하는 라이다 센서 캘리브레이션 장치.
  11. 청구항 10에 있어서,
    상기 제어부는,
    상기 잔여 거리 정보를 클러스터링한 후, 각 클러스터에 대해 타원 모델을 추출하고, 추출한 타원 모델에 대해 중점과 반지름을 계산하고, 계산된 중점과 반지름을 이용하여 각 타겟의 높이를 추정하고, 각 타겟의 하단부 반지름을 이용하여 각 타겟의 원점을 추정하는 것을 특징으로 하는 라이다 센서 캘리브레이션 장치.
  12. 청구항 9에 있어서,
    상기 제어부는,
    상기 각 라이다 센서에서 추정된, 기 설정된 개수의 타겟의 원점을 반복적으로 정합하고, 상기 정합 결과를 이용하여 상기 복수의 라이다 센서 간의 상대 거리 및 각도를 포함하는 변환행렬을 생성하고, 생성된 변환행렬로부터 상기 복수의 라이다 센서 간의 상대 거리 및 각도를 획득하고, 상기 상대 거리 및 각도를 적용하여 상기 복수의 라이다 센서 간의 변환 관계를 산출하는 것을 특징으로 하는 라이다 센서 캘리브레이션 장치.
  13. 청구항 11에 있어서,
    상기 제어부는,
    RANSAC(Random sample consensus) 알고리즘을 이용하여 상기 각 클러스터에 대한 타원 모델을 추출하는 것을 특징으로 하는 라이다 센서 캘리브레이션 장치.
  14. 청구항 12에 있어서,
    상기 제어부는,
    ICP(Iterative closest point) 알고리즘을 이용하여 상기 기 설정된 개수의 타겟의 원점을 반복적으로 정합하는 것을 특징으로 하는 라이다 센서 캘리브레이션 장치.
PCT/KR2017/006888 2017-03-02 2017-06-29 복수의 라이다 센서 캘리브레이션 방법 및 장치 WO2018159902A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0027137 2017-03-02
KR1020170027137A KR101932041B1 (ko) 2017-03-02 2017-03-02 듀얼 라이다 센서 캘리브레이션 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2018159902A1 true WO2018159902A1 (ko) 2018-09-07

Family

ID=63370202

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/006888 WO2018159902A1 (ko) 2017-03-02 2017-06-29 복수의 라이다 센서 캘리브레이션 방법 및 장치

Country Status (2)

Country Link
KR (1) KR101932041B1 (ko)
WO (1) WO2018159902A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109917355A (zh) * 2019-03-04 2019-06-21 合肥嘉东光学股份有限公司 激光雷达距离误差补偿系统
CN112740005A (zh) * 2018-09-21 2021-04-30 本田技研工业株式会社 车辆检查系统
WO2023087522A1 (zh) * 2021-11-22 2023-05-25 上海仙途智能科技有限公司 多毫米波雷达数据标定的方法及装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102626079B1 (ko) * 2019-05-30 2024-01-18 현대모비스 주식회사 멀티 라이다 센서의 보정 장치 및 방법
KR102585103B1 (ko) 2022-01-26 2023-10-05 부경대학교 산학협력단 범퍼 설치형 듀얼 라이다를 이용한 차량용 slam 시스템 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090020251A (ko) * 2007-08-23 2009-02-26 전자부품연구원 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법
KR20150116239A (ko) * 2014-04-07 2015-10-15 (주)다하테크놀로지 라이다(LiDAR) 센서가 부착된 차량충돌회피용 스마트 블랙박스
KR20160051462A (ko) * 2014-11-03 2016-05-11 현대자동차주식회사 차량의 장애물 위치 인식 장치 및 방법
KR20160086696A (ko) * 2015-01-12 2016-07-20 엘지전자 주식회사 스테레오 카메라 모듈 및 스테레오 카메라의 캘리브레이션 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000180138A (ja) * 1998-12-15 2000-06-30 Toyota Central Res & Dev Lab Inc キャリブレーションプレート及びこれを利用する視覚センサのキャリブレーション装置
JP5712373B2 (ja) * 2010-10-19 2015-05-07 株式会社国際電気通信基礎技術研究所 距離センサのキャリブレーション装置、キャリブレーションプログラムおよびキャリブレーション方法
KR101473736B1 (ko) * 2013-12-20 2014-12-18 국방과학연구소 폐루프 기반의 다중 센서 캘리브레이션 장치 및 그 방법
JP5950122B2 (ja) * 2013-12-27 2016-07-13 株式会社国際電気通信基礎技術研究所 キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
KR101877553B1 (ko) 2014-11-14 2018-07-11 한국전자통신연구원 차량 자율주행 시스템 및 이를 이용한 차량 주행 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090020251A (ko) * 2007-08-23 2009-02-26 전자부품연구원 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법
KR20150116239A (ko) * 2014-04-07 2015-10-15 (주)다하테크놀로지 라이다(LiDAR) 센서가 부착된 차량충돌회피용 스마트 블랙박스
KR20160051462A (ko) * 2014-11-03 2016-05-11 현대자동차주식회사 차량의 장애물 위치 인식 장치 및 방법
KR20160086696A (ko) * 2015-01-12 2016-07-20 엘지전자 주식회사 스테레오 카메라 모듈 및 스테레오 카메라의 캘리브레이션 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112740005A (zh) * 2018-09-21 2021-04-30 本田技研工业株式会社 车辆检查系统
CN112740005B (zh) * 2018-09-21 2022-11-11 本田技研工业株式会社 车辆检查系统
CN109917355A (zh) * 2019-03-04 2019-06-21 合肥嘉东光学股份有限公司 激光雷达距离误差补偿系统
WO2023087522A1 (zh) * 2021-11-22 2023-05-25 上海仙途智能科技有限公司 多毫米波雷达数据标定的方法及装置

Also Published As

Publication number Publication date
KR101932041B1 (ko) 2018-12-24
KR20180100835A (ko) 2018-09-12

Similar Documents

Publication Publication Date Title
WO2018159902A1 (ko) 복수의 라이다 센서 캘리브레이션 방법 및 장치
WO2019216469A1 (ko) 자동차 레이더 시스템에서 탐지된 타겟들의 클러스터링 방법 및 이를 위한 장치
US20160034746A1 (en) Control system, robot system, and control method
WO2017131334A1 (ko) 이동 로봇의 위치 인식 및 지도 작성 시스템 및 방법
WO2015005577A1 (ko) 카메라 포즈 추정 장치 및 방법
WO2011059127A1 (ko) 적외선 센서 및 이를 이용한 감지 방법
WO2018079912A1 (ko) 반사파 처리 장치
WO2018151503A2 (ko) 제스처 인식 방법 및 장치
WO2021075772A1 (ko) 복수 영역 검출을 이용한 객체 탐지 방법 및 그 장치
WO2020235734A1 (ko) 모노카메라를 이용한 자율주행 차량의 거리 및 위치 추정 방법
CN111289111B (zh) 自标校红外体温快速检测方法及检测装置
WO2020055195A1 (ko) 열화상 영상을 이용한 구조물의 균열깊이 측정방법 및 장치
CN108896017B (zh) 一种弹丸近炸破片群位置参数测量与计算方法
WO2021167312A1 (ko) 라이다 센서를 구비한 터치 인식 방법 및 장치
WO2016190698A1 (ko) 잡음 제거를 위한 가중 미디언 필터링 방법 및 장치
WO2021071258A1 (ko) 인공지능 기반의 휴대용 보안영상 학습장치 및 방법
WO2015046658A1 (ko) 설진기 재현성 측정 장치 및 방법
WO2017007047A1 (ko) 불규칙 비교를 이용하는 공간적 깊이 불균일성 보상 방법 및 장치
US11039114B2 (en) Method for determining distance information from images of a spatial region
WO2017111515A1 (ko) 강판 검사 장치 및 방법
WO2017164546A2 (ko) 컬러센서와 엘이디를 이용한 플래시 사진 촬영의 화질 보정 장치 및 그 방법
WO2016093415A1 (ko) 거리 측정 장치 및 거리 측정 방법
WO2020106022A1 (ko) 원형 배열 안테나를 이용한 신호 방향 탐지 방법 및 장치
WO2016006901A1 (ko) 이미지로부터 깊이 정보를 추출하는 방법 및 장치
WO2015083962A1 (ko) 교란 신호 검출 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17898987

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17898987

Country of ref document: EP

Kind code of ref document: A1