KR102431904B1 - Method for calibration of Lidar sensor using precision map - Google Patents

Method for calibration of Lidar sensor using precision map Download PDF

Info

Publication number
KR102431904B1
KR102431904B1 KR1020200175047A KR20200175047A KR102431904B1 KR 102431904 B1 KR102431904 B1 KR 102431904B1 KR 1020200175047 A KR1020200175047 A KR 1020200175047A KR 20200175047 A KR20200175047 A KR 20200175047A KR 102431904 B1 KR102431904 B1 KR 102431904B1
Authority
KR
South Korea
Prior art keywords
lane
lidar sensor
precision map
normal vector
lidar
Prior art date
Application number
KR1020200175047A
Other languages
Korean (ko)
Other versions
KR20220085186A (en
Inventor
박태형
조기환
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Priority to KR1020200175047A priority Critical patent/KR102431904B1/en
Publication of KR20220085186A publication Critical patent/KR20220085186A/en
Application granted granted Critical
Publication of KR102431904B1 publication Critical patent/KR102431904B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/03Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 발명은 차량에 장착된 라이다 센서 캘리브레이션 방법에 관한 것으로서, 라이다 센서에서 측정한 값을 이용하여 라이다 센서 기반 차선을 검출하는 단계, 상기 라이다 센서 기반 차선에 대한 라이다 센서 기반 차선 평면을 계산하는 단계, 상기 라이다 센서 기반 차선 평면에 수직인 라이다 기반 법선벡터를 산출하는 단계, 차랑에 내장된 정밀지도를 기반으로 정밀지도 기반 차선을 검출하는 단계, 상기 정밀지도 기반 차선에 대한 정밀지도 기반 차선 평면을 계산하는 단계, 상기 정밀지도 기반 차선 평면에 수직인 정밀지도 기반 법선벡터를 산출하는 단계, 상기 라이다 기반 법선벡터와 상기 정밀지도 기반 법선벡터 간의 법선벡터 오차를 계산하는 단계, 상기 라이다 기반 법선벡터를 기준으로 상기 정밀지도 기반 법선벡터의 오차를 보정하고, 이에 따라 라이다 센서 기반 차선 평면을 보정하고, 보정된 차선 평면에서 정밀지도 기반 차선과 라이다 센서 기반 차선간의 차선 오차를 계산하는 단계, 상기 법선벡터 오차값과 상기 차선 오차값을 이용하여 회전 변환 행렬을 산출하는 단계 및 상기 회전 변환 행렬을 이용하여 라이다 센서의 각도 오차를 캘리브레이션하는 단계를 포함한다.The present invention relates to a method for calibrating a LiDAR sensor mounted on a vehicle, comprising: detecting a LiDAR sensor-based lane using a value measured by the LiDAR sensor; calculating, calculating a lidar-based normal vector perpendicular to the plane of the lidar sensor-based lane, detecting a precision map-based lane based on a precision map embedded in the vehicle, and the precision map-based lane calculating a precision map-based lane plane, calculating a precision map-based normal vector perpendicular to the precision map-based lane plane, and calculating a normal vector error between the lidar-based normal vector and the precision map-based normal vector , corrects the error of the precision map-based normal vector based on the lidar-based normal vector, corrects the lidar sensor-based lane plane accordingly, and adjusts the line between the precision map-based lane and the lidar sensor-based lane in the corrected lane plane. Calculating a lane error, calculating a rotation transformation matrix using the normal vector error value and the lane error value, and calibrating an angle error of a lidar sensor using the rotation transformation matrix.

Description

정밀지도를 이용한 라이다 센서 캘리브레이션 방법 {Method for calibration of Lidar sensor using precision map}{Method for calibration of Lidar sensor using precision map}

본 발명은 라이다(LiDAR, Light Detection And Ranging) 센서에 대한 캘리브레이션(calibration) 기술에 관한 것이다. The present invention relates to a calibration technology for a LiDAR (Light Detection And Ranging) sensor.

자율주행 자동차는 인간을 대신하여 주변 환경을 감지해야 하므로, 다양한 종류의 센서를 필요로 한다. 그 중에서도 장애물까지의 거리 정보를 획득하기 위한 다양한 센서 중에 라이다(LiDAR, Light Detection And Ranging) 센서가 대표적으로 사용되고 있다. 라이다 센서는 획득 가능한 거리 정보의 범위가 약 100m로 넓으며, 거리 정보의 정확도가 약 ±3cm로, 스테레오 카메라, 초음파 센서 등의 다른 거리 센서에 비해 정확도가 높다는 장점이 있기 때문이다.Autonomous vehicles need to sense their surroundings on behalf of humans, so they need different types of sensors. Among various sensors for acquiring distance information to obstacles, a LiDAR (Light Detection And Ranging) sensor is typically used. This is because the LiDAR sensor has a wide range of distance information of about 100m, and the accuracy of distance information is about ±3cm, which has the advantage of being higher in accuracy than other distance sensors such as stereo cameras and ultrasonic sensors.

라이다(LiDAR)는 자율주행 자동차에서 많이 사용하는 센서로서, 라이다 본체에서 레이저를 발사하고 반사되어 돌아오는 시간을 가지고 주변 물체의 거리를 측정하는 장치이다. 카메라와 달리 라이다는 빛의 영향을 덜 받기 때문에 주야간 관계 없이 주변 물체 감지가 가능하다. LiDAR is a sensor widely used in autonomous vehicles, and it is a device that emits a laser from the lidar body and measures the distance to surrounding objects with time to reflect and return. Unlike cameras, lidar is less affected by light, so it can detect surrounding objects regardless of day or night.

차량에 장착된 라이다에 각도 오차가 생겨 객체 검출에 문제가 발생할 수 있다. 예를 들어 전방 객체가 2차로에 존재하나, 라이다를 통한 인식 결과는 1차로와 2차로 사이로 인식될 수 있다. An angle error may occur in the lidar mounted on the vehicle, which may cause problems in object detection. For example, although the front object exists on the second lane, the recognition result through the lidar may be recognized as between the first and second lanes.

이러한 문제는 라이다 센서들을 재장착하면서 라이다의 각도가 변경되는 것 등이 원인이 될 수 있다. 라이다를 재장착할 경우, 캘리브레이션을 정확히 하기 힘들고 캘리브레이션을 하더라도 외부충격(과속방지턱 등) 때문에 틀어질 수 있다. 이렇게 발생한 라이다의 각도 오차는 거리가 멀어질수록 위치 오류에 큰 영향을 끼친다. 예를 들어, 자동차에 장착된 라이다의 각도가 1도 틀어지면 50m 앞 객체를 인식하는데 있어서 약 0.9m 차이가 발생하며, 이런 경우 객체가 차선 위에 걸쳐있거나 도로 가장자리에 있다면 현재 차로에 객체가 없다고 오인식할 수 있다.This problem may be caused by the angle of the lidar being changed while the lidar sensors are reinstalled. When re-installing the lidar, it is difficult to calibrate accurately, and even if it is calibrated, it may be distorted due to external shocks (speed bumps, etc.). The angle error of the lidar generated in this way has a large effect on the position error as the distance increases. For example, if the angle of the lidar mounted on a car is shifted by 1 degree, there is a difference of about 0.9m in recognizing an object 50m ahead. can be misrecognized.

종래 라이다 캘리브레이션을 하는 방법에는 크게 두 종류가 있는데, 정지상태에서 하는 오프라인 방법과 주행 중에 하는 온라인 방법이 그것이다. 오프라인 방법에는 라이다에서 측정되는 빛의 세기인 반사도가 높은 객체를 제작하고, 이를 라이다로 측정하여 교정하는 방법이 있다. 이 방법은 교정을 위한 특정객체가 있어야 하므로 외부 사용성이 떨어진다.There are mainly two types of conventional lidar calibration methods, an offline method performed in a stationary state and an online method performed while driving. In the offline method, there is a method of manufacturing an object with high reflectivity, which is the intensity of light measured by the lidar, and measuring it with the lidar and calibrating it. Since this method requires a specific object for calibration, external usability is poor.

또한, 온라인 방법은 라이다로 차선을 검출하여 요(yaw) 값을 캘리브레이션 하는 방법이 있다. 이 방법은 롤(roll)과 피치(pitch)를 고려하지 않는다는 문제가 있다. Also, as an online method, there is a method of detecting a lane with a lidar and calibrating a yaw value. This method has a problem in that it does not consider roll and pitch.

다른 온라인 방법으로는 IMU(Inertial Measurement Unit)를 사용하여 차량 위치의 변화량과 라이다 위치변화량을 비교해 라이다를 교정하는 방법이 있다. 그러나 이 방법은 정지된 상태에서 밖에 사용할 수 없고, IMU의 누적 오차가 있다는 문제가 있다. Another online method is to use an IMU (Inertial Measurement Unit) to calibrate the lidar by comparing the amount of change in the vehicle position with the amount of change in the lidar position. However, this method can only be used in a stopped state, and there is a problem that there is a cumulative error of the IMU.

대한민국 공개특허 10-2016-0057756Republic of Korea Patent Publication 10-2016-0057756

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 누적 오차를 줄일 수 있으며, 보다 정확한 캘리브레이션을 수행하기 위하여, 정밀지도를 이용한 라이다 센서 캘리브레이션 방법을 제공하는데 그 목적이 있다.The present invention has been devised to solve the above problems, and it is an object of the present invention to provide a method of calibrating a lidar sensor using a precision map in order to reduce an accumulated error and to perform a more accurate calibration.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

이와 같은 목적을 달성하기 위한 본 발명은 차량에 장착된 라이다 센서 캘리브레이션 방법에 관한 것으로서, 라이다 센서에서 측정한 값을 이용하여 라이다 센서 기반 차선을 검출하는 단계, 상기 라이다 센서 기반 차선에 대한 라이다 센서 기반 차선 평면을 계산하는 단계, 상기 라이다 센서 기반 차선 평면에 수직인 라이다 기반 법선벡터를 산출하는 단계, 차랑에 내장된 정밀지도를 기반으로 정밀지도 기반 차선을 검출하는 단계, 상기 정밀지도 기반 차선에 대한 정밀지도 기반 차선 평면을 계산하는 단계, 상기 정밀지도 기반 차선 평면에 수직인 정밀지도 기반 법선벡터를 산출하는 단계, 상기 라이다 기반 법선벡터와 상기 정밀지도 기반 법선벡터 간의 법선벡터 오차를 계산하는 단계, 상기 라이다 기반 법선벡터를 기준으로 상기 정밀지도 기반 법선벡터의 오차를 보정하고, 이에 따라 라이다 센서 기반 차선 평면을 보정하고, 보정된 차선 평면에서 정밀지도 기반 차선과 라이다 센서 기반 차선간의 차선 오차를 계산하는 단계, 상기 법선벡터 오차값과 상기 차선 오차값을 이용하여 회전 변환 행렬을 산출하는 단계 및 상기 회전 변환 행렬을 이용하여 라이다 센서의 각도 오차를 캘리브레이션하는 단계를 포함한다.To achieve the above object, the present invention relates to a method of calibrating a lidar sensor mounted on a vehicle, comprising: detecting a lidar sensor-based lane using a value measured by the lidar sensor; calculating a lidar sensor-based lane plane for a vehicle, calculating a lidar-based normal vector perpendicular to the lidar sensor-based lane plane, detecting a precision map-based lane based on a precision map embedded in the vehicle; calculating a precision map-based lane plane for the precision map-based lane, calculating a precision map-based normal vector perpendicular to the precision map-based lane plane, between the lidar-based normal vector and the precision map-based normal vector calculating a normal vector error, correcting the error of the precision map-based normal vector based on the lidar-based normal vector, correcting the lidar sensor-based lane plane accordingly, and correcting the precision map-based lane in the corrected lane plane calculating a lane error between the lane and the lidar sensor based lane, calculating a rotation transformation matrix using the normal vector error value and the lane error value, and calibrating the angle error of the lidar sensor using the rotation transformation matrix including the steps of

상기 정밀지도 기반 차선을 검출하는 단계에서, GNSS(Global Navigation Satellite System) 위치 기반으로 차선을 검출할 수 있다. In the step of detecting the precision map-based lane, the lane may be detected based on a Global Navigation Satellite System (GNSS) location.

상기 법선벡터 오차를 계산하는 단계에서, 상기 정밀지도 기반 법선벡터를 기준으로 상기 라이다 기반 법선벡터의 롤(roll) 각도 오차와 피치(pitch) 각도 오차를 계산할 수 있다. In the calculating of the normal vector error, a roll angle error and a pitch angle error of the lidar-based normal vector may be calculated based on the precision map-based normal vector.

상기 차선 오차를 계산하는 단계에서, 상기 라이다 기반 법선벡터의 롤 각도 오차와 피치 각도 오차를 보정한 상태에서, 상기 정밀지도 기반 차선을 기준으로 상기 라이다 센서 기반 차선의 요(yaw) 각도 오차를 계산할 수 있다. In the step of calculating the lane error, in a state in which the roll angle error and the pitch angle error of the lidar-based normal vector are corrected, the yaw angle error of the lidar sensor-based lane based on the precision map-based lane can be calculated.

본 발명에 의하면, 정밀지도를 이용하여 라이다 센서에 대한 캘리브레이션을 수행함으로써, 누적 오차를 줄일 수 있는 효과가 있다. According to the present invention, by performing calibration of the lidar sensor using the precision map, there is an effect of reducing the accumulated error.

또한, 본 발명에 의하면, 라이다의 요(yaw) 값뿐만 아니라 롤(roll), 피치(pitch) 값도 캘리브레이션함으로써, 보다 정확하다는 장점이 있다. In addition, according to the present invention, there is an advantage of being more accurate by calibrating not only the yaw value of the lidar but also the roll and pitch values.

또한, 본 발명에 의하면, 별도의 라이다 캘리브레이션을 수행하지 않고, 정밀지도의 구간 주행 중에 자동으로 라이다 센서의 요, 롤, 피치 값을 캘리브레이션할 수 있다는 효과가 있다. In addition, according to the present invention, there is an effect that the yaw, roll, and pitch values of the lidar sensor can be automatically calibrated during section driving of the precision map without performing separate lidar calibration.

도 1은 본 발명의 일 실시예에 따른 정밀지도를 이용한 라이다 센서 캘리브레이션 방법을 보여주는 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 라이다 센서 측정값과 관심영역을 도시한 것이다.
도 3은 본 발명의 일 실시예에 따른 라이다 센서로 검출한 차선을 도시한 것이다.
도 4는 본 발명의 일 실시예에 따른 정밀지도 차선과 라이다 센서로 검출한 차선을 도시한 것이다.
도 5는 본 발명의 일 실시예에 따른 정밀지도 기반 차선과 라이다 센서 기반 차선을 도시한 것이다.
도 6은 본 발명의 일 실시예에 따른 정밀지도 기반 차선 평면과 라이다 센서 기반 차선 평면을 도시한 것이다.
도 7은 본 발명의 일 실시예에 따른 정밀지도 기반 법선벡터와 라이다 센서로 검출한 법선벡터를 도시한 것이다.
도 8은 본 발명의 일 실시예에 따른 정밀지도 기반 법선벡터와 라이다 센서로 검출한 법선벡터 간의 각도 오차를 도시한 것이다.
도 9는 본 발명의 일 실시예에 따른 롤과 피치를 보정한 차선을 도시한 것이다.
1 is a flowchart illustrating a method of calibrating a lidar sensor using a precision map according to an embodiment of the present invention.
2 is a diagram illustrating a measurement value of a lidar sensor and a region of interest according to an embodiment of the present invention.
3 is a diagram illustrating a lane detected by a lidar sensor according to an embodiment of the present invention.
4 is a diagram illustrating a precision map lane and a lane detected by a lidar sensor according to an embodiment of the present invention.
5 is a diagram illustrating a precision map-based lane and a lidar sensor-based lane according to an embodiment of the present invention.
6 is a diagram illustrating a precision map-based lane plane and a lidar sensor-based lane plane according to an embodiment of the present invention.
7 is a diagram illustrating a precision map-based normal vector and a normal vector detected by a lidar sensor according to an embodiment of the present invention.
8 is a diagram illustrating an angular error between a precision map-based normal vector and a normal vector detected by a lidar sensor according to an embodiment of the present invention.
9 is a diagram illustrating a lane in which roll and pitch are corrected according to an embodiment of the present invention.

본 명세서에서 개시된 실시 예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 개시에서 제안하고자 하는 실시 예는 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 당해 기술분야에서 통상의 지식을 가진 자에게 실시 예들의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.Advantages and features of the embodiments disclosed herein, and methods for achieving them will become apparent with reference to the embodiments described below in conjunction with the accompanying drawings. However, the embodiments to be proposed in the present disclosure are not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments are provided to those of ordinary skill in the art. It is only provided to be a complete indication of the category.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시 예에 대해 구체적으로 설명하기로 한다. Terms used in this specification will be briefly described, and the disclosed embodiments will be described in detail.

본 명세서에서 사용되는 용어는 개시된 실시 예들의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 상세한 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 명세서의 전반에 걸친 내용을 토대로 정의되어야 한다. Terms used in this specification have been selected as currently widely used general terms as possible while considering the functions of the disclosed embodiments, but may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there are also terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the detailed description of the corresponding specification. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the content throughout the present specification, rather than the name of a simple term.

본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다.References in the singular herein include plural expressions unless the context clearly dictates the singular.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.In the entire specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated. Also, as used herein, the term “unit” refers to a hardware component such as software, FPGA, or ASIC, and “unit” performs certain roles. However, "part" is not meant to be limited to software or hardware. A “unit” may be configured to reside on an addressable storage medium and may be configured to refresh one or more processors. Thus, by way of example, “part” refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functionality provided within components and “parts” may be combined into a smaller number of components and “parts” or further divided into additional components and “parts”.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In describing the present invention, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

본 발명은 차량에 장착된 라이다 센서 캘리브레이션 방법에 관한 것이다. The present invention relates to a method of calibrating a lidar sensor mounted on a vehicle.

본 발명에서 정밀지도를 이용한 라이다 센서 캘리브레이션 방법을 수행하는 주체는 라이다 센서 캘리브레이션 방법을 수행하는 제반 시스템이라고 할 수 있으며, 또는 라이다 센서 캘리브레이션 방법을 수행하는 시스템 또는 장치를 전반적으로 제어하는 제어부나 프로세서(processor)일 수 있다. 즉, 본 발명의 라이다 센서 캘리브레이션 방법은 일종의 소프트웨어인 알고리즘으로 구성되며, 소프트웨어는 라이다 센서 캘리브레이션 수행 시스템, 라이다 센서 캘리브레이션 수행 장치의 제어부 또는 프로세서(processor)에서 실행될 수 있다.In the present invention, the subject performing the LiDAR sensor calibration method using the precision map may be referred to as an overall system performing the LiDAR sensor calibration method, or a control for overall controlling the system or apparatus for performing the LiDAR sensor calibration method It may be a department or a processor. That is, the LiDAR sensor calibration method of the present invention is composed of an algorithm which is a kind of software, and the software may be executed in a system for performing a LiDAR sensor calibration, a controller or a processor of an apparatus for performing a LiDAR sensor calibration.

도 1은 본 발명의 일 실시예에 따른 정밀지도를 이용한 라이다 센서 캘리브레이션 방법을 보여주는 흐름도이다. 1 is a flowchart illustrating a method of calibrating a lidar sensor using a precision map according to an embodiment of the present invention.

도 1을 참조하면, 라이다 센서에서 측정한 값을 이용하여 라이다 센서 기반 차선을 검출한다(S101). Referring to FIG. 1 , a lane based on the lidar sensor is detected using a value measured by the lidar sensor ( S101 ).

그리고, 라이다 센서 기반 차선에 대한 라이다 센서 기반 차선 평면을 계산한다(S103). Then, a plane of the lane based on the lidar sensor is calculated for the lane based on the lidar sensor (S103).

그리고, 라이다 센서 기반 차선 평면에 수직인 라이다 기반 법선벡터를 산출한다(S105). Then, a lidar-based normal vector perpendicular to the lidar sensor-based lane plane is calculated (S105).

차랑에 내장된 정밀지도를 기반으로 정밀지도 기반 차선을 검출한다(S107). 예를 들어, 정밀지도란 오차범위가 10cm 이내인 지도를 지칭할 수 있다.A precision map-based lane is detected based on the precision map built into the vehicle (S107). For example, the precision map may refer to a map with an error range of 10 cm or less.

그리고, 정밀지도 기반 차선에 대한 정밀지도 기반 차선 평면을 계산한다(S109). Then, the precision map-based lane plane for the precision map-based lane is calculated (S109).

그리고, 정밀지도 기반 차선 평면에 수직인 정밀지도 기반 법선벡터를 산출한다(S111). Then, a precision map-based normal vector perpendicular to the precision map-based lane plane is calculated (S111).

그리고, 라이다 기반 법선벡터와 정밀지도 기반 법선벡터 간의 법선벡터 오차를 계산한다(S113). Then, a normal vector error between the lidar-based normal vector and the precision map-based normal vector is calculated (S113).

그리고, 라이다 기반 법선벡터를 기준으로 정밀지도 기반 법선벡터의 오차를 보정하고, 이에 따라 라이다 센서 기반 차선 평면을 보정하고, 보정된 차선 평면에서 정밀지도 기반 차선과 라이다 센서 기반 차선간의 차선 오차를 계산한다(S115). Then, the error of the precision map-based normal vector is corrected based on the lidar-based normal vector, and the lidar sensor-based lane plane is corrected accordingly, and the lane between the precision map-based lane and the lidar sensor-based lane in the corrected lane plane. An error is calculated (S115).

그리고, 법선벡터 오차값과 차선 오차값을 이용하여 회전 변환 행렬을 산출한다(S117). Then, a rotation transformation matrix is calculated using the normal vector error value and the lane error value (S117).

그리고, 회전 변환 행렬을 이용하여 라이다 센서의 각도 오차를 캘리브레이션(calibration)한다(S119).Then, the angle error of the lidar sensor is calibrated using the rotation transformation matrix (S119).

정밀지도 기반 차선을 검출하는 단계(S107)에서, GNSS(Global Navigation Satellite System) 위치 기반으로 차선을 검출할 수 있다. GNSS란 인공위성을 이용하여 위치·고도·속도 등에 관한 정보를 제공하는 시스템을 말한다. In step S107 of detecting the precise map-based lane, the lane may be detected based on a Global Navigation Satellite System (GNSS) location. GNSS refers to a system that uses satellites to provide information on location, altitude, and speed.

법선벡터 오차를 계산하는 단계(S113)에서, 정밀지도 기반 법선벡터를 기준으로 라이다 기반 법선벡터의 롤(roll) 각도 오차와 피치(pitch) 각도 오차를 계산할 수 있다. 여기서 롤(roll)이란 x축을 기준으로 한 회전을 의미하고, 피치(pitch)란 y축을 기준으로 한 기준 회전을 의미한다. In the step of calculating the normal vector error ( S113 ), a roll angle error and a pitch angle error of the lidar-based normal vector may be calculated based on the precision map-based normal vector. Here, roll means rotation about the x-axis, and pitch means rotation based on the y-axis.

차선 오차를 계산하는 단계(S115)에서, 라이다 기반 법선벡터의 롤 각도 오차와 피치 각도 오차를 보정한 상태에서, 정밀지도 기반 차선을 기준으로 라이다 센서 기반 차선의 요(yaw) 각도 오차를 계산할 수 있다. 여기서 요(yaw)란 z축을 기준으로 한 회전을 의미한다. In the step of calculating the lane error (S115), while the roll angle error and the pitch angle error of the lidar-based normal vector are corrected, the yaw angle error of the lidar sensor-based lane is calculated based on the precision map-based lane. can be calculated Here, yaw means rotation about the z-axis.

본 발명에서 라이다 센서 기반 차선을 검출하는 단계(S101)에서 라이다에서 측정되는 빛의 세기인 반사도를 이용하여 차선을 검출할 수 있다. 즉, 차선의 반사도가 도로의 반사도보다 높으므로, 이를 이용하여 차선을 검출할 수 있다. 이때, 차선과 관련없는 부분을 최소화하기 위하여 관심 영역을 제한한다. In the present invention, in the step of detecting the lane based on the lidar sensor (S101), the lane may be detected using reflectivity, which is the intensity of light measured by the lidar. That is, since the reflectivity of the lane is higher than the reflectivity of the road, the lane can be detected using the reflectivity. In this case, the region of interest is limited in order to minimize a portion not related to the lane.

도 2는 본 발명의 일 실시예에 따른 라이다 센서 측정값과 관심영역을 도시한 것이다. 도 2에서 라이다 센서 기반 차선 검출 시에 관심영역을 제한한 것을 확인할 수 있다. 2 is a diagram illustrating a measurement value of a lidar sensor and a region of interest according to an embodiment of the present invention. In FIG. 2 , it can be seen that the region of interest is limited when detecting a lane based on the lidar sensor.

도 3은 본 발명의 일 실시예에 따른 라이다 센서로 검출한 차선을 도시한 것이다. 3 is a diagram illustrating a lane detected by a lidar sensor according to an embodiment of the present invention.

도 3에서 보는 바와 같이, 라이다 센서를 이용하여 차선을 검출할 수 있으며, 파란색으로 표시되어 있다. As shown in FIG. 3 , a lane can be detected using a lidar sensor, and it is indicated in blue.

그리고, 본 발명에서 정밀지도를 이용하여 차선을 검출한다(S107). 예를 들어, GNSS 위치 기반으로 정밀지도 기반 차선을 검출할 수 있다. And, in the present invention, a lane is detected using the precision map (S107). For example, a precision map-based lane may be detected based on a GNSS location.

도 4는 본 발명의 일 실시예에 따른 정밀지도 차선과 라이다 센서로 검출한 차선을 도시한 것이다. 4 is a diagram illustrating a precision map lane and a lane detected by a lidar sensor according to an embodiment of the present invention.

도 4에서 정밀지도를 이용하여 검출한 차선이 초록색으로 표시되어 있고, 라이다 센서를 이용하여 검출한 차선이 파란색으로 표시되어 있다. In FIG. 4 , lanes detected using the precision map are indicated in green, and lanes detected using the lidar sensor are indicated in blue.

이렇게 검출된 정밀지도 기반 차선과 라이다 센서 기반 차선을 3차원 공간에 도시하면 다음과 같다. The detected precision map-based lane and the lidar sensor-based lane are shown in 3D space as follows.

도 5는 본 발명의 일 실시예에 따른 정밀지도 기반 차선과 라이다 센서 기반 차선을 도시한 것이다. 5 is a diagram illustrating a precision map-based lane and a lidar sensor-based lane according to an embodiment of the present invention.

도 5는 3차원 공간에 정밀지도 기반 차선과 라이다 센서 기반 차선을 도시한 것으로서, 정밀지도 기반 차선과 라이다 센서 기반 차선이 3차원 공간에 도시되어 있다. 5 is a diagram illustrating a precision map-based lane and a lidar sensor-based lane in a three-dimensional space, wherein the precision map-based lane and the lidar sensor-based lane are illustrated in a three-dimensional space.

도 5에서 정밀지도 기반 차선과 라이다 센서 기반 차선에서 각각 임의의 세 점을 선택하여 연결하면 유일한 평면을 특정할 수 있다. 예를 들어, 차량에서 우측차선과 가장 가까운 점, 그 점으로부터 일정 거리 떨어진 우측차선 위의 한 점, 그리고, 좌측 차선과 가장 가까운 점을 선택한다. 이렇게 총 3개의 점으로

Figure 112020135904817-pat00001
형태의 평면의 방정식을 구할 수 있다. In FIG. 5 , a unique plane can be specified by selecting and connecting arbitrary three points, respectively, from the precision map-based lane and the lidar sensor-based lane. For example, a point closest to the right lane of the vehicle, a point on the right lane that is a certain distance away from the point, and a point closest to the left lane are selected. with a total of 3 points
Figure 112020135904817-pat00001
We can find the equation of the plane of the form.

도 6은 본 발명의 일 실시예에 따른 정밀지도 기반 차선 평면과 라이다 센서 기반 차선 평면을 도시한 것이다. 6 is a diagram illustrating a precision map-based lane plane and a lidar sensor-based lane plane according to an embodiment of the present invention.

도 6에서 정밀지도 기반 차선 평면이 초록색으로 표시되어 있고, 라이다 센서 기반 차선 평면이 파란색으로 표시되어 있다. In FIG. 6 , the precision map-based lane plane is indicated in green, and the lidar sensor-based lane plane is indicated in blue.

도 7은 본 발명의 일 실시예에 따른 정밀지도 기반 법선벡터와 라이다 센서로 검출한 법선벡터를 도시한 것이다. 7 is a diagram illustrating a precision map-based normal vector and a normal vector detected by a lidar sensor according to an embodiment of the present invention.

도 7을 참조하면, 정밀지도 기반 차선평면과 라이다 센서 기반 차선평면에 각가 수직인 법선벡터를 구한다. 이때 법선벡터를 평면의 방정식을 이용하여 구할 수 있다. 즉,

Figure 112020135904817-pat00002
의 평면의 방정식에서 법선벡터는 (a, b, c)이다. Referring to FIG. 7 , a normal vector perpendicular to each of the precision map-based lane plane and the lidar sensor-based lane plane is obtained. In this case, the normal vector can be obtained using the equation of the plane. in other words,
Figure 112020135904817-pat00002
In the equation of the plane of , the normal vector is (a, b, c).

도 8은 본 발명의 일 실시예에 따른 정밀지도 기반 법선벡터와 라이다 센서로 검출한 법선벡터 간의 각도 오차를 도시한 것이다. 8 is a diagram illustrating an angular error between a precision map-based normal vector and a normal vector detected by a lidar sensor according to an embodiment of the present invention.

도 8을 참조하면, 각도 계산을 하기 위해 각 법선벡터의 크기를 1로 만들고, 정밀지도 기반 법선벡터의 방향이 z축과 일치되도록 각 벡터에 일정한 값을 뺀다. 그 후 법선벡터의 롤 각도 오차 θ와, 피치 각도 오차 φ를 계산한다.Referring to FIG. 8 , in order to calculate the angle, the magnitude of each normal vector is set to 1, and a constant value is subtracted from each vector so that the direction of the precision map-based normal vector coincides with the z-axis. Then, the roll angle error θ of the normal vector and the pitch angle error φ of the normal vector are calculated.

두 법선벡터 사이의 회전변환을 계산하면 롤 오차와 피치 오차를 캘리브레이션할 수 있다. 이를 수학식으로 나타내면 다음과 같다. By calculating the rotational transformation between the two normal vectors, the roll error and the pitch error can be calibrated. This can be expressed as a mathematical formula as follows.

[수학식 1][Equation 1]

Figure 112020135904817-pat00003
Figure 112020135904817-pat00003

도 9는 본 발명의 일 실시예에 따른 롤과 피치를 보정한 차선을 도시한 것이다. 9 is a view showing a lane in which roll and pitch are corrected according to an embodiment of the present invention.

도 9에는 라이다 센서 기반 차선평면을 회전시켜서 롤과 피치를 보정한 차선이 도시되어 있으며, 정밀지도 기반 차선이 초록색으로 표시되고, 라이다 센서 기반 차선이 파란색으로 표시되어 있다. 9 shows lanes in which roll and pitch are corrected by rotating the lidar sensor-based lane plane, the precision map-based lane is indicated in green, and the lidar sensor-based lane is indicated in blue.

정밀지도 기반 차선과 라이다 센서 기반 차선을 3차원의 직선의 방정식으로 표현하고, 두 차선을 일치시킨다. 이때, 롤과 피치가 보정되어 있으므로, 단지 요(yaw) 값만 캘리브레이션하는 것보다 더 정확한 것을 확인할 수 있다. The precision map-based lane and the lidar sensor-based lane are expressed as a three-dimensional linear equation, and the two lanes are matched. At this time, since the roll and pitch are corrected, it can be confirmed that it is more accurate than just calibrating the yaw value.

다음, 보정된 차선의 각도 차이를 이용하여 요 오차를 계산하고, 최종적으로 회전변환행렬을 구한다. 이를 수학식으로 나타내면 다음과 같다.Next, the yaw error is calculated using the corrected angle difference between the lanes, and finally a rotation transformation matrix is obtained. This can be expressed as a mathematical formula as follows.

[수학식 2][Equation 2]

Figure 112020135904817-pat00004
Figure 112020135904817-pat00004

그리고, 라이다 센서를 통해 산출한 각도의 오차가 미리 정해진 임곗값 이상이면, 회전변환행렬 R을 사용하여 라이다 센서를 캘리브레이션한다. 이를 수학식으로 나타내면 다음과 같다. And, if the error of the angle calculated through the lidar sensor is greater than or equal to a predetermined threshold, the lidar sensor is calibrated using the rotation transformation matrix R. This can be expressed as a mathematical formula as follows.

[수학식 3][Equation 3]

Figure 112020135904817-pat00005
Figure 112020135904817-pat00005

Figure 112020135904817-pat00006
Figure 112020135904817-pat00006

수학식 3에서 S는 캘리브레이션 전 라이다 센서 값이고, S'는 캘리브레이션 후 라이다 센서 값을 나타낸다. In Equation 3, S is the value of the lidar sensor before calibration, and S' is the value of the lidar sensor after calibration.

이상 본 발명을 몇 가지 바람직한 실시 예를 사용하여 설명하였으나, 이들 실시 예는 예시적인 것이며 한정적인 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.The present invention has been described above using several preferred embodiments, but these embodiments are illustrative and not restrictive. Those of ordinary skill in the art to which the present invention pertains will understand that various changes and modifications can be made without departing from the spirit of the present invention and the scope of the appended claims.

Claims (4)

차량에 장착된 라이다 센서 캘리브레이션 방법에서,
라이다 센서에서 측정한 값을 이용하여 라이다 센서 기반 차선을 검출하는 단계;
상기 라이다 센서 기반 차선에 대한 라이다 센서 기반 차선 평면을 계산하는 단계;
상기 라이다 센서 기반 차선 평면에 수직인 라이다 기반 법선벡터를 산출하는 단계;
차랑에 내장된 정밀지도를 기반으로 정밀지도 기반 차선을 검출하는 단계;
상기 정밀지도 기반 차선에 대한 정밀지도 기반 차선 평면을 계산하는 단계;
상기 정밀지도 기반 차선 평면에 수직인 정밀지도 기반 법선벡터를 산출하는 단계;
상기 라이다 기반 법선벡터와 상기 정밀지도 기반 법선벡터 간의 법선벡터 오차를 계산하는 단계;
상기 정밀지도 기반 법선벡터를 기준으로 상기 라이다 기반 법선벡터의 오차를 보정하고, 이에 따라 라이다 센서 기반 차선 평면을 보정하고, 보정된 차선 평면에서 정밀지도 기반 차선과 라이다 센서 기반 차선간의 차선 오차를 계산하는 단계;
상기 법선벡터 오차값과 상기 차선 오차값을 이용하여 회전 변환 행렬을 산출하는 단계; 및
상기 회전 변환 행렬을 이용하여 라이다 센서의 각도 오차를 캘리브레이션하는 단계를 포함하고,
상기 법선벡터 오차를 계산하는 단계에서, 상기 정밀지도 기반 법선벡터를 기준으로 상기 라이다 기반 법선벡터의 롤(roll) 각도 오차와 피치(pitch) 각도 오차를 계산하고,
상기 차선 오차를 계산하는 단계에서, 상기 라이다 기반 법선벡터의 롤 각도 오차와 피치 각도 오차를 보정한 상태에서, 상기 정밀지도 기반 차선을 기준으로 상기 라이다 센서 기반 차선의 요(yaw) 각도 오차를 계산하며,
상기 라이다 센서 기반 차선을 검출하는 단계에서, 라이다 센서에서 측정되는 빛의 세기인 반사도를 이용하여 차선을 검출하고,
상기 정밀지도 기반 법선벡터와 상기 라이다 기반 법선벡터의 크기를 1로 만들고, 상기 정밀지도 기반 법선벡터의 방향이 z축과 일치되도록 하고, 상기 라이다 기반 법선벡터의 롤 각도 오차 θ와, 피치 각도 오차 φ를 계산하며, 이때 상기 두 법선벡터 사이의 회전변환을 계산하는 방식으로 롤 각도 오차와 피치 각도 오차를 캘리브레이션할 수 있으며, 이를 수학식으로 나타내면,
Figure 112022037429137-pat00016
(1)
와 같이 나타낼 수 있고,
상기 정밀지도 기반 차선과 상기 라이다 센서 기반 차선을 3차원의 직선의 방정식으로 표현하고, 두 차선을 일치시키고, 롤 각도 오차와 피치 각도 오차가 보정된 차선의 각도 차이를 이용하여 요 오차를 계산하고, 회전변환행렬 R을 구하며, 이를 수학식으로 나타내면,
Figure 112022037429137-pat00017
(2)
와 같이 나타낼 수 있고,
라이다 센서를 통해 산출한 각도의 오차가 미리 정해진 임곗값 이상이면, 회전변환행렬 R을 사용하여 라이다 센서를 캘리브레이션하고, 이를 수학식으로 나타내면,
Figure 112022037429137-pat00018

Figure 112022037429137-pat00019
(3)
과 같이 나타낼 수 있고, 여기서 S는 캘리브레이션 전 라이다 센서 값이고, S'는 캘리브레이션 후 라이다 센서 값인 것을 특징으로 하는 라이다 센서 캘리브레이션 방법.
In the vehicle-mounted lidar sensor calibration method,
detecting a lane based on the lidar sensor using the value measured by the lidar sensor;
calculating a lidar sensor-based lane plane for the lidar sensor-based lane;
calculating a lidar-based normal vector perpendicular to the lidar sensor-based lane plane;
detecting a lane based on the precision map based on the precision map built into the vehicle;
calculating a precision map-based lane plane for the precision map-based lane;
calculating a precision map-based normal vector perpendicular to the precision map-based lane plane;
calculating a normal vector error between the lidar-based normal vector and the precision map-based normal vector;
Correcting the error of the lidar-based normal vector based on the precision map-based normal vector, correcting the lidar sensor-based lane plane accordingly, and a lane between the precision map-based lane and the lidar sensor-based lane in the corrected lane plane calculating an error;
calculating a rotation transformation matrix using the normal vector error value and the lane error value; and
Comprising the step of calibrating the angle error of the lidar sensor using the rotation transformation matrix,
In the calculating of the normal vector error, a roll angle error and a pitch angle error of the lidar-based normal vector are calculated based on the precision map-based normal vector,
In the step of calculating the lane error, in a state in which the roll angle error and the pitch angle error of the lidar-based normal vector are corrected, the yaw angle error of the lidar sensor-based lane based on the precision map-based lane to calculate,
In the step of detecting the lane based on the lidar sensor, the lane is detected using reflectivity, which is the intensity of light measured by the lidar sensor,
The size of the precision map-based normal vector and the lidar-based normal vector is set to 1, the direction of the precision map-based normal vector coincides with the z-axis, and the roll angle error θ of the lidar-based normal vector and the pitch The angle error φ is calculated, and the roll angle error and the pitch angle error can be calibrated in a way that calculates the rotation transformation between the two normal vectors.
Figure 112022037429137-pat00016
(One)
can be expressed as
Expressing the precision map-based lane and the lidar sensor-based lane as a three-dimensional linear equation, matching the two lanes, and calculating the yaw error using the angle difference between the lanes in which the roll angle error and the pitch angle error are corrected And, to obtain a rotation transformation matrix R, expressed by the equation,
Figure 112022037429137-pat00017
(2)
can be expressed as
If the error of the angle calculated through the lidar sensor is greater than or equal to a predetermined threshold, calibrate the lidar sensor using the rotation transformation matrix R,
Figure 112022037429137-pat00018

Figure 112022037429137-pat00019
(3)
It can be expressed as, where S is the lidar sensor value before calibration, S' is the lidar sensor calibration method, characterized in that the value of the lidar sensor after calibration.
청구항 1에 있어서,
상기 정밀지도 기반 차선을 검출하는 단계에서,
GNSS(Global Navigation Satellite System) 위치 기반으로 차선을 검출하는 것을 특징으로 하는 라이다 센서 캘리브레이션 방법.
The method according to claim 1,
In the step of detecting the precision map-based lane,
A LiDAR sensor calibration method characterized in that the lane is detected based on the location of the Global Navigation Satellite System (GNSS).
삭제delete 삭제delete
KR1020200175047A 2020-12-15 2020-12-15 Method for calibration of Lidar sensor using precision map KR102431904B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200175047A KR102431904B1 (en) 2020-12-15 2020-12-15 Method for calibration of Lidar sensor using precision map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200175047A KR102431904B1 (en) 2020-12-15 2020-12-15 Method for calibration of Lidar sensor using precision map

Publications (2)

Publication Number Publication Date
KR20220085186A KR20220085186A (en) 2022-06-22
KR102431904B1 true KR102431904B1 (en) 2022-08-11

Family

ID=82216332

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200175047A KR102431904B1 (en) 2020-12-15 2020-12-15 Method for calibration of Lidar sensor using precision map

Country Status (1)

Country Link
KR (1) KR102431904B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102616437B1 (en) 2023-06-20 2023-12-22 주식회사 모빌테크 Method for calibration of lidar and IMU, and computer program recorded on record-medium for executing method therefor
KR102675138B1 (en) 2023-06-20 2024-06-14 주식회사 모빌테크 Method for calibration of multiple lidars, and computer program recorded on record-medium for executing method therefor
KR102626574B1 (en) 2023-06-20 2024-01-22 주식회사 모빌테크 Method for calibration of camera and lidar, and computer program recorded on record-medium for executing method therefor

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130016186A1 (en) * 2011-07-13 2013-01-17 Qualcomm Incorporated Method and apparatus for calibrating an imaging device
KR101877553B1 (en) 2014-11-14 2018-07-11 한국전자통신연구원 System for autonomous driving, method for driving car using the same
KR20190064228A (en) * 2017-11-30 2019-06-10 현대엠엔소프트 주식회사 Apparatus and method of providing information of traffic lanes using image sensing and vehicle control method using the same
CN112189225B (en) * 2018-06-26 2023-03-10 Sk电信有限公司 Lane line information detection apparatus, method, and computer-readable recording medium storing computer program programmed to execute the method

Also Published As

Publication number Publication date
KR20220085186A (en) 2022-06-22

Similar Documents

Publication Publication Date Title
KR102431904B1 (en) Method for calibration of Lidar sensor using precision map
CN109211249B (en) Method and system for vehicle localization
US9896130B2 (en) Guidance system for a vehicle reversing a trailer along an intended backing path
JP6533619B2 (en) Sensor calibration system
US20210109205A1 (en) Dynamic calibration of lidar sensors
US8041472B2 (en) Positioning device, and navigation system
US20170169627A1 (en) Apparatus and method for failure diagnosis and calibration of sensors for advanced driver assistance systems
US20200132462A1 (en) Sensor calibration device and sensor calibration program product
US10794709B2 (en) Apparatus of compensating for a sensing value of a gyroscope sensor, a system having the same, and a method thereof
JP7153511B2 (en) Self-localization device
US11243308B2 (en) Axial deviation detection device and vehicle
KR20190040818A (en) 3D vehicular navigation system using vehicular internal sensor, camera, and GNSS terminal
US11577736B2 (en) Method and device for ascertaining a highly accurate estimated value of a yaw rate for controlling a vehicle
JP2019066193A (en) Own vehicle position detection device
JPWO2018212292A1 (en) Information processing apparatus, control method, program, and storage medium
WO2018212287A1 (en) Measurement device, measurement method, and program
US11061129B2 (en) Distance estimation device, distance estimation method and program
CN113544034B (en) Apparatus and method for determining correction information of a vehicle sensor
KR102038482B1 (en) Inertial sensor enhancement
US11914028B2 (en) Object detection device for vehicle
JP7204612B2 (en) POSITION AND POSTURE ESTIMATION DEVICE, POSITION AND POSTURE ESTIMATION METHOD, AND PROGRAM
JP7040308B2 (en) Travel control device and travel control method for automatic guided vehicles
JP6503477B2 (en) Distance estimation device, distance estimation method and program
JP2017181195A (en) Measurement device, measurement method, and program
WO2018212284A1 (en) Measurement device, measurement method and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant