KR102647929B1 - Apparatus and method for calibrating camera and lidar sensor of vehicle - Google Patents

Apparatus and method for calibrating camera and lidar sensor of vehicle Download PDF

Info

Publication number
KR102647929B1
KR102647929B1 KR1020190000597A KR20190000597A KR102647929B1 KR 102647929 B1 KR102647929 B1 KR 102647929B1 KR 1020190000597 A KR1020190000597 A KR 1020190000597A KR 20190000597 A KR20190000597 A KR 20190000597A KR 102647929 B1 KR102647929 B1 KR 102647929B1
Authority
KR
South Korea
Prior art keywords
feature point
calibration
sensor
point information
camera
Prior art date
Application number
KR1020190000597A
Other languages
Korean (ko)
Other versions
KR20200084552A (en
Inventor
소아람
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020190000597A priority Critical patent/KR102647929B1/en
Publication of KR20200084552A publication Critical patent/KR20200084552A/en
Application granted granted Critical
Publication of KR102647929B1 publication Critical patent/KR102647929B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

본 발명은 차량용 카메라 및 라이다 센서의 캘리브레이션 장치에 관한 것으로, 차량 전방의 영상을 촬영하는 영상 센서인 카메라부; 빛을 활용해 거리 측정하고 물체를 감지하는 센서인 라이다 센서부; 상기 카메라부와 라이다 센서부의 FOV(Field of View)에 따라 보이는 차량의 강체 영상에서 지정된 적어도 하나 이상의 특징점 및 그 위치 정보를 검출하는 특징점 검출부; 상기 각 센서에 대하여 최후의 캘리브레이션 시 기준으로 설정한 특징점 정보를 저장하는 특징점 정보 저장부; 및 상기 검출한 각 센서의 특징점 정보가 상기 특징점 정보 저장부에 각기 저장된 특징점 대비 변경된 센서를 검출하고, 이전 대비 특징점 정보가 변경된 것으로 검출된 해당 센서에 대한 캘리브레이션을 재 수행하는 제어부;를 포함한다.The present invention relates to a calibration device for a vehicle camera and lidar sensor, comprising: a camera unit, which is an image sensor that captures an image in front of the vehicle; LiDAR sensor unit, a sensor that uses light to measure distance and detect objects; a feature point detection unit that detects at least one feature point and its location information specified in the rigid body image of the vehicle viewed according to the field of view (FOV) of the camera unit and the lidar sensor unit; a feature point information storage unit that stores feature point information set as a standard at the time of final calibration for each sensor; and a control unit that detects sensors in which the feature point information of each detected sensor has changed compared to the feature points stored in the feature point information storage unit, and re-performs calibration for the corresponding sensor whose feature point information has been detected to have changed compared to the previous feature.

Description

차량용 카메라 및 라이다 센서의 캘리브레이션 장치 및 방법{APPARATUS AND METHOD FOR CALIBRATING CAMERA AND LIDAR SENSOR OF VEHICLE}Calibration device and method for vehicle cameras and lidar sensors {APPARATUS AND METHOD FOR CALIBRATING CAMERA AND LIDAR SENSOR OF VEHICLE}

본 발명은 차량용 카메라 및 라이다 센서의 캘리브레이션 장치 및 방법에 관한 것으로, 보다 상세하게는 차량용 카메라와 라이다 센서의 캘리브레이션을 위하여 특별한 마커나 지그를 사용하지 않고, 차량의 강체(rigid body)를 이용하여 자동으로 캘리브레이션을 수행할 수 있도록 하는, 차량용 카메라 및 라이다 센서의 캘리브레이션 장치 및 방법에 관한 것이다.The present invention relates to a calibration device and method for vehicle cameras and lidar sensors, and more specifically, to calibrate vehicle cameras and lidar sensors without using special markers or jigs, but using the rigid body of the vehicle. It relates to a calibration device and method for vehicle cameras and lidar sensors that enable automatic calibration.

일반적으로 차량에는 운전자를 지원하기 위한 다양한 센서가 설치되며 대표적으로 카메라 센서(예 : 단일 카메라 센서, 스테레오 카메라 센서)가 있다. Typically, various sensors are installed in vehicles to assist drivers, and representative examples include camera sensors (e.g., single camera sensor, stereo camera sensor).

특히 스테레오 카메라 센서는 사람이 사물을 바라볼 때 입체감 및 거리감을 느끼는 원리와 동일하게 작동하는 특징이 있다. 즉, 스테레오 카메라의 좌/우 카메라는 사람의 양안과 같이 특정 물체를 주시할 때 공간적인 차이에 의해 시차가 발생하며, 그 시차에 의해 물체까지의 거리감이나 물체의 입체감을 느낄 수 있게 된다. In particular, the stereo camera sensor has the characteristic of operating in the same way as the principle of feeling three-dimensionality and distance when a person looks at an object. In other words, when the left and right cameras of a stereo camera look at a specific object, like both eyes of a person, parallax occurs due to spatial difference, and the parallax allows one to feel the distance to the object or the three-dimensional effect of the object.

이와 같이 차량에 장착된 카메라 센서(또는 차량에 추가로 장착된 다른 센서)는 캘리브레이션(Calibration)과 렉티피케이션(Rectification)을 수행해야 된다. 예컨대 상기 스테레오 카메라에서 캘리브레이션은 스테레오 카메라의 카메라 파라미터를 추출하는 과정이며, 렉티피케이션은 이러한 추출된 카메라 파라미터를 이용하여 좌우 카메라 영상을 정확하게 정렬시켜, 이후 스테레오 시차를 계산할 때 그 연산량을 줄이고 정확도를 높이는 과정이다.In this way, the camera sensor mounted on the vehicle (or other sensor additionally mounted on the vehicle) must perform calibration and rectification. For example, in the stereo camera, calibration is the process of extracting camera parameters of the stereo camera, and rectification uses these extracted camera parameters to accurately align the left and right camera images, thereby reducing the amount of calculation and improving accuracy when calculating the stereo parallax. Elevation is a process.

상기와 같은 카메라 캘리브레이션은 카메라의 왜곡 보정과 스테레오 영상의 렉티피케이션을 위해 반드시 선행되어야 하는 과정이며, 종래에는 사람이 체크보드(또는 마커)를 이용하여 캘리브레이션을 수행하고 있다.Camera calibration as described above is a process that must be preceded for camera distortion correction and rectification of stereo images, and conventionally, a person performs the calibration using a checkboard (or marker).

하지만, 종래의 체크보드를 이용한 캘리브레이션 방식은 체크보드의 크기가 너무 크고 캘리브레이션을 위한 공간도 요구되며, 사용자 혼자서는 캘리브레이션을 수행할 수 없을 뿐만 아니라, 수시로 원하는 시점에 자동으로 캘리브레이션을 수행할 수 없다는 문제점이 있다. 즉, 종래의 차량에 장착된 카메라의 캘리브레이션 방식은 차량이 출고될 당시에 최초로 수행될 수 있으며, 만약 차량의 진동 충격 등으로 카메라 센서가 틀어질 경우 A/S 센터나 공장에 입고되어 캘리브레이션을 수행해야 되기 때문에 그 전까지는 상기 카메라 센서의 정상적인 기능을 이용할 수 없는 문제점이 있다. However, in the conventional calibration method using a checkboard, the size of the checkboard is too large and space for calibration is required, and not only can the user not perform the calibration alone, but the calibration cannot be performed automatically at any time and at the desired time. There is a problem. In other words, the calibration method of the camera mounted on a conventional vehicle can be performed for the first time when the vehicle is shipped, and if the camera sensor is distorted due to vibration or impact of the vehicle, it must be delivered to an A/S center or factory to perform calibration. Therefore, there is a problem that the normal function of the camera sensor cannot be used until then.

더구나 최근의 차량에는 상기 카메라 센서뿐만 아니라 상기 카메라 센서를 보완하기 위한 다른 센서(예 : Lidar 센서)가 추가로 설치(부착)되고 있는 상황에 있으며, 이에 따라 상기 카메라 센서와 상기 카메라 센서를 보완하기 위한 다른 센서(예 : Lidar 센서)의 동기를 맞추어 캘리브레이션을 수행해야 한다(즉, 동일한 기준을 이용해 캘리블레이션을 수행해야 한다).Moreover, in recent vehicles, in addition to the camera sensor, other sensors (e.g., Lidar sensors) are additionally installed (attached) to complement the camera sensor, and thus, to complement the camera sensor and the camera sensor. Calibration must be performed in synchronization with other sensors (e.g. Lidar sensors) (i.e., calibration must be performed using the same standard).

상기와 같이 복수의 센서(예 : 카메라, 라이다)에 대해서 종래의 방식으로 동기를 맞추어 캘리브레이션을 수행하기 위해서는, 더욱 A/S 센터나 공장에 입고되어 캘리브레이션을 수행해야 되기 때문에 상기 복수의 센서(예 : 카메라, 라이다)의 기능을 정상적으로 이용할 수 없는 문제점이 있다. In order to synchronize and calibrate a plurality of sensors (e.g., camera, lidar) in the conventional manner as described above, the plurality of sensors ( There is a problem in which the functions of (e.g. camera, lidar) cannot be used properly.

따라서 복수의 센서(예 : 카메라, 라이다)에 대해서 동기를 맞추어 수시로 원하는 시점에 자동으로 캘리브레이션을 수행(즉, 복수의 센서가 동일한 기준을 이용해 캘리블레이션을 수행)할 수 있도록 하기 위한 방법이 필요한 상황이다.Therefore, there is a method to synchronize multiple sensors (e.g. cameras, lidar) and automatically perform calibration at any desired time (i.e., multiple sensors perform calibration using the same standard). It is a necessary situation.

본 발명의 배경기술은 대한민국 등록특허 10-1748398호(2017.06.12. 등록, 차량에 장착된 카메라의 캘리브레이션 장치 및 방법)에 개시되어 있다. The background technology of the present invention is disclosed in Republic of Korea Patent No. 10-1748398 (registered on June 12, 2017, Calibration device and method for a camera mounted on a vehicle).

본 발명의 일 측면에 따르면, 본 발명은 상기와 같은 문제점을 해결하기 위해 창작된 것으로서, 차량용 카메라와 라이다 센서의 캘리브레이션을 위하여 특별한 마커나 지그를 사용하지 않고, 차량의 강체(rigid body)를 이용하여 자동으로 캘리브레이션을 수행할 수 있도록 하는, 차량용 카메라 및 라이다 센서의 캘리브레이션 장치 및 방법을 제공하는 데 그 목적이 있다. According to one aspect of the present invention, the present invention was created to solve the above problems, and the rigid body of the vehicle is calibrated without using a special marker or jig for calibration of vehicle cameras and lidar sensors. The purpose is to provide a calibration device and method for vehicle cameras and lidar sensors that enable automatic calibration using the present invention.

본 발명의 일 측면에 따른 차량용 카메라 및 라이다 센서의 캘리브레이션 장치는, 차량 전방의 영상을 촬영하는 영상 센서인 카메라부; 빛을 활용해 거리 측정하고 물체를 감지하는 센서인 라이다 센서부; 상기 카메라부와 라이다 센서부의 FOV(Field of View)에 따라 보이는 차량의 강체 영상에서 지정된 적어도 하나 이상의 특징점 및 그 위치 정보를 검출하는 특징점 검출부; 상기 각 센서에 대하여 최후의 캘리브레이션 시 기준으로 설정한 특징점 정보를 저장하는 특징점 정보 저장부; 및 상기 검출한 각 센서의 특징점 정보가 상기 특징점 정보 저장부에 각기 저장된 특징점 대비 변경된 센서를 검출하고, 이전 대비 특징점 정보가 변경된 것으로 검출된 해당 센서에 대한 캘리브레이션을 재 수행하는 제어부;를 포함하는 것을 특징으로 한다.A calibration device for a vehicle camera and lidar sensor according to an aspect of the present invention includes a camera unit, which is an image sensor that captures an image in front of the vehicle; Lidar sensor unit, a sensor that uses light to measure distance and detect objects; a feature point detection unit that detects at least one feature point and its location information specified in the rigid body image of the vehicle viewed according to the field of view (FOV) of the camera unit and the lidar sensor unit; a feature point information storage unit that stores feature point information set as a standard at the time of final calibration for each sensor; And a control unit that detects sensors in which the feature point information of each detected sensor has changed compared to the feature points stored in the feature point information storage unit, and re-performs calibration for the corresponding sensor whose feature point information has been detected to have changed compared to the previous one. It is characterized by

본 발명에 있어서, 상기 특징점 정보는, 특징점의 종류 및 위치 정보를 포함하는 것을 특징으로 한다.In the present invention, the feature point information includes type and position information of the feature point.

본 발명에 있어서, 상기 특징점 정보는, 최후의 캘리브레이션시 기준으로 설정한 특징점의 정보인 것을 특징으로 한다.In the present invention, the feature point information is characterized in that it is information on feature points set as a standard at the time of final calibration.

본 발명에 있어서, 상기 특징점 정보 저장부에 이전에 저장되어 있던 캘리브레이션 특징점 정보가 변경되었을 경우, 상기 특징점 검출부에서 검출된 새로운 특징점 정보로 수정하는 특징점 정보 수정부;를 더 포함하는 것을 특징으로 한다.In the present invention, when the calibration feature point information previously stored in the feature point information storage unit is changed, the feature point information correction unit modifies the feature point information with new feature point information detected by the feature point detection section.

본 발명에 있어서, 상기 특징점 정보가 이전 대비 변경되었을 경우, 이전에 저장되어 있던 특징점 정보에서 새로 변경된 특징점 정보의 차이에 대응하여 보정 파라미터를 산출하는 파라미터 수정부;를 더 포함하는 것을 특징으로 한다.In the present invention, when the feature point information is changed compared to the previous one, the feature point information further includes a parameter correction unit that calculates a correction parameter in response to the difference between the previously stored feature point information and the newly changed feature point information.

본 발명에 있어서, 상기 보정 파라미터는, 이전의 캘리브레이션 상태에서 상기 특징점 정보의 변경에 따라 재 수행할 캘리브레이션을 위한 파라미터인 것을 특징으로 한다.In the present invention, the correction parameter is characterized as a parameter for calibration to be re-performed according to a change in the feature point information in the previous calibration state.

본 발명의 다른 측면에 따른 차량용 카메라 및 라이다 센서의 캘리브레이션 방법은, 제어부가 카메라 영상 및 라이다 영상을 입력받는 단계; 상기 제어부가 상기 카메라 영상 및 라이다 영상에서 특징점을 검출하는 단계; 상기 제어부가 상기 검출한 특징점의 위치가 이전에 저장된 특징점의 위치와 동일한지 각 센서별로 각기 체크하는 단계; 상기 특징점의 위치가 이전에 저장된 특징점의 위치와 동일하지 않은 경우, 상기 제어부가 상기 검출된 특징점을 기 저장된 특징점 정보와 비교하여 지정된 오차 범위 이상 차이가 발생하는지 체크하는 단계; 상기 검출된 특징점의 위치가 이전에 저장된 특징점의 위치와 오차 범위 이상 차이가 발생하면, 상기 제어부가 이전에 저장되어 있던 특징점 정보를 상기 검출된 새로운 특징점 정보로 수정하는 단계; 상기 제어부가 상기 이전에 저장되어 있던 특징점 정보와 상기 검출된 새로운 특징점 정보의 차이에 대응하는 보정 파라미터를 산출하는 단계; 및 상기 제어부가 상기 산출한 보정 파라미터를 이용하여 특징점 정보가 변경된 해당 센서의 캘리브레이션을 재 수행하는 단계;를 포함하는 것을 특징으로 한다.A calibration method of a vehicle camera and LiDAR sensor according to another aspect of the present invention includes the steps of a control unit receiving a camera image and a LiDAR image; The control unit detecting feature points in the camera image and LiDAR image; the control unit checking for each sensor whether the location of the detected feature point is the same as the location of a previously stored feature point; When the position of the feature point is not the same as the position of a previously stored feature point, the control unit compares the detected feature point with previously stored feature point information to check whether a difference exceeds a specified error range; If the position of the detected feature point differs from the position of the previously stored feature point by more than an error range, the control unit correcting the previously stored feature point information with the new detected feature point information; The control unit calculating a correction parameter corresponding to a difference between the previously stored feature point information and the detected new feature point information; and re-performing, by the control unit, the calibration of the corresponding sensor whose feature point information has changed using the calculated correction parameters.

본 발명에 있어서, 상기 카메라 영상은, 카메라부에서 촬영된 영상을 의미하며, 상기 라이다 영상은, 라이다 센서부에서 센싱된 영상을 의미하는 것을 특징으로 한다.In the present invention, the camera image refers to an image captured by a camera unit, and the LIDAR image refers to an image sensed by a LiDAR sensor unit.

본 발명에 있어서, 상기 특징점은, 차량의 강체(rigid body)에서 지정된 것임을 특징으로 한다.In the present invention, the feature point is characterized as being designated from the rigid body of the vehicle.

본 발명에 있어서, 상기 특징점의 종류와 위치 정보는 최초의 캘리브레이션 시 지정될 수 있음을 특징으로 한다.In the present invention, the type and location information of the feature point can be specified at the time of initial calibration.

본 발명에 있어서, 상기 특징점의 위치 정보는, 각 센서 영상에서의 좌표 정보인 것을 특징으로 한다.In the present invention, the location information of the feature point is characterized in that it is coordinate information in each sensor image.

본 발명에 있어서, 상기 특징점의 위치 정보는, 상기 각 센서가 동일하게 캘리브레이션을 위한 기준으로 사용하되, 상기 각 센서가 설치되는 위치에 대응하여 각 센서에서 캘리브레이션을 위해 저장되는 특징점의 위치 정보가 설정되는 것을 특징으로 한다.In the present invention, the location information of the feature point is used as a standard for calibration by each sensor, but the location information of the feature point stored for calibration in each sensor is set corresponding to the location where each sensor is installed. It is characterized by being

본 발명에 있어서, 상기 상기 검출한 특징점의 위치가 이전에 저장된 특징점의 위치와 동일한지 각 센서별로 각기 체크한 결과, 특징점의 위치가 이전에 저장된 특징점의 위치와 동일한 경우 상기 제어부는 기존에 수행된 캘리브레이션 상태를 센서별 각기 유지하는 단계;를 더 포함하는 것을 특징으로 한다.In the present invention, as a result of checking for each sensor whether the location of the detected feature point is the same as the location of the previously stored feature point, if the location of the feature point is the same as the location of the previously stored feature point, the control unit performs the previously performed function. The method further includes maintaining a calibration state for each sensor.

본 발명에 있어서, 상기 검출된 특징점을 기 저장된 특징점 정보와 비교하여 지정된 오차 범위 이상 차이가 발생하는지 체크한 결과, 검출된 특징점의 위치가 이전에 저장된 특징점의 위치와 다르더라도 오차 범위 이상 차이가 발생하지 않으면, 상기 제어부는 기존에 수행된 캘리브레이션 상태를 센서별 각기 유지하는 단계;를 더 포함하는 것을 특징으로 한다.In the present invention, as a result of comparing the detected feature point with previously stored feature point information and checking whether a difference exceeds a specified error range, a difference occurs that exceeds the error range even if the position of the detected feature point is different from the position of the previously stored feature point. Otherwise, the control unit may further include maintaining the previously performed calibration state for each sensor.

본 발명에 있어서, 상기 보정 파라미터는, 이전의 캘리브레이션 상태에서 상기 특징점 정보의 변경에 따라 재 수행할 캘리브레이션을 위한 파라미터를 의미하는 것을 특징으로 한다.In the present invention, the correction parameter refers to a parameter for calibration to be re-performed according to a change in the feature point information in the previous calibration state.

본 발명의 일 측면에 따르면, 본 발명은 차량용 카메라와 라이다 센서의 캘리브레이션을 위하여 특별한 마커나 지그를 사용하지 않고, 차량의 강체(rigid body)를 이용하여 자동으로 캘리브레이션을 수행할 수 있도록 한다.According to one aspect of the present invention, the present invention enables calibration of vehicle cameras and lidar sensors automatically using the rigid body of the vehicle without using a special marker or jig.

본 발명의 다른 측면에 따르면, 본 발명은 차량용 카메라와 라이다 센서에 대해서 동일한 기준을 이용해 수시로 원하는 시점에 자동으로 캘리블레이션을 수행할 수 있도록 한다.According to another aspect of the present invention, the present invention enables automatic calibration of vehicle cameras and lidar sensors at any desired time using the same standard.

도 1은 본 발명의 일 실시예에 따른 차량용 카메라 및 라이다 센서의 캘리브레이션 장치의 개략적인 구성을 보인 예시도.
도 2는 본 발명의 일 실시예에 따른 차량용 카메라 및 라이다 센서의 캘리브레이션 방법을 설명하기 위한 흐름도.
도 3은 상기 도 1에 있어서, 차량용 카메라에서 촬영된 영상 및 라이다 센서를 이용해 센싱된 영상을 보인 예시도.
도 4는 상기 도 1에 있어서, 본 실시예에서 특징점으로 사용할 수 있는 엠블럼을 보인 예시도.
도 5는 종래에 카메라와 라이다 센서에 대한 캘리브레이션을 수행할 수 있는 방법과 이때 발생할 수 있는 문제점을 개략적으로 설명하기 위하여 보인 예시도.
1 is an exemplary diagram showing the schematic configuration of a calibration device for a vehicle camera and lidar sensor according to an embodiment of the present invention.
Figure 2 is a flowchart illustrating a calibration method of a vehicle camera and lidar sensor according to an embodiment of the present invention.
FIG. 3 is an example diagram showing an image captured by a vehicle camera and an image sensed using a LiDAR sensor in FIG. 1.
Figure 4 is an example diagram showing an emblem that can be used as a feature point in this embodiment in Figure 1.
Figure 5 is an example diagram shown to schematically explain a conventional method of calibrating cameras and lidar sensors and problems that may occur in this case.

이하, 첨부된 도면을 참조하여 본 발명에 따른 차량용 카메라 및 라이다 센서의 캘리브레이션 장치 및 방법의 일 실시예를 설명한다. Hereinafter, an embodiment of a calibration device and method for a vehicle camera and lidar sensor according to the present invention will be described with reference to the attached drawings.

이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로, 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In this process, the thickness of lines or sizes of components shown in the drawing may be exaggerated for clarity and convenience of explanation. In addition, the terms described below are terms defined in consideration of functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, definitions of these terms should be made based on the content throughout this specification.

도 1은 본 발명의 일 실시예에 따른 차량용 카메라 및 라이다 센서의 캘리브레이션 장치의 개략적인 구성을 보인 예시도이다.Figure 1 is an exemplary diagram showing the schematic configuration of a calibration device for a vehicle camera and lidar sensor according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 실시예에 따른 차량용 카메라 및 라이다 센서의 캘리브레이션 장치는, 카메라부(110), 라이다 센서부(120), 특징점 검출부(130), 제어부(140), 특징점 정보 저장부(150), 특징점 정보 수정부(160), 및 파라미터 수정부(170)를 포함한다.As shown in FIG. 1, the calibration device for a vehicle camera and LiDAR sensor according to this embodiment includes a camera unit 110, a LiDAR sensor unit 120, a feature point detection unit 130, a control unit 140, and a feature point. It includes an information storage unit 150, a feature point information modification unit 160, and a parameter modification unit 170.

상기 카메라부(110)는 차량 전방의 영상을 촬영하여 출력한다. The camera unit 110 captures and outputs an image of the front of the vehicle.

상기 카메라부(100)는 단안 카메라 또는 스테레오 카메라를 포함할 수 있다.The camera unit 100 may include a monocular camera or a stereo camera.

상기 카메라부(100)는 기준 파라미터가 각기 설정될 수 있다. 예컨대 상기 카메라부(100)가 스테레오 카메라인 경우 좌측 카메라 및 우측 카메라 각각에 파라미터가 설정될 수 있다.The camera unit 100 may have its own standard parameters set. For example, if the camera unit 100 is a stereo camera, parameters may be set for each of the left and right cameras.

상기 라이다(LIDAR, Light Detection and Ranging) 센서부(120)는 빛을 활용해 거리 측정하고 물체를 감지하는 센서로서, 라이다는 레이더와 비슷한 원리를 가지고 있다. The LIDAR (Light Detection and Ranging) sensor unit 120 is a sensor that uses light to measure distance and detect objects, and LIDAR has a similar principle to radar.

다만 레이더는 전자기파를 외부로 발사해 재수신되는 전자기파로 거리, 및 방향 등을 확인하지만, 라이다는 펄스 레이저를 발사한다는 차이점이 있다. 즉, 파장이 짧은 레이저를 사용하므로 정밀도 및 해상도가 높고 사물에 따라 입체적 파악까지 가능한 장점이 있다.However, radar emits electromagnetic waves to the outside and checks distance and direction using electromagnetic waves that are re-received, but the difference is that lidar emits pulse lasers. In other words, since a laser with a short wavelength is used, it has the advantage of high precision and resolution and even enables three-dimensional understanding of objects.

예컨대 상기 라이다 센서는 차량의 범퍼나 차량 상부에 장착되어 차량의 전/후방을 센싱하여 사물이나 구조물 등을 감지한다. 참고로 도 3의 (b)에서 상부는 차량용 카메라에서 촬영된 영상을 보인 예시도이고, 도 3의 (b)에서 하부는 차량의 상부에 장착된 라이다 센서의 FOV(Field of View)를 보인 예시도이다.For example, the LIDAR sensor is mounted on the bumper or top of the vehicle and senses the front and rear of the vehicle to detect objects or structures. For reference, the upper part of Figure 3 (b) is an example showing an image captured by a vehicle camera, and the lower part of Figure 3 (b) shows the FOV (Field of View) of the lidar sensor mounted on the top of the vehicle. This is an example diagram.

또한 도 3의 (a)는 차량에 장착되는 카메라와 라이다 센서의 위치를 예시적으로 설명하기 위하여 보인 예시도이다.In addition, Figure 3 (a) is an example diagram shown to illustratively explain the positions of the camera and lidar sensor mounted on the vehicle.

상기 특징점 검출부(130)는 상기 카메라부(110)와 라이다 센서부(120)의 FOV에 따라 보이는 차량의 강체(rigid body) 영상(예 : 카메라 영상, 라이다 센서 영상)에서 지정된 적어도 하나 이상의 특징점(예 : 도 4의 엠블럼 등) 및 그 위치 정보(즉, 영상에서의 좌표 정보)를 검출한다.The feature point detection unit 130 is configured to include at least one or more rigid body images (e.g., camera images, LiDAR sensor images) of a vehicle visible according to the FOV of the camera unit 110 and the LiDAR sensor unit 120. Feature points (e.g., emblems in FIG. 4, etc.) and their location information (i.e., coordinate information in the image) are detected.

상기 특징점 정보는 최후의 캘리브레이션(예 : 공장 출고시의 캘리브레이션)시 기준(즉, 캘리브레이션을 위한 기준)으로 설정한 특징점이 저장된다.The feature point information is stored as a feature point set as a standard (i.e., a standard for calibration) at the time of the final calibration (e.g., calibration upon shipment from the factory).

상기 특징점 정보 저장부(150)는 상기 최후의 캘리브레이션 시 기준으로 설정한 특징점 정보(예 : 특징점의 종류 및 위치 정보)를 저장한다.The feature point information storage unit 150 stores feature point information (eg, type and location information of feature points) set as a standard during the final calibration.

상기 특징점 정보 수정부(160)는 상기 이전에 저장되어 있던 캘리브레이션 특징점 정보(예 : 특징점의 종류 및 위치 정보)가 변경되었을 경우, 상기 특징점 검출부(130)에서 검출된 새로운 특징점 정보(예 : 특징점의 종류 및 위치 정보)로 수정한다.When the previously stored calibration feature point information (e.g., type and position information of feature points) is changed, the feature point information correction unit 160 generates new feature point information (e.g., feature point information) detected by the feature point detection unit 130. type and location information).

상기 파라미터 수정부(170)는 상기 특징점 정보가 이전 대비 변경되었을 경우, 이전에 저장되어 있던 특징점 정보에서 새로 변경된 특징점 정보의 차이에 대응하여 보정된 파라미터를 산출한다. 예컨대 상기 파라미터는 이전의 캘리브레이션 상태에서 상기 특징점 정보의 변경에 따라 수행할 새로운 캘리브레이션을 위한 파라미터이다. When the feature point information is changed compared to the previous one, the parameter correction unit 170 calculates a corrected parameter corresponding to the difference between the previously stored feature point information and the newly changed feature point information. For example, the parameter is a parameter for a new calibration to be performed according to a change in the feature point information in the previous calibration state.

여기서 상기 특징점은 강체(rigid body)로 설정되어 있기 때문에 상기 특징점 정보가 변경되었다는 것은, 사실상 강체 자체가 변형되기는 어렵기 때문에 실질적으로는 차량의 진동이나 충격 등으로 카메라 혹은 라이다 센서가 틀어진 상황을 의미한다. Here, since the feature point is set as a rigid body, changing the feature point information means that it is difficult for the rigid body itself to be deformed, so in reality, it means that the camera or lidar sensor is distorted due to vibration or impact of the vehicle, etc. it means.

따라서 상기 특징점 정보가 기존 대비 변경된 센서(즉, 카메라 혹은 라이다 센서)가 검출될 경우, 해당 센서(즉, 카메라 혹은 라이다 센서)의 자세가 변경된 것을 의미하므로, 상기 제어부(140)는 특징점 정보가 변경된 것으로 검출된 해당 센서(즉, 카메라 혹은 라이다 센서)에 대한 캘리브레이션만 재 수행하면 된다. Therefore, when a sensor (i.e., camera or LiDAR sensor) whose feature point information has changed compared to the existing one is detected, it means that the posture of the corresponding sensor (i.e., camera or LiDAR sensor) has changed, and the control unit 140 provides the feature point information. You only need to re-perform calibration for the corresponding sensor (i.e. camera or lidar sensor) that is detected to have changed.

상기와 같이 상기 제어부(140)가 특징점 정보가 변경된 센서를 검출하여 해당 센서(예 : 카메라)에 대한 캘리브레이션만 재 수행함으로써, 상기 동일한 기준을 이용해 캘리브레이션 된 복수의 센서(예 : 카메라, 라이다 센서) 중 상기 캘리브레이션을 수행하는 해당 센서(예 : 카메라)를 제외한 다른 센서(예 : 라이다 센서)에서 캘리브레이션은 수행하지 않아도 된다.As described above, the control unit 140 detects a sensor whose feature point information has changed and re-performs only the calibration for the corresponding sensor (e.g. camera), thereby detecting a plurality of sensors (e.g. camera, lidar sensor) calibrated using the same standard. ), calibration does not need to be performed on other sensors (e.g., lidar sensor) except the corresponding sensor (e.g., camera) that performs the above calibration.

참고로 기존에 라이다와 카메라 간의 외적 파라미터(extrinsic parameter)를 계산하기 위해서는, 도 5에 도시된 바와 같이, 임의의 평면을 맞추는(fitting) 방법을 사용한다. 즉, 카메라와 라이다 두 센서에 같은 데이터가 있으면 이것을 기준으로 캘리브레이션을 수행할 수 있다. For reference, in order to calculate the extrinsic parameter between the lidar and the camera, a method of fitting an arbitrary plane is used, as shown in FIG. 5. In other words, if both the camera and lidar sensors have the same data, calibration can be performed based on this.

여기서 같은 데이터라는 것은 대부분은 평면(plane)을 사용하며, 도 5에 도시된 바와 같이, 이미 알고 있는 어떤 마커(=체스보드, 체크보드)를 사용하여 카메라와 라이다의 R/T(Rotation, translation) 매트릭스(Matrix)를 계산하는 방식이다. 하지만 상기 기존의 방법으로 R/T 매트릭스를 계산하더라도 기준 자체가 변할 수 있기 때문에 추후 일부 값들이 틀어지는 문제점이 발생할 수 있다. Here, the same data mostly uses a plane, and as shown in Figure 5, the R/T (Rotation, This is a method of calculating the translation matrix. However, even if the R/T matrix is calculated using the existing method, the standard itself may change, which may cause some values to become incorrect in the future.

하지만 본 실시예는 카메라와 라이다의 FOV(Field of View)에 포함된 차량의 강체(rigid body)를 특징점(Feature Point)으로 이용함으로써 기준 자체가 변경되는 것을 방지하고, 이에 따라 캘리브레이션을 재 수행할 센서를 정확히 검출하여, 해당 센서만 캘리블레이션을 수행하되, 상기 특징점이 변경된 차이에 대응하는 보정 파라미터를 산출하고, 이 보정 파라미터를 이용해 캘리브레이션을 재수행 할 수 있도록 함으로써, 원하는 시점에 자동으로 캘리브레이션을 수행할 수 있도록 한다.However, this embodiment prevents the standard itself from changing by using the rigid body of the vehicle included in the FOV (Field of View) of the camera and lidar as a feature point, and re-performs calibration accordingly. By accurately detecting the sensor to be used and calibrating only that sensor, calculating correction parameters corresponding to the difference in which the feature point has changed, and re-performing the calibration using these correction parameters, the calibration is automatically performed at the desired time. Allows calibration to be performed.

도 2는 본 발명의 일 실시예에 따른 차량용 카메라 및 라이다 센서의 캘리브레이션 방법을 설명하기 위한 흐름도이다.Figure 2 is a flowchart for explaining a calibration method of a vehicle camera and lidar sensor according to an embodiment of the present invention.

도 2를 참조하면, 제어부(140)는 카메라 영상 및 라이다 영상을 입력받는다(S101). 여기서 상기 카메라 영상이란, 카메라부(110)에서 촬영된 영상을 의미하며(도 3의 (b)의 상부 영상 참조), 상기 라이다 영상이란, 라이다 센서부(120)에서 센싱된 영상을 의미한다(도 3의 (b)의 하부 영상 참조).Referring to FIG. 2, the control unit 140 receives camera images and lidar images (S101). Here, the camera image refers to an image captured by the camera unit 110 (see the upper image in Figure 3 (b)), and the LiDAR image refers to an image sensed by the LiDAR sensor unit 120. (Refer to the lower image in Figure 3 (b)).

또한 상기 제어부(140)는 상기 카메라 영상 및 라이다 영상에서의 특징점을 검출한다(S102).Additionally, the control unit 140 detects feature points in the camera image and LIDAR image (S102).

여기서 상기 특징점은 차량의 강체(rigid body)에서 지정된 것으로서, 특징점의 종류와 위치 정보(즉, 영상에서의 좌표 정보)는 최초의 캘리브레이션 시 미리 지정될 수 있다. 또한 상기 특징점 자체는 상기 복수의 센서(예 : 카메라 및 라이다 센서)가 동일하게 기준으로 사용하되, 상기 각 센서(예 : 카메라 및 라이다 센서)가 설치되는 위치가 다르기 때문에 각 센서에서 캘리브레이션을 위해 저장되는 특징점의 위치 정보는 각기 다를 수 있다.Here, the feature point is designated in the rigid body of the vehicle, and the type and location information (i.e., coordinate information in the image) of the feature point can be specified in advance during the first calibration. In addition, the feature point itself is used as the same reference by the plurality of sensors (e.g., camera and lidar sensor), but since the location where each sensor (e.g., camera and lidar sensor) is installed is different, calibration is required for each sensor. The location information of feature points stored for each feature may be different.

이에 따라 상기 제어부(140)는 상기 검출한 특징점의 위치가 이전에 저장된 특징점의 위치와 동일한지 각 센서별로 각기 체크한다(S103).Accordingly, the control unit 140 checks for each sensor whether the location of the detected feature point is the same as the location of the previously stored feature point (S103).

상기 체크(S103) 결과, 특징점의 위치가 이전에 저장된 특징점의 위치와 동일한 경우(S103의 예), 상기 제어부(140)는 기존에 수행된 캘리브레이션 상태를 센서별 각기 유지한다(S108).As a result of the check (S103), if the position of the feature point is the same as the position of the previously stored feature point (example in S103), the control unit 140 maintains the previously performed calibration state for each sensor (S108).

하지만 상기 체크(S103) 결과, 특징점의 위치가 이전에 저장된 특징점의 위치와 동일하지 않은 경우(S103의 아니오), 상기 제어부(140)는 상기 검출된 특징점을 기 저장된 특징점 정보와 비교하여 지정된 오차 범위 이상 차이가 발생하는지 체크한다(S104).However, as a result of the check (S103), if the position of the feature point is not the same as the position of the previously stored feature point (No in S103), the control unit 140 compares the detected feature point with the previously stored feature point information and sets the specified error range. Check whether an abnormal difference occurs (S104).

상기 체크(S104) 결과, 검출된 특징점의 위치가 이전에 저장된 특징점의 위치와 다르더라도 오차 범위 이상 차이가 발생하지 않으면(S104의 아니오), 상기 제어부(140)는 기존에 수행된 캘리브레이션 상태를 센서별 각기 유지한다(S108).As a result of the check (S104), even if the position of the detected feature point is different from the position of the previously stored feature point, if the difference does not exceed the error range (No in S104), the control unit 140 detects the previously performed calibration status as a sensor. Each star is maintained (S108).

하지만 상기 체크(S104) 결과, 검출된 특징점의 위치가 이전에 저장된 특징점의 위치와 오차 범위 이상 차이가 발생하면(S104의 예), 상기 제어부(140)는 이전에 특징점 정보 저장부(150)에 저장되어 있던 특징점 정보를 상기 검출된 새로운 특징점 정보로 수정(또는 업데이트)한다(S105).However, as a result of the check (S104), if the position of the detected feature point differs from the position of the previously stored feature point by more than the error range (example of S104), the control unit 140 previously stored the feature point information storage unit 150. The stored feature point information is modified (or updated) with the detected new feature point information (S105).

또한 상기 제어부(140)는 상기 특징점 정보 저장부(150)에 저장되어 있던 특징점 정보와 상기 검출된 새로운 특징점 정보의 차이에 대응하는 보정 파라미터를 산출한다(S106).Additionally, the control unit 140 calculates a correction parameter corresponding to the difference between the feature point information stored in the feature point information storage unit 150 and the new detected feature point information (S106).

예컨대 상기 보정 파라미터는 이전의 캘리브레이션 상태에서 상기 특징점 정보의 변경에 따라 수행할 새로운 캘리브레이션(즉, 캘리브레이션 재 수행)을 위한 파라미터를 의미한다.For example, the correction parameter refers to a parameter for a new calibration (i.e., re-performing calibration) to be performed according to a change in the feature point information in the previous calibration state.

그리고 상기 제어부(140)는 상기 산출한 보정 파라미터를 이용하여 해당 센서(즉, 특징점 정보가 변경된 센서로서, 카메라 혹은 라이다 센서)의 캘리브레이션을 수행한다(S107).Then, the control unit 140 performs calibration of the corresponding sensor (i.e., a sensor with changed feature point information, such as a camera or lidar sensor) using the calculated correction parameters (S107).

상기와 같이 본 실시예는 차량용 카메라와 라이다 센서의 캘리브레이션을 위하여 특별한 마커나 지그를 사용하지 않고, 차량이 파손되지 않는 한 변하지 않는 차량의 강체(rigid body)를 이용하여 자동으로 캘리브레이션을 수행할 수 있도록 함으로써, 캘리브레이션이 필요한 센서를 판단하여 변경된 특징점 정보에 대응하는 보정 파라미터를 이용하여 원하는 시점에 자동으로 캘리블레이션을 수행할 수 있도록 하는 효과가 있다.As described above, this embodiment does not use special markers or jigs to calibrate vehicle cameras and lidar sensors, but automatically performs calibration using the rigid body of the vehicle, which does not change unless the vehicle is damaged. This has the effect of determining the sensor that needs calibration and automatically performing calibration at a desired time using correction parameters corresponding to the changed feature point information.

이상으로 본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다. 또한 본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.The present invention has been described above with reference to the embodiments shown in the drawings, but these are merely illustrative, and various modifications and other equivalent embodiments can be made by those skilled in the art. You will understand the point. Therefore, the scope of technical protection of the present invention should be determined by the scope of the patent claims below. Implementations described herein may also be implemented as, for example, a method or process, device, software program, data stream, or signal. Although discussed only in the context of a single form of implementation (eg, only as a method), implementations of the features discussed may also be implemented in other forms (eg, devices or programs). The device may be implemented with appropriate hardware, software, firmware, etc. The method may be implemented in a device such as a processor, which generally refers to a processing device including a computer, microprocessor, integrated circuit, or programmable logic device. Processors also include communication devices such as computers, cell phones, portable/personal digital assistants (“PDAs”) and other devices that facilitate communication of information between end-users.

110 : 카메라부 120 : 라이다 센서부
130 : 특징점 검출부 140 : 제어부
150 : 특징점 정보 저장부 160 : 특징점 정보 수정부
170 : 파라미터 수정부
110: camera unit 120: lidar sensor unit
130: feature point detection unit 140: control unit
150: Feature point information storage unit 160: Feature point information correction unit
170: Parameter correction unit

Claims (15)

차량 전방의 영상을 촬영하는 영상 센서인 카메라부;
빛을 활용해 거리 측정하고 물체를 감지하는 센서인 라이다 센서부;
상기 카메라부와 라이다 센서부의 FOV(Field of View)에 따라 보이는 차량의 강체 영상에서 지정된 적어도 하나 이상의 특징점 및 그 위치 정보를 검출하는 특징점 검출부;
상기 각 센서에 대하여 최후의 캘리브레이션 시 기준으로 설정한 특징점 정보를 저장하는 특징점 정보 저장부; 및
상기 검출한 각 센서의 특징점 정보가 상기 특징점 정보 저장부에 각기 저장된 특징점 대비 변경된 센서를 검출하고, 이전 대비 특징점 정보가 변경된 것으로 검출된 해당 센서에 대한 캘리브레이션을 재 수행하는 제어부;를 포함하되,
상기 특징점은,
차량의 강체로서 지정된 엠블럼을 포함하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 장치.
A camera unit, an image sensor that captures images of the front of the vehicle;
Lidar sensor unit, a sensor that uses light to measure distance and detect objects;
a feature point detection unit that detects at least one feature point and its location information specified in the rigid body image of the vehicle viewed according to the field of view (FOV) of the camera unit and the lidar sensor unit;
a feature point information storage unit that stores feature point information set as a standard at the time of final calibration for each sensor; and
A control unit that detects sensors in which the feature point information of each detected sensor has changed compared to the feature points stored in the feature point information storage unit, and re-performs calibration for the corresponding sensor whose feature point information has been detected to have changed compared to the previous one;
The above characteristic points are,
A calibration device for a vehicle camera and lidar sensor, characterized in that it includes an emblem designated as a rigid body of the vehicle.
제 1항에 있어서, 상기 특징점 정보는,
특징점의 종류 및 위치 정보를 포함하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 장치.
The method of claim 1, wherein the feature point information is:
A calibration device for a vehicle camera and lidar sensor, comprising information on the type and location of feature points.
제 1항에 있어서, 상기 특징점 정보는,
최후의 캘리브레이션시 기준으로 설정한 특징점의 정보인 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 장치.
The method of claim 1, wherein the feature point information is:
A calibration device for a vehicle camera and lidar sensor, characterized in that it contains information on feature points set as a standard at the time of final calibration.
제 1항에 있어서,
상기 특징점 정보 저장부에 이전에 저장되어 있던 캘리브레이션 특징점 정보가 변경되었을 경우, 상기 특징점 검출부에서 검출된 새로운 특징점 정보로 수정하는 특징점 정보 수정부;를 더 포함하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 장치.
According to clause 1,
A vehicle camera and lidar sensor further comprising a feature point information correction unit that modifies the feature point information with new feature point information detected by the feature point detection unit when the calibration feature point information previously stored in the feature point information storage unit is changed. calibration device.
제 1항에 있어서,
상기 특징점 정보가 이전 대비 변경되었을 경우, 이전에 저장되어 있던 특징점 정보에서 새로 변경된 특징점 정보의 차이에 대응하여 보정 파라미터를 산출하는 파라미터 수정부;를 더 포함하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 장치.
According to clause 1,
When the feature point information is changed compared to the previous one, a parameter correction unit that calculates a correction parameter in response to the difference between the previously stored feature point information and the newly changed feature point information; a vehicle camera and lidar sensor further comprising a. calibration device.
제 5항에 있어서, 상기 보정 파라미터는,
이전의 캘리브레이션 상태에서 상기 특징점 정보의 변경에 따라 재 수행할 캘리브레이션을 위한 파라미터인 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 장치.
The method of claim 5, wherein the correction parameter is:
A calibration device for a vehicle camera and lidar sensor, characterized in that it is a parameter for calibration to be re-performed according to a change in the feature point information in the previous calibration state.
제어부가 카메라 영상 및 라이다 영상을 입력받는 단계;
상기 제어부가 상기 카메라 영상 및 라이다 영상에서 특징점을 검출하는 단계;
상기 제어부가 상기 검출한 특징점의 위치가 이전에 저장된 특징점의 위치와 동일한지 각 센서별로 각기 체크하는 단계;
상기 특징점의 위치가 이전에 저장된 특징점의 위치와 동일하지 않은 경우, 상기 제어부가 상기 검출된 특징점을 기 저장된 특징점 정보와 비교하여 지정된 오차 범위 이상 차이가 발생하는지 체크하는 단계;
상기 검출된 특징점의 위치가 이전에 저장된 특징점의 위치와 오차 범위 이상 차이가 발생하면, 상기 제어부가 이전에 저장되어 있던 특징점 정보를 상기 검출된 새로운 특징점 정보로 수정하는 단계;
상기 제어부가 상기 이전에 저장되어 있던 특징점 정보와 상기 검출된 새로운 특징점 정보의 차이에 대응하는 보정 파라미터를 산출하는 단계; 및
상기 제어부가 상기 산출한 보정 파라미터를 이용하여 특징점 정보가 변경된 해당 센서의 캘리브레이션을 재 수행하는 단계;를 포함하되,
상기 특징점은,
차량의 강체로서 지정된 엠블럼을 포함하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 방법.
A control unit receiving camera images and lidar images;
The control unit detecting feature points in the camera image and LiDAR image;
the control unit checking for each sensor whether the location of the detected feature point is the same as the location of a previously stored feature point;
When the position of the feature point is not the same as the position of a previously stored feature point, the control unit compares the detected feature point with previously stored feature point information to check whether a difference exceeds a specified error range;
If the position of the detected feature point differs from the position of the previously stored feature point by more than an error range, the control unit correcting the previously stored feature point information with the new detected feature point information;
The control unit calculating a correction parameter corresponding to a difference between the previously stored feature point information and the detected new feature point information; and
Including, the control unit re-performing calibration of the corresponding sensor whose feature point information has changed using the calculated correction parameters,
The above characteristic points are,
A calibration method for a vehicle camera and lidar sensor, comprising an emblem designated as a rigid body of the vehicle.
제 7항에 있어서,
상기 카메라 영상은, 카메라부에서 촬영된 영상을 의미하며,
상기 라이다 영상은, 라이다 센서부에서 센싱된 영상을 의미하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 방법.
According to clause 7,
The camera image refers to the image captured by the camera unit,
The LiDAR image is a calibration method of a vehicle camera and LiDAR sensor, characterized in that the image sensed by the LiDAR sensor unit.
삭제delete 제 7항에 있어서,
상기 특징점의 종류와 위치 정보는 최초의 캘리브레이션 시 지정될 수 있음을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 방법.
According to clause 7,
A calibration method for a vehicle camera and lidar sensor, characterized in that the type and location information of the feature point can be specified at the time of initial calibration.
제 10항에 있어서, 상기 특징점의 위치 정보는,
각 센서 영상에서의 좌표 정보인 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 방법.
The method of claim 10, wherein the location information of the feature point is:
A calibration method for vehicle cameras and lidar sensors, characterized by coordinate information from each sensor image.
제 10항에 있어서, 상기 특징점의 위치 정보는,
상기 각 센서가 동일하게 캘리브레이션을 위한 기준으로 사용하되,
상기 각 센서가 설치되는 위치에 대응하여 각 센서에서 캘리브레이션을 위해 저장되는 특징점의 위치 정보가 설정되는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 방법.
The method of claim 10, wherein the location information of the feature point is:
Each of the above sensors is used as a standard for calibration,
A calibration method for a vehicle camera and lidar sensor, characterized in that location information of feature points stored for calibration in each sensor is set in response to the location where each sensor is installed.
제 7항에 있어서,
상기 상기 검출한 특징점의 위치가 이전에 저장된 특징점의 위치와 동일한지 각 센서별로 각기 체크한 결과,
특징점의 위치가 이전에 저장된 특징점의 위치와 동일한 경우 상기 제어부는 기존에 수행된 캘리브레이션 상태를 센서별 각기 유지하는 단계;를 더 포함하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 방법.
According to clause 7,
As a result of checking for each sensor whether the location of the detected feature point is the same as the location of the previously stored feature point,
If the position of the feature point is the same as the position of the previously stored feature point, the control unit maintains the previously performed calibration state for each sensor. Calibration method for a vehicle camera and a lidar sensor, further comprising:
제 7항에 있어서,
상기 검출된 특징점을 기 저장된 특징점 정보와 비교하여 지정된 오차 범위 이상 차이가 발생하는지 체크한 결과,
검출된 특징점의 위치가 이전에 저장된 특징점의 위치와 다르더라도 오차 범위 이상 차이가 발생하지 않으면, 상기 제어부는 기존에 수행된 캘리브레이션 상태를 센서별 각기 유지하는 단계;를 더 포함하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 방법.
According to clause 7,
As a result of comparing the detected feature point with the previously stored feature point information and checking whether a difference exceeds the specified error range,
Even if the position of the detected feature point is different from the position of the previously stored feature point, if the difference does not exceed the error range, the control unit maintains the previously performed calibration state for each sensor. How to calibrate cameras and lidar sensors.
제 7항에 있어서, 상기 보정 파라미터는,
이전의 캘리브레이션 상태에서 상기 특징점 정보의 변경에 따라 재 수행할 캘리브레이션을 위한 파라미터를 의미하는 것을 특징으로 하는 차량용 카메라 및 라이다 센서의 캘리브레이션 방법.
The method of claim 7, wherein the correction parameter is:
A calibration method for a vehicle camera and lidar sensor, characterized in that it refers to parameters for calibration to be re-performed according to a change in the feature point information in the previous calibration state.
KR1020190000597A 2019-01-03 2019-01-03 Apparatus and method for calibrating camera and lidar sensor of vehicle KR102647929B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190000597A KR102647929B1 (en) 2019-01-03 2019-01-03 Apparatus and method for calibrating camera and lidar sensor of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190000597A KR102647929B1 (en) 2019-01-03 2019-01-03 Apparatus and method for calibrating camera and lidar sensor of vehicle

Publications (2)

Publication Number Publication Date
KR20200084552A KR20200084552A (en) 2020-07-13
KR102647929B1 true KR102647929B1 (en) 2024-03-15

Family

ID=71570902

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190000597A KR102647929B1 (en) 2019-01-03 2019-01-03 Apparatus and method for calibrating camera and lidar sensor of vehicle

Country Status (1)

Country Link
KR (1) KR102647929B1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220059166A (en) 2020-11-02 2022-05-10 주식회사 인포웍스 Multi-camera-based camera composite image automatic calibration method
KR102364007B1 (en) * 2020-12-30 2022-02-16 충북대학교 산학협력단 Online self-calibration system of mutiple 2D LiDARs using ling features with robust adaptive covariance
KR102498435B1 (en) * 2021-01-28 2023-02-13 경북대학교 산학협력단 Apparatus and method for calibration of sensor system of autonomous vehicle
KR102438112B1 (en) * 2021-02-01 2022-08-29 연세대학교 산학협력단 System of Spatial Information Construction Using Mobile Robots
KR102382219B1 (en) * 2021-05-10 2022-04-05 넥스터 주식회사 The settlement method and system of expressing FOD on the road for artificial intelligence autonomous driving and the information usage charge by inferring the information value according to the risk of each abnormal object
KR102556759B1 (en) 2021-08-26 2023-07-17 한국로봇융합연구원 Apparatus for Camera-Lidar Calibration and method thereof
US20230150525A1 (en) * 2021-11-17 2023-05-18 Ford Global Technologies, Llc Dynamic sensor model to adapt vehicle modifications and transformation
KR20230093863A (en) * 2021-12-20 2023-06-27 삼성전자주식회사 Electronic apparatus and control method thereof
KR102633224B1 (en) 2022-11-30 2024-02-06 (주)에스유엠 Object recognition apparatus and method for autonomous vehicles

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090248304A1 (en) * 2008-03-28 2009-10-01 Regents Of The University Of Minnesota Vision-aided inertial navigation
WO2018138584A1 (en) * 2017-01-26 2018-08-02 Mobileye Vision Technologies Ltd. Vehicle navigation based on aligned image and lidar information

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090248304A1 (en) * 2008-03-28 2009-10-01 Regents Of The University Of Minnesota Vision-aided inertial navigation
US20180023953A1 (en) * 2008-03-28 2018-01-25 Regents Of The University Of Minnesota Extended kalman filter for 3d localization and vision-aided inertial navigation
WO2018138584A1 (en) * 2017-01-26 2018-08-02 Mobileye Vision Technologies Ltd. Vehicle navigation based on aligned image and lidar information

Also Published As

Publication number Publication date
KR20200084552A (en) 2020-07-13

Similar Documents

Publication Publication Date Title
KR102647929B1 (en) Apparatus and method for calibrating camera and lidar sensor of vehicle
US10701341B2 (en) Calibration method, calibration device, and computer program product
US9858684B2 (en) Image processing method and apparatus for calibrating depth of depth sensor
CN108111828B (en) Projection equipment correction method and device and projection equipment
US10152119B2 (en) Head-mounted display apparatus and calibration method thereof
EP2530647A1 (en) Method of calibrating a vehicle vision system and vehicle vision system
JP6970577B2 (en) Peripheral monitoring device and peripheral monitoring method
KR20140071330A (en) Method and apparatus for calibrating an imaging device
CN112489136B (en) Calibration method, position determination device, electronic equipment and storage medium
US10220783B2 (en) Vehicle-mounted stereo camera device and method for correcting the same
US6697146B2 (en) Range finder for finding range by image realization
US11346663B2 (en) Stereo camera
US20150139556A1 (en) Apparatus for compensating camera image and operating method thereof
KR20160050439A (en) Method for adjusting output video of rear camera for vehicles
KR20200137214A (en) Apparatus and method for evaluating a surround-view image for a vehicle
KR102477480B1 (en) Apparatus for calibrating for around view camera and method thereof
WO2017042999A1 (en) In-vehicle stereo camera device and method for correcting same
KR20210003325A (en) Method and apparatus for carlibratiing a plurality of cameras
KR102121287B1 (en) Camera system and controlling method of Camera system
WO2017042995A1 (en) In-vehicle stereo camera device and method for correcting same
KR102611759B1 (en) Apparatus for calibrating of around view image for vehicle and control method thereof
CN108062778B (en) Position adjusting method and control device of shooting device
US20200374503A1 (en) Method for Determining Distance Information from Images of a Spatial Region
KR102277828B1 (en) Method and apparatus for calibratiing a plurality of cameras
EP3879810A1 (en) Imaging device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant