KR102054455B1 - Apparatus and method for calibrating between heterogeneous sensors - Google Patents

Apparatus and method for calibrating between heterogeneous sensors Download PDF

Info

Publication number
KR102054455B1
KR102054455B1 KR1020180116141A KR20180116141A KR102054455B1 KR 102054455 B1 KR102054455 B1 KR 102054455B1 KR 1020180116141 A KR1020180116141 A KR 1020180116141A KR 20180116141 A KR20180116141 A KR 20180116141A KR 102054455 B1 KR102054455 B1 KR 102054455B1
Authority
KR
South Korea
Prior art keywords
sensor
camera sensor
calibration
marker board
image data
Prior art date
Application number
KR1020180116141A
Other languages
Korean (ko)
Inventor
이진희
쿠마 아재이
권순
김광회
원웅재
윤성훈
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020180116141A priority Critical patent/KR102054455B1/en
Priority to US17/274,870 priority patent/US11971961B2/en
Priority to PCT/KR2019/012562 priority patent/WO2020067751A1/en
Application granted granted Critical
Publication of KR102054455B1 publication Critical patent/KR102054455B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D18/00Testing or calibrating apparatus or arrangements provided for in groups G01D1/00 - G01D15/00
    • G01S17/895
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Disclosed are a device for calibration between heterogeneous sensors, and a method for the same. The purpose of the present invention is to provide a method for improving detection accuracy on an object in a long distance regardless of an installation position of the heterogeneous sensors by performing calibration between the heterogeneous sensors by a 3D marker board in which a hole exists. The method for calibration between heterogeneous sensors includes: a step of identifying image data in which the marker board is photographed by a camera sensor; a step of identifying point cloud data in which the marker board is sensed by a LiDAR sensor; a step of recognizing the hole existing in the marker board in each of the image data and the point cloud data identified; a step of determining a conversion vector for calibration of the camera sensor and the LiDAR sensor based on a radius of the hole recognized based on the point cloud data and the radius of the hole recognized based on the image data; and a step of performing the calibration between the camera sensor and the LiDAR sensor by projecting the point cloud data of the LiDAR sensor to the image data of the camera sensor, using the determined conversion vector.

Description

이종 센서 간의 캘리브레이션 장치 및 방법{APPARATUS AND METHOD FOR CALIBRATING BETWEEN HETEROGENEOUS SENSORS}Calibration device and method between heterogeneous sensors {APPARATUS AND METHOD FOR CALIBRATING BETWEEN HETEROGENEOUS SENSORS}

본 발명은 이종 센서 간의 캘리브레이션 장치 및 방법에 관한 것으로, 보다 구체적으로는 이종 센서를 통해 마커 보드를 각각 촬영하고, 이종 센서 각각의 데이터로부터 마커 보드에 존재하는 홀을 인식한 후 인식된 홀에 기초하여 이종 센서 간의 캘리브레이션을 수행하는 장치 및 방법에 관한 것이다.The present invention relates to a calibration device and method between heterogeneous sensors, and more particularly, to photograph marker boards through heterogeneous sensors, and based on recognized holes after recognizing holes existing in marker boards from the data of respective heterogeneous sensors. The present invention relates to an apparatus and a method for performing calibration between heterogeneous sensors.

최근 센싱 기술의 발달과 더불어 카메라, 라이다, 레이더 등의 센서를 사용한 멀티 센서 데이터 융합 및 데이터 통합 기술에 관심이 증가하였다. 특히 로봇이나 자율주행 시스템은 센서 간의 상호 보완을 통한 안정적 이동성이 중요한 이슈로 대두되었다. 최근 개발된 센서 융합 기술을 통해 각 센서들의 장점을 융합함으로써 개별 센서의 단점을 극복할 수 있고, 안정적 이동에 대한 이슈를 충분히 해결 가능하게 되었다. With the recent development of sensing technology, interest in multi-sensor data fusion and data integration technology using sensors such as cameras, lidars and radars has increased. In particular, robots and autonomous driving systems have emerged as an important issue for stable mobility through complementary complementary sensors. Recently developed sensor fusion technology allows the merits of each sensor to be fused to overcome the disadvantages of individual sensors and to fully solve the issue of stable movement.

또한 이종의 센서를 융합함으로써 자율주행 차량의 주변 환경 및 자신의 현재 위치 등의 다양한 정보를 제공할 수 있다. 예를 들어, 고속 라이다(LiDAR)와 같은 거리 측정 센서는 다양한 로봇 탐색 작업을 위해 RGB카메라와 함께 사용할 수 있다. 라이다 센서는 물체에 대한 3D 위치 및 깊이 정보를 제공할 수 있는 반면 RGB 카메라는 2D 위치 및 색상 정보를 제공한다. 따라서 2D 영상 데이터에 3D 위치 정보를 맵핑함으로써 보다 현실 세계 속의 객체를 시각화 할 수 있다. 이를 위해서는 이종 센서 간의 상대 위치 및 방향을 파악하는 작업이 선행되어야 한다. 따라서 최근 센서 융합 기술이 다양한 분야에 적용됨에 따라 센서 간의 캘리브레이션 이슈가 중요하게 대두되고 있다. In addition, by fusing heterogeneous sensors, various information such as the surrounding environment of the autonomous vehicle and its current location can be provided. For example, distance sensors such as high-speed LiDARs can be used with RGB cameras for various robot navigation tasks. Lidar sensors can provide 3D position and depth information about objects, while RGB cameras provide 2D position and color information. Therefore, by mapping the 3D location information to the 2D image data, it is possible to visualize more objects in the real world. To this end, the task of identifying the relative position and direction between heterogeneous sensors must be preceded. Therefore, as sensor fusion technology is recently applied to various fields, calibration issues between sensors have emerged as an important issue.

특히, 자율주행 차량에서 카메라와 라이다를 이용한 인지 기술 개발을 위해서는 우선적으로 카메라와 라이다 사이의 상대적 위치(자세 및 방향 정보 포함)에 대한 정확한 정보가 필요하므로 캘리브레이션 기술이 매우 중요하다. 카메라와 라이다 센서 데이터를 융합하기 위해서는 객체를 빠르고 정확하게 탐지할 수 있는 마커 유형을 고려하는 작업이 캘리브레이션을 위해 가장 먼저 선행되어야 한다. 대부분의 연구에서는 카메라와 라이다 간에 캘리브레이션을 수행하기 위해, 체커 보드나 상자 등의 평면을 사용한다. In particular, in order to develop cognitive technology using a camera and a lidar in an autonomous vehicle, calibration technology is very important because accurate information about a relative position (including posture and direction information) between the camera and the lidar is needed. In order to fuse camera and lidar sensor data, the task of considering the marker types that can detect objects quickly and accurately must be the first step for calibration. Most studies use a plane, such as a checker board or box, to perform calibration between the camera and lidar.

이때 3D 라이다 포인터를 카메라 2D 이미지에 맵핑하여 내부 파라미터와 외부 파라미터를 찾음으로써 캘리브레이션 작업을 수행하였다. 이 방법들은 평면의 위치 변화나 이종 센서 사이의 위치 변화가 있을 때마다 측정 오차를 유발하거나 캘리브레이션 결과에 영향을 미친다. 특히, 이종 센서 간의 위치 변화가 커지면 평면의 모서리를 정확히 찾아내는 것이 어려우므로 이종 센서 간의 캘리브레이션이 어려워진다. 또한 상이한 패턴 및 컬러를 갖는 원거리 목표물은 센서 특성에 따라 서로 다른 캘리브레이션 결과를 생성할 수도 있다. At this time, the calibration was performed by mapping the 3D lidar pointer to the camera 2D image and finding the internal and external parameters. These methods cause measurement errors or influence calibration results whenever there is a change in position of the plane or a change in position between the heterogeneous sensors. In particular, when the position change between the heterogeneous sensors becomes large, it is difficult to accurately find the edge of the plane, which makes it difficult to calibrate between the heterogeneous sensors. Far targets with different patterns and colors may also produce different calibration results depending on the sensor characteristics.

그러므로 기존 방법들은 정확도를 높이기 위해 대부분 이종 센서 간의 탑재 위치를 최대한 가깝게 배치하여 캘리브레이션을 수행한다. 따라서 이종 센서들을 가깝게 배치한 후 캘리브레이션을 수행하면 가까운 거리에 위치한 물체만 인식 가능하므로 원거리 물체를 인식해야 하는 자율주행 시스템에서는 기존의 캘리브레이션 방법을 사용하기 어려운 단점이 있다.Therefore, conventional methods perform calibration by placing the mounting positions between heterogeneous sensors as close as possible to increase accuracy. Therefore, if the calibration is performed after closely disposing the heterogeneous sensors, only an object located at a close distance can be recognized, and thus, an autonomous driving system that needs to recognize a remote object has a disadvantage of using a conventional calibration method.

본 발명은 홀이 존재하는 3D 마커 보드를 통해 이종 센서 간의 캘리브레이션을 수행함으로써 이종 센서의 탑재 위치에 상관없이 원거리의 물체에 대한 탐지 정확도를 향상시키는 방법을 제공한다. The present invention provides a method of improving the detection accuracy of a distant object regardless of the mounting position of the heterogeneous sensor by performing calibration between the heterogeneous sensors through a 3D marker board having holes.

본 발명의 일실시예에 따른 이종 센서 간의 캘리브레이션 방법은 카메라 센서를 통해 따라 마커 보드를 촬영한 이미지 데이터를 식별하는 단계; 라이다(LiDAR) 센서를 통해 상기 마커 보드를 센싱(Sensing)한 포인트 클라우드 데이터를 식별하는 단계; 상기 식별된 이미지 데이터 및 포인트 클라우드 데이터 각각에서 상기 마커 보드에 존재하는 홀을 인식하는 단계; 상기 이미지 데이터를 통해 인식한 홀의 반지름과 상기 포인트 클라우드 데이터를 통해 인식한 홀의 반지름에 기초하여 상기 카메라 센서와 라이다 센서의 캘리브레이션을 위한 변환 벡터를 결정하는 단계; 및 상기 결정된 변환 벡터를 이용하여 상기 라이다 센서의 포인트 클라우드 데이터를 상기 카메라 센서의 이미지 데이터로 투영함으로써 상기 카메라 센서 및 라이다 센서 간의 캘리브레이션을 수행하는 단계를 포함할 수 있다. The calibration method between heterogeneous sensors according to an embodiment of the present invention comprises the steps of identifying the image data photographed on the marker board through the camera sensor; Identifying point cloud data sensing the marker board through a LiDAR sensor; Recognizing holes present in the marker board in each of the identified image data and point cloud data; Determining a transformation vector for calibration of the camera sensor and the lidar sensor based on the radius of the hole recognized through the image data and the radius of the hole recognized through the point cloud data; And performing calibration between the camera sensor and the lidar sensor by projecting point cloud data of the lidar sensor into image data of the camera sensor using the determined transform vector.

체커 보드를 이용하여 상기 카메라 센서의 초점 길이, 왜곡 및 이미지의 중심을 포함하는 내부 특성에 대응하는 상기 카메라 센서 고유의 캘리브레이션 파라미터를 추정하는 단계를 더 포함하고, 상기 이미지 데이터를 식별하는 단계 및 상기 포인트 클라우드 데이터를 식별하는 단계는 상기 추정된 캘리브레이션 파라미터를 이용하여 추출된 상기 카메라 센서의 시야(Field Of View, FOV)에 대응하는 이미지 데이터 및 포인트 클라우드 데이터를 식별할 수 있다.Estimating a calibration parameter specific to the camera sensor corresponding to an internal characteristic including a focal length, distortion and center of the image using a checker board, identifying the image data; and The step of identifying the point cloud data may identify the point cloud data and the image data corresponding to the field of view (FOV) of the camera sensor extracted by using the estimated calibration parameter.

상기 홀을 인식하는 단계는 상기 식별된 이미지 데이터에 포함된 픽셀들에 대한 픽셀 값의 변화량에 기초하여 상기 마커 보드에 존재하는 홀을 인식할 수 있다.The recognizing of the hole may recognize a hole present in the marker board based on a change amount of a pixel value for pixels included in the identified image data.

상기 홀을 인식하는 단계는 상기 식별된 포인트 클라우드 데이터에 포함된 포인트들 중 일정 각도를 가지는 선을 구성하는 포인트들을 제거함으로써 상기 마커 보드에 존재하는 홀을 인식할 수 있다.The recognizing of the hole may recognize a hole present in the marker board by removing points constituting a line having a predetermined angle among points included in the identified point cloud data.

상기 변환 벡터를 결정하는 단계는 상기 카메라 센서로부터 마커 보드까지의 제1 거리 및 상기 라이다 센서로부터 마커 보드까지의 제2 거리에 기초하여 결정할 수 있다.The determining of the transform vector may be determined based on a first distance from the camera sensor to the marker board and a second distance from the lidar sensor to the marker board.

상기 제1 거리 및 제2 거리는 상기 카메라 센서의 초점 거리, 상기 마커 보드에 존재하는 홀의 반지름 및 상기 카메라 센서와 라이다 센서 각각을 통해 인식된 홀의 반지름을 이용하여 결정될 수 있다.The first distance and the second distance may be determined using a focal length of the camera sensor, a radius of a hole existing in the marker board, and a radius of a hole recognized through each of the camera sensor and a lidar sensor.

상기 캘리브레이션을 수행하는 단계는 상기 결정된 변환 벡터를 이용하여 상기 라이다 센서의 포인트 클라우드 데이터를 상기 카메라 센서의 이미지 데이터로 투영함에 있어 이동 변환을 고려하여 투영할 수 있다.In performing the calibration, the point cloud data of the lidar sensor may be projected to the image data of the camera sensor by using the determined transformation vector in consideration of the movement transformation.

상기 캘리브레이션이 수행된 카메라 센서 및 라이다 센서를 이용하여 타겟을 탐지하는 단계를 더 포함할 수 있다.The method may further include detecting a target by using the calibrated camera sensor and the lidar sensor.

본 발명의 일실시예에 따른 이종 센서 간의 캘리브레이션 방법은 제1 센서를 통해 마커 보드에 존재하는 홀을 인식하는 단계; 제1 센서와 다른 제2 센서를 통해 상기 마커 보드에 존재하는 홀을 인식하는 단계; 및 상기 제1 센서를 통해 인식한 홀의 반지름과 상기 제2 센서를 통해 인식한 홀의 반지름에 기초하여 상기 제1 센서와 제2 센서의 캘리브레이션을 위한 변환 벡터를 결정하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a calibration method between heterogeneous sensors includes: recognizing a hole existing in a marker board through a first sensor; Recognizing a hole present in the marker board through a second sensor different from a first sensor; And determining a conversion vector for calibration of the first sensor and the second sensor based on the radius of the hole recognized by the first sensor and the radius of the hole recognized by the second sensor.

상기 캘리브레이션을 위한 제1 센서의 좌표계와 제2 센서의 좌표계 간의 변환 벡터는, 상기 제1 센서와 제2 센서 사이의 상대적인 위치 차이에 기초하여 결정될 수 있다.The transformation vector between the coordinate system of the first sensor and the coordinate system of the second sensor for the calibration may be determined based on a relative position difference between the first sensor and the second sensor.

본 발명의 일실시예에 따른 이종 센서 간의 캘리브레이션 장치는 카메라 센서 및 라이다 센서 간의 캘리브레이션을 수행하는 프로세서를 포함하고, 상기 프로세서는 카메라 센서를 통해 따라 마커 보드를 촬영한 이미지 데이터를 식별하고, 라이다(LiDAR) 센서를 통해 상기 마커 보드를 센싱(Sensing)한 포인트 클라우드 데이터를 식별하며, 상기 식별된 이미지 데이터 및 포인트 클라우드 데이터 각각에서 상기 마커 보드에 존재하는 홀을 인식하고, 상기 이미지 데이터를 통해 인식한 홀의 반지름과 상기 포인트 클라우드 데이터를 통해 인식한 홀의 반지름에 기초하여 상기 카메라 센서와 라이다 센서의 캘리브레이션을 위한 변환 벡터를 결정하며, 상기 결정된 변환 벡터를 이용하여 상기 라이다 센서의 포인트 클라우드 데이터를 상기 카메라 센서의 이미지 데이터로 투영함으로써 상기 카메라 센서 및 라이다 센서 간의 캘리브레이션을 수행할 수 있다.According to an embodiment of the present invention, a calibration apparatus between heterogeneous sensors includes a processor that performs calibration between a camera sensor and a lidar sensor, and the processor identifies image data of photographing the marker board through the camera sensor. Identifying point cloud data sensing the marker board through a LiDAR sensor, recognizing a hole present in the marker board in each of the identified image data and the point cloud data, and through the image data A transformation vector for calibration of the camera sensor and a lidar sensor is determined based on a radius of the recognized hole and a radius of the hole recognized through the point cloud data, and the point cloud data of the lidar sensor is determined using the determined transformation vector. Of the camera sensor already By projecting the image data, it is possible to perform calibration between the camera sensor and the lidar sensor.

상기 프로세서는 체커 보드를 이용하여 상기 카메라 센서의 초점 길이, 왜곡 및 이미지의 중심을 포함하는 내부 특성에 대응하는 상기 카메라 센서 고유의 캘리브레이션 파라미터를 추정하고, 상기 추정된 캘리브레이션 파라미터를 이용하여 추출된 상기 카메라 센서의 시야(Field Of View, FOV)에 대응하는 이미지 데이터 및 포인트 클라우드 데이터를 식별할 수 있다.The processor estimates a calibration parameter specific to the camera sensor corresponding to an internal characteristic including a focal length, a distortion, and a center of the image of the camera sensor using a checker board, and extracts the extracted calibration parameter using the estimated calibration parameter. Image data and point cloud data corresponding to a field of view (FOV) of the camera sensor may be identified.

상기 프로세서는 상기 식별된 이미지 데이터에 포함된 픽셀들에 대한 픽셀 값의 변화량에 기초하여 상기 마커 보드에 존재하는 홀을 인식할 수 있다.The processor may recognize a hole present in the marker board based on an amount of change of a pixel value with respect to pixels included in the identified image data.

상기 프로세서는 상기 식별된 포인트 클라우드 데이터에 포함된 포인트들 중 일정 각도를 가지는 선을 구성하는 포인트들을 제거함으로써 상기 마커 보드에 존재하는 홀을 인식할 수 있다.The processor may recognize a hole present in the marker board by removing points constituting a line having a predetermined angle among points included in the identified point cloud data.

상기 프로세서는 상기 카메라 센서로부터 마커 보드까지의 제1 거리 및 상기 라이다 센서로부터 마커 보드까지의 제2 거리에 기초하여 결정할 수 있다.The processor may determine based on a first distance from the camera sensor to a marker board and a second distance from the lidar sensor to the marker board.

상기 제1 거리 및 제2 거리는 상기 카메라 센서의 초점 거리, 상기 마커 보드에 존재하는 홀의 반지름 및 상기 카메라 센서와 라이다 센서 각각을 통해 인식된 홀의 반지름을 이용하여 결정될 수 있다.The first distance and the second distance may be determined using a focal length of the camera sensor, a radius of a hole existing in the marker board, and a radius of a hole recognized through each of the camera sensor and a lidar sensor.

상기 프로세서는 상기 결정된 변환 벡터를 이용하여 상기 라이다 센서의 포인트 클라우드 데이터를 상기 카메라 센서의 이미지 데이터로 투영함에 있어 이동 변환을 고려하여 투영할 수 있다.The processor may project the point cloud data of the lidar sensor to the image data of the camera sensor by using the determined transform vector in consideration of a movement transformation.

상기 프로세서는 상기 캘리브레이션이 수행된 카메라 센서 및 라이다 센서를 이용하여 타겟을 탐지할 수 있다. The processor may detect a target using a camera sensor and a lidar sensor on which the calibration is performed.

본 발명의 일실시예에 의하면, 홀이 존재하는 3D 마커 보드를 통해 이종 센서 간의 캘리브레이션을 수행함으로써 이종 센서의 탑재 위치에 상관없이 원거리의 물체에 대한 탐지 정확도를 향상시킬 수 있다. According to an embodiment of the present invention, by performing calibration between heterogeneous sensors through a 3D marker board having holes, detection accuracy of a remote object may be improved regardless of a mounting position of the heterogeneous sensors.

도 1은 본 발명의 일실시예에 따른 이종 센서 간의 캘리브레이션 시스템을 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 마커 보드의 예를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 이종 센서 데이터로부터 홀을 추출하는 예를 도시한 도면이다.
도 4는 본 발명의 일실시예에 따른 변환 벡터를 결정하기 위한 방법을 도시한 도면이다.
도 5는 본 발명의 일실시예에 따른 이종 센서 간의 캘리브레이션 방법을 도시한 도면이다.
1 is a diagram illustrating a calibration system between heterogeneous sensors according to an embodiment of the present invention.
2 is a diagram illustrating an example of a marker board according to an embodiment of the present invention.
3 is a diagram illustrating an example of extracting a hole from heterogeneous sensor data according to an exemplary embodiment of the present invention.
4 illustrates a method for determining a transform vector according to an embodiment of the present invention.
5 is a diagram illustrating a calibration method between heterogeneous sensors according to an embodiment of the present invention.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. However, various changes may be made to the embodiments so that the scope of the patent application is not limited or limited by these embodiments. It is to be understood that all changes, equivalents, and substitutes for the embodiments are included in the scope of rights.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of description and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described on the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components regardless of reference numerals will be given the same reference numerals and duplicate description thereof will be omitted. In the following description of the embodiment, when it is determined that the detailed description of the related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

도 1은 본 발명의 일실시예에 따른 이종 센서 간의 캘리브레이션 시스템을 도시한 도면이다.1 is a diagram illustrating a calibration system between heterogeneous sensors according to an embodiment of the present invention.

도 1을 참고하면, 본 발명의 이종 센서 간의 캘리브레이션 시스템(100)은 제1 센서(110), 제1 센서(110)와는 다른 제2 센서(120), 마커 보드(130) 및 프로세서(140)로 구성될 수 있다. 일례로, 제1 센서(110) 및 제2 센서(120)는 카메라 센서, 라이다 센서, 레이저 센서 등 다양한 센서 중 하나일 수 있다. Referring to FIG. 1, the calibration system 100 between heterogeneous sensors of the present invention includes a first sensor 110, a second sensor 120 different from the first sensor 110, a marker board 130, and a processor 140. It can be configured as. For example, the first sensor 110 and the second sensor 120 may be one of various sensors such as a camera sensor, a lidar sensor, a laser sensor, and the like.

이와 같이 이종 센서를 통해 수집된 데이터를 융합하기 위해서는 각 센서의 프레임 간 좌표 변환, 즉 캘리브레이션을 수행하여야 한다. 이를 위해서는 이종 센서를 통해 수집된 데이터 각각에서 고유한 특징을 식별하고, 식별된 고유한 특징에 기초하여 이종 센서 간 대응 관계를 설정해야 한다.As described above, in order to fuse data collected through heterogeneous sensors, coordinate transformation, ie, calibration, between frames of each sensor must be performed. This requires identifying unique features in each of the data collected by the heterogeneous sensors, and establishing a correspondence relationship between the heterogeneous sensors based on the identified unique features.

본 발명에서는 이종 센서를 이용하여 타겟을 탐지하는 방법을 제공하기 위해 도 2와 같이 복수의 홀이 존재하는 마커 보드(130)를 이용하여 이종 센서 간의 캘리브레이션을 수행하는 방법을 제공한다. 이때, 마커 보드(130)에 존재하는 홀(131~134)은 원형일 수 있으나, 원형에 한정되지 않고 다각형 등 다양한 모양을 가질 수 있다. 또한, 도 2의 마커 보드(130)에는 4개의 홀(131~134)이 존재하지만 이와 같은 홀의 개수는 하나의 예시일 뿐 다양한 개수로 존재할 수 있다. The present invention provides a method for performing calibration between heterogeneous sensors using a marker board 130 having a plurality of holes as shown in FIG. 2 to provide a method for detecting a target using heterogeneous sensors. In this case, the holes 131 to 134 existing in the marker board 130 may be circular, but are not limited to circular and may have various shapes such as polygons. In addition, although four holes 131 ˜ 134 exist in the marker board 130 of FIG. 2, the number of such holes may be only one example and may exist in various numbers.

프로세서(140)는 제1 센서(110) 및 제2 센서(120)로부터 마커 보드(130)를 촬영한 데이터를 각각 식별하고, 식별된 데이터로부터 마커 보드(130) 내에 존재하는 홀을 인식할 수 있다. 그리고 프로세서(140)는 제1 센서(110)를 통해 인식한 홀의 반지름과 제2 센서(120)를 통해 인식한 홀의 반지름에 기초하여 제1 센서(110)와 제2 센서(120)의 캘리브레이션을 위한 변환 벡터를 결정할 수 있다. The processor 140 may identify data photographing the marker board 130 from the first sensor 110 and the second sensor 120, and recognize holes existing in the marker board 130 from the identified data. have. In addition, the processor 140 may calibrate the first sensor 110 and the second sensor 120 based on the radius of the hole recognized by the first sensor 110 and the radius of the hole recognized by the second sensor 120. Can determine the transform vector.

다시 말하자면, 제1 센서(110)의 좌표계와 제2 센서(120)의 좌표계는 상기 변환 벡터를 통해 일치될 수 있는데, 이와 같은 변환 벡터는 제1 센서(110)와 제2 센서(120)의 상대적인 위치 차이, 즉 제1 센서(110)와 마커 보드(130) 사이의 거리 및 제2 센서(120)와 마커 보드(130) 사이의 거리에 기초하여 결정될 수 있다. 보다 자세한 변환 벡터 결정 방법은 이후 개시되는 도 4를 통해 보다 자세히 설명하도록 한다.In other words, the coordinate system of the first sensor 110 and the coordinate system of the second sensor 120 may coincide with each other through the transformation vector. Such a transformation vector may correspond to the first sensor 110 and the second sensor 120. The relative position difference, that is, the distance between the first sensor 110 and the marker board 130 and the distance between the second sensor 120 and the marker board 130 may be determined. A more detailed transform vector determination method will be described in more detail later with reference to FIG. 4.

이후 프로세서(140)는 결정된 변환 벡터를 이용하여 제1 센서(110)의 좌표계 및 제2 센서(120)의 좌표계가 서로 일치하도록 변환함으로써 이종 센서 간의 캘리브레이션을 수행할 수 있다. Thereafter, the processor 140 may perform calibration between the heterogeneous sensors by converting the coordinate system of the first sensor 110 and the coordinate system of the second sensor 120 to match each other using the determined transformation vector.

기존의 이종 센서 간의 캘리브레이션 방법은 마커 보드의 위치 변화나 센서 사이의 위치 변화가 있을 때마다 측정 오차를 유발하거나, 원거리 타겟을 인식하는 경우 센서 자체의 특성에 따라 서로 다른 결과를 생성할 수 있었다. 따라서, 기존의 이종 센서 간의 캘리브레이션 방법은 타겟의 인지 정확도를 높이기 위해 이종 센서 간의 탑재 위치를 최대한 가깝게 배치하여 캘리브레이션을 수행하기 때문에 비교적 가까운 거리 내에 위치한 타겟만을 인식할 수 있으므로, 원거리 타겟을 인지해야 하는 자율주행 시스템 등에서는 적합하지 않는 단점이 있었다.The existing calibration method between heterogeneous sensors may cause measurement errors whenever there is a change in the position of the marker board or a change in position between the sensors, or when the remote target is recognized, different results may be generated depending on the characteristics of the sensor itself. Therefore, in the conventional calibration method between heterogeneous sensors, calibration is performed by placing mounting positions between heterogeneous sensors as close as possible to increase the recognition accuracy of the target, and thus only targets located within relatively close distances can be recognized. In autonomous driving systems, there was a disadvantage.

그러나 본 발명의 이종 센서 간의 캘리브레이션 방법은 홀이 존재하는 마커 보드(130)를 이용하여 캘리브레이션을 수행함으로써 이종 센서 간의 탑재 위치에 상관없이 원거리의 타겟에 대해서도 높은 정확도로 인식할 수 있으므로 자율주행 시스템 등에서도 크게 활용될 수 있다. However, in the calibration method between the heterogeneous sensors of the present invention, since the calibration is performed by using the marker board 130 in which the holes exist, the autonomous driving system or the like can be recognized with high accuracy regardless of the mounting position between the heterogeneous sensors. Can also be greatly utilized.

도 3은 본 발명의 일실시예에 따른 이종 센서 데이터로부터 홀을 인식하는 예를 도시한 도면이다.3 is a diagram illustrating an example of recognizing a hole from heterogeneous sensor data according to an exemplary embodiment of the present invention.

본 발명에서는 다양한 이종 센서 간의 캘리브레이션 방법 중 카메라 센서 및 라이다 센서 간의 캘리브레이션 방법을 제공한다. 따라서, 카메라 센서 및 라이다 센서 간의 캘리브레이션을 수행하기 위해서는 먼저 카메라 센서 및 라이다 센서 각각이 마커 보드(130)를 촬영한 데이터로부터 마커 보드(130) 내에 존재하는 홀을 인식하는 것이 필요하다.The present invention provides a calibration method between a camera sensor and a lidar sensor among calibration methods between various heterogeneous sensors. Therefore, in order to perform the calibration between the camera sensor and the lidar sensor, it is necessary to first recognize the holes existing in the marker board 130 from the data photographed by the camera sensor and the lidar sensor.

먼저, 프로세서(140)는 이종 센서 중 하나가 카메라 센서인 경우, 체커 보드를 이용하여 카메라 센서의 초점 길이, 왜곡 및 이미지의 중심 등 카메라 센서 자체의 내부 특성에 대응하는 카메라 센서 고유의 캘리브레이션 파라미터를 추정할 수 있다. 이는 이종 센서 즉, 카메라 센서 및 라이다 센서를 통해 수집한 이미지 데이터 및 포인트 클라우드 데이터의 융합을 위해 필수적인 단계일 수 있다. 이와 같은 카메라 센서 고유의 캘리브레이션 파라미터를 이용하여 수행된 캘리브레이션의 결과로 카메라 행렬, 왜곡 계수 및 카메라 투영 행렬 등을 획득할 수 있다. 이때, 카메라 투영 행렬은 하기의 식 1과 같이 내부 행렬 및 외부 행렬의 결합으로 획득할 수 있다.First, when one of the heterogeneous sensors is a camera sensor, the processor 140 may use a checker board to determine a calibration parameter unique to the camera sensor corresponding to internal characteristics of the camera sensor itself, such as a focal length, distortion, and center of the image of the camera sensor. It can be estimated. This may be an essential step for the convergence of point data and image data collected through heterogeneous sensors, that is, a camera sensor and a lidar sensor. As a result of the calibration performed using the calibration parameters unique to the camera sensor, a camera matrix, a distortion coefficient, a camera projection matrix, and the like may be obtained. In this case, the camera projection matrix may be obtained by combining the inner matrix and the outer matrix, as shown in Equation 1 below.

<식 1><Equation 1>

Figure 112018096183932-pat00001
Figure 112018096183932-pat00001

여기서,

Figure 112018096183932-pat00002
이고, 내부 행렬
Figure 112018096183932-pat00003
는 하기의 식 2와 같이 2D 변환 행렬(2D translational matrix), 2D 스케일링 행렬(2D scaling matrix) 및 2D 전단 행렬(2D shear matrix)의 곱으로 분해될 수 있다. here,
Figure 112018096183932-pat00002
, The inner matrix
Figure 112018096183932-pat00003
May be decomposed into a product of a 2D translation matrix, a 2D scaling matrix, and a 2D shear matrix as shown in Equation 2 below.

<식 2><Equation 2>

Figure 112018096183932-pat00004
Figure 112018096183932-pat00004

여기서

Figure 112018096183932-pat00005
Figure 112018096183932-pat00006
는 이미지 데이터의 중심이고,
Figure 112018096183932-pat00007
Figure 112018096183932-pat00008
는 픽셀 유닛의 초점 거리이며, s 는 전단 계수이다. here
Figure 112018096183932-pat00005
Wow
Figure 112018096183932-pat00006
Is the center of the image data,
Figure 112018096183932-pat00007
Wow
Figure 112018096183932-pat00008
Is the focal length of the pixel unit and s is the shear coefficient.

도 3의 (a)는 라이다 센서를 이용하여 마커 보드(130)를 센싱 함으로써 식별된 포인트 클라우드 데이터로부터 마커 보드(130) 내에 존재하는 홀을 인식하는 예를 보여준다. FIG. 3A illustrates an example of recognizing a hole existing in the marker board 130 from the identified point cloud data by sensing the marker board 130 using a LiDAR sensor.

프로세서(140)는 라이다 센서를 통해 수집된 포인트 클라우드 데이터를 카메라 센서의 시야(Field Of View, FOV)에 기초하여 분할(Segment)할 수 있다. 이때, 카메라 센서의 시야는 카메라 센서 고유의 캘리브레이션 파라미터를 이용하여 추출될 수 있다. 분할된 포인트 클라우드 데이터에는 센싱한 마커 보드(130) 뿐만 아니라 마커 보드(130) 주변의 다양한 오브젝트들이 함께 포함될 수 있다.The processor 140 may segment the point cloud data collected through the lidar sensor based on a field of view (FOV) of the camera sensor. In this case, the field of view of the camera sensor may be extracted using calibration parameters inherent to the camera sensor. The divided point cloud data may include various objects around the marker board 130 as well as the sensed marker board 130.

프로세서(140)는 카메라 센서의 시야에 해당하는 포인트 클라우드 데이터에서 마커 보드(130) 만을 추출하기 위하여 모든 오브젝트의 법선(Normal)과 곡률(Curvature)을 계산하여 동일한 법선과 곡률을 가지는 평면(Plane)을 식별할 수 있다. 이때, 식별된 평면은 마커 보드(130)에 해당할 수 있으며, 프로세서(140)는 식별된 평면만을 추출하고, 나머지 부분은 제거할 수 있다.The processor 140 calculates normal and curvature of all objects to extract only the marker board 130 from the point cloud data corresponding to the field of view of the camera sensor, and has a plane having the same normal and curvature. Can be identified. In this case, the identified plane may correspond to the marker board 130, and the processor 140 may extract only the identified plane and remove the remaining part.

프로세서(140)는 추출된 평면에 포함된 포인트 클라우드 데이터에서 일정 각도를 가지는 선을 구성하는 포인트들을 제거함으로써 마커 보드(130)에 존재하는 홀을 인식할 수 있다. 보다 구체적으로 프로세서(140)는 평면에 맵핑된 포인트들 중에서 동일한 각도를 가지는 선(Line)을 찾고, 선 분할(Line Segment) 작업을 통해 동일한 각도를 가지는 선을 추출하여 해당 선에 맵핑된 포인트들을 제거할 수 있다. 이와 같은 작업을 통해 프로세서(140)는 마커 보드(130)에 대응하는 평면에서 홀에 대응하는 원형(Circle)의 포인트들만 남길 수 있다. The processor 140 may recognize a hole present in the marker board 130 by removing points constituting a line having a predetermined angle from the point cloud data included in the extracted plane. More specifically, the processor 140 finds a line having the same angle among the points mapped to the plane, extracts a line having the same angle through a line segmenting operation, and extracts the points mapped to the corresponding line. Can be removed Through this operation, the processor 140 may leave only points of a circle corresponding to a hole in a plane corresponding to the marker board 130.

이후 프로세서(140)는 마커 보드(130) 내에 존재하는 홀을 인식하기 위하여 원의 중심점과 반지름의 임계값을 정하고, 다양하게 검출된 다각형(원 포함) 중에서 일정 반지름을 가지는 홀을 식별할 수 있다. 일례로, 본 발명에서는 자율주행 시스템에 활용하기 위하여 반지름을 20~22cm로 결정하였고, 해당 임계값 범위 내에 있는 네 개의 원을 도 3의 (a)와 같이 인식할 수 있었다.Thereafter, the processor 140 may determine a threshold of a center point and a radius of a circle in order to recognize a hole existing in the marker board 130, and identify a hole having a predetermined radius among various detected polygons (including a circle). . For example, in the present invention, the radius was determined to be 20 to 22 cm in order to utilize the autonomous driving system, and four circles within the corresponding threshold range could be recognized as shown in FIG.

도 3의 (b)는 카메라 센서를 이용하여 마커 보드(130)를 센싱함으로써 식별된 이미지 데이터로부터 마커 보드(130) 내에 존재하는 홀을 인식하는 예를 보여준다. 3B illustrates an example of recognizing a hole existing in the marker board 130 from the identified image data by sensing the marker board 130 using a camera sensor.

프로세서(140)는 카메라 센서 고유의 캘리브레이션 파라미터를 이용하여 추출된 카메라 센서의 시야에 대응하여 수집된 이미지 데이터로부터 전체 마커 보드(130)를 포함한 모든 물체의 가장자리(boundary)를 추출하고 그 중에서 홀(130)의 영역만을 따로 추출할 수 있다. 이때, 모든 물체의 가장자리가 추출된 이미지 데이터는 RGB 형태일 수 있는데 프로세서(140)는 RGB 형태로 추출된 이미지 데이터를 그레이 스케일(Gray scale) 형태의 이미지 데이터로 변환할 수 있다. The processor 140 extracts the boundary of all objects including the entire marker board 130 from the collected image data corresponding to the field of view of the extracted camera sensor using calibration parameters inherent to the camera sensor, and includes a hole (among them). Only the area 130 may be extracted separately. In this case, the image data from which the edges of all objects are extracted may be in an RGB form, and the processor 140 may convert the image data extracted in the RGB form into image data having a gray scale form.

프로세서(140)는 변환된 그레이 스케일 형태의 이미지 데이터에 포함된 픽셀들에 대한 픽셀 값의 변화량에 기초하여 마커 보드(130) 내에 존재하는 홀을 인식할 수 있다. 구체적으로 프로세서(140)는 그레이 스케일 형태의 이미지 데이터에 대해 3

Figure 112018096183932-pat00009
3 크기의 형렬을 필터로 사용하여 마커 보드(130) 및 마커 보드(130) 내에 존재하는 홀의 에지를 추출할 수 있다. 이때, 프로세서(140)는 그레이 스케일 형태의 이미지 데이터에 포함된 모든 픽셀에 대해 필터를 적용하는데 이미지 데이터 내의 어느 한 점을 기준으로 각 방향의 앞뒤 픽셀 값을 비교하여 그 변화량을 검출함으로써 가장자리 에지를 추출할 수 있다.The processor 140 may recognize a hole present in the marker board 130 based on an amount of change of pixel values for pixels included in the converted gray scale image data. In more detail, the processor 140 may execute 3 for image data in the form of gray scale.
Figure 112018096183932-pat00009
An edge of the hole existing in the marker board 130 and the marker board 130 may be extracted using the three-sized matrix as a filter. In this case, the processor 140 applies a filter to all pixels included in the gray scale image data, and compares the front and rear pixel values in each direction based on a point in the image data to detect the change amount of the edge edge. Can be extracted.

프로세서(140)는 이와 같이 추출된 에지 중에서 미리 설정된 원의 중심점과 반지름의 임계값의 범위에 속하는 모든 원형의 에지를 찾고, 찾아진 원형의 에지 중에서 경계의 기울기 임계값을 정해서 경계 강도가 강한 원 만을 추출할 수 있다. 이와 같은 경계의 기울기 임계값은 상기 찾아진 원형의 에지 이미지에 기초하여 사용자에 의해 결정될 수 있으며, 프로세서(140)는 결정된 경계의 기울기 임계값을 이용함으로써 상기 찾아진 원형의 에지 중 보다 선명한 원만을 추출할 수 있다. 일례로, 본 발명의 프로세서(140)는 카메라 센서의 이미지 데이터로부터 네 개의 원을 도 3의 (b)와 같이 인식할 수 있었다.The processor 140 finds all circular edges within the range of the center point and radius of the preset circle among the extracted edges, and determines the slope threshold of the boundary among the found circular edges to form a circle having strong boundary strength. Only bays can be extracted. The slope threshold of such a boundary may be determined by a user based on the found circular edge image, and the processor 140 may use only the sharper circle of the found circular edges by using the determined slope threshold of the boundary. Can be extracted. In one example, the processor 140 of the present invention could recognize four circles from the image data of the camera sensor as shown in FIG.

도 4는 본 발명의 일실시예에 따른 변환 벡터를 결정하기 위한 방법을 도시한 도면이다.4 illustrates a method for determining a transform vector according to an embodiment of the present invention.

도 3과 같이 카메라 센서 및 라이다 센서를 통해 수집한 데이터로부터 마커 보드(130)에 존재하는 홀을 인식하면, 프로세서(140)는 인식된 홀을 이용하여 카메라 센서와 라이다 센서 간의 좌표계를 일치시키기 위한 캘리브레이션을 수행할 수 있다. 본 발명에서는 자율주행 차량의 카메라 센서 및 라이다 센서가 3축에서 동일한 방향으로 탑재되므로 회전 차이(Rotation difference)는 고려하지 않고, 센서 간 이동 차이(Translation difference)만을 고려하여 이종 센서 간의 캘리브레이션을 수행함으로써 연산량을 최소화할 수 있다. When the holes present in the marker board 130 are recognized from the data collected through the camera sensor and the lidar sensor as shown in FIG. 3, the processor 140 matches the coordinate system between the camera sensor and the lidar sensor using the recognized holes. Calibration can be performed. In the present invention, since the camera sensor and the lidar sensor of the autonomous vehicle are mounted in the same direction in three axes, the calibration between the heterogeneous sensors is performed by considering only the translation difference between the sensors without considering the rotation difference. By doing this, the amount of computation can be minimized.

즉, 프로세서(140)는 두 센서의 내부 파라미터(Intrinsic parameter) 즉 카메라 센서 고유의 캘리브레이션 파라미터와 외부 파라미터(Extrinsic parameter) 즉, 변환 벡터를 계산한 후 하기의 식 3을 통해 라이다 센서를 통해 수집된 포인트 클라우드 데이터의 포인트들을 카메라 센서를 통해 수집된 이미지 데이터 상에 투영(Projection)함으로써 두 이종 센서 간의 캘리브레이션을 수행할 수 있다.That is, the processor 140 calculates the internal parameters of the two sensors, that is, the calibration parameters and the external parameters of the camera sensors, that is, the conversion vectors, and collects them through the Lidar sensor through Equation 3 below. Calibration between the two heterogeneous sensors may be performed by projecting the points of the collected point cloud data onto the image data collected through the camera sensor.

<식 3><Equation 3>

Figure 112018096183932-pat00010
Figure 112018096183932-pat00010

이때, 외부 파라미터인 변환 벡터는 카메라 센서 및 라이다 센서로부터 마커 보트(130)까지의 거리에 기초하여 결정될 수 있다. 먼저, 프로세서(140)는 변환 벡터(

Figure 112018096183932-pat00011
)의 구성요소인
Figure 112018096183932-pat00012
를 계산하기 전
Figure 112018096183932-pat00013
를 계산할 수 있다. 이때,
Figure 112018096183932-pat00014
는 라이다 센서로부터 마커 보드(130)까지의 제1 거리(
Figure 112018096183932-pat00015
)과 카메라 센서로부터 마커 보드(130)까지의 제2 거리(
Figure 112018096183932-pat00016
)를 이용하여 하기의 식 4와 같이 계산될 수 있다.In this case, the conversion vector which is an external parameter may be determined based on a distance from the camera sensor and the lidar sensor to the marker boat 130. First, the processor 140 converts the transform vector (
Figure 112018096183932-pat00011
) Is a component of
Figure 112018096183932-pat00012
Before calculating
Figure 112018096183932-pat00013
Can be calculated. At this time,
Figure 112018096183932-pat00014
Is the first distance from the lidar sensor to the marker board 130 (
Figure 112018096183932-pat00015
) And the second distance from the camera sensor to the marker board 130
Figure 112018096183932-pat00016
) Can be calculated as in Equation 4 below.

<식 4><Equation 4>

Figure 112018096183932-pat00017
Figure 112018096183932-pat00018
Figure 112018096183932-pat00017
Figure 112018096183932-pat00018

이때, 각 센서로부터 마커 보드(130)까지의 거리

Figure 112018096183932-pat00019
는 카메라 센서의 초점 거리(
Figure 112018096183932-pat00020
), 포인트 클라우드 데이터 및 이미지 데이터로부터 각각 인식된 홀의 반지름(
Figure 112018096183932-pat00021
)을 이용하여 하기의 식 5와 같이 계산될 수 있다.At this time, the distance from each sensor to the marker board 130
Figure 112018096183932-pat00019
Is the focal length of the camera sensor (
Figure 112018096183932-pat00020
), The radius of the hole recognized from the point cloud data and the image data, respectively (
Figure 112018096183932-pat00021
) Can be calculated as shown in Equation 5 below.

<식 5><Equation 5>

Figure 112018096183932-pat00022
Figure 112018096183932-pat00022

이후, 프로세서(140)는 계산된

Figure 112018096183932-pat00023
를 이용하여 나머지 변환 벡터인
Figure 112018096183932-pat00024
를 하기의 식 6을 이용하여 계산할 수 있다.The processor 140 then calculates
Figure 112018096183932-pat00023
Using the remainder of the transformation vector
Figure 112018096183932-pat00024
It can be calculated using Equation 6 below.

<식 6><Equation 6>

Figure 112018096183932-pat00025
Figure 112018096183932-pat00025

이와 같이 결정된 변환 벡터(

Figure 112018096183932-pat00026
)를 이용하여 라이다 센서의 포인트 클라우드 데이터를 카메라 센서의 이미지 데이터로 투영함으로써 프로세서(140)는 카메라 센서 및 라이다 센서 간의 캘리브레이션을 수행할 수 있다.The transform vector determined in this way (
Figure 112018096183932-pat00026
The processor 140 may perform calibration between the camera sensor and the lidar sensor by projecting the point cloud data of the lidar sensor into the image data of the camera sensor.

도 5는 본 발명의 일실시예에 따른 이종 센서 간의 캘리브레이션 방법을 도시한 도면이다.5 is a diagram illustrating a calibration method between heterogeneous sensors according to an embodiment of the present invention.

단계(510)에서, 캘리브레이션 시스템(100)의 프로세서(140)는 카메라 센서의 초점 길이, 왜곡 및 이미지의 중심 등 카메라 센서 고유의 캘리브레이션 파라미터를 추정할 수 있다. 이때, 프로세서(140)는 체커 보드를 이용하여 카메라 센서 고유의 캘리브레이션 파라미터를 추정할 수 있다. In operation 510, the processor 140 of the calibration system 100 may estimate calibration parameters inherent to the camera sensor such as a focal length, distortion, and center of the image of the camera sensor. In this case, the processor 140 may estimate a calibration parameter inherent to the camera sensor using a checker board.

프로세서(140)는 이와 같은 카메라 센서 고유의 캘리브레이션 파라미터를 이용하여 수행된 카메라 센서의 캘리브레이션의 결과 카메라 행렬, 왜곡 계수 및 카메라 투영 행렬 등을 획득할 수 있으며, 이를 통해 카메라 센서 및 라이다 센서를 통해 수집한 이미지 데이터 및 포인트 클라우드 데이터의 융합을 수행할 수 있다. The processor 140 may obtain a camera matrix, a distortion coefficient, a camera projection matrix, etc., as a result of the calibration of the camera sensor performed by using the calibration parameters unique to the camera sensor, and through this, the camera sensor and the lidar sensor. The convergence of the collected image data and the point cloud data may be performed.

단계(520)에서, 프로세서(140)는 카메라 센서를 통해 따라 마커 보드(140)를 촬영한 이미지 데이터를 식별하고, 단계(530)에서 라이다(LiDAR) 센서를 통해 상기 마커 보드를 센싱(Sensing)한 포인트 클라우드 데이터를 식별할 수 있다. 이때, 마커 보드(130)에 존재하는 홀은 원형일 수 있으나, 원형에 한정되지 않고 다각형 등 다양한 모양을 가질 수 있으며 다양한 개수로 존재할 수 있다.In operation 520, the processor 140 may identify image data of the marker board 140 according to a camera sensor, and in operation 530, the marker board may be sensed through a LiDAR sensor. One point cloud data can be identified. In this case, the holes present in the marker board 130 may be circular, but are not limited to circular and may have various shapes such as polygons and may exist in various numbers.

단계(540)에서, 프로세서(140)는 카메라 센서를 이용하여 마커 보드(130)를 센싱함으로써 식별된 이미지 데이터로부터 마커 보드(130) 내에 존재하는 홀을 인식할 수 있다. 프로세서(140)는 카메라 센서 고유의 캘리브레이션 파라미터를 이용하여 추출된 카메라 센서의 시야에 대응하여 수집된 이미지 데이터로부터 전체 마커 보드(130)를 포함한 모든 물체의 가장자리(boundary)를 추출하고 그 중에서 홀(130)의 영역만을 따로 추출할 수 있다. 이때, 모든 물체의 가장자리가 추출된 이미지 데이터는 RGB 형태일 수 있는데 프로세서(140)는 RGB 형태로 추출된 이미지 데이터를 그레이 스케일(Gray scale) 형태의 이미지 데이터로 변환할 수 있다.In operation 540, the processor 140 may recognize a hole present in the marker board 130 from the identified image data by sensing the marker board 130 using a camera sensor. The processor 140 extracts the boundary of all objects including the entire marker board 130 from the collected image data corresponding to the field of view of the extracted camera sensor using calibration parameters inherent to the camera sensor, and includes a hole (among them). Only the area 130 may be extracted separately. In this case, the image data from which the edges of all objects are extracted may be in an RGB form, and the processor 140 may convert the image data extracted in the RGB form into image data having a gray scale form.

프로세서(140)는 변환된 그레이 스케일 형태의 이미지 데이터에 포함된 픽셀들에 대한 픽셀 값의 변화량에 기초하여 마커 보드(130) 내에 존재하는 홀을 인식할 수 있다. 구체적으로 프로세서(140)는 그레이 스케일 형태의 이미지 데이터에 대해 3

Figure 112018096183932-pat00027
3 크기의 형렬을 필터로 사용하여 마커 보드(130) 및 마커 보드(130) 내에 존재하는 홀의 에지를 추출할 수 있다. 이때, 프로세서(140)는 그레이 스케일 형태의 이미지 데이터에 포함된 모든 픽셀에 대해 필터를 적용하는데 이미지 데이터 내의 어느 한 점을 기준으로 각 방향의 앞뒤 픽셀 값을 비교하여 그 변화량을 검출함으로써 가장자리 에지를 추출할 수 있다.The processor 140 may recognize a hole present in the marker board 130 based on an amount of change of pixel values for pixels included in the converted gray scale image data. In more detail, the processor 140 may execute 3 for image data in the form of gray scale.
Figure 112018096183932-pat00027
An edge of the hole existing in the marker board 130 and the marker board 130 may be extracted using the three-sized matrix as a filter. In this case, the processor 140 applies a filter to all pixels included in the gray scale image data, and compares the front and rear pixel values in each direction based on a point in the image data to detect the change amount of the edge edge. Can be extracted.

프로세서(140)는 이와 같이 추출된 에지 중에서 미리 설정된 원의 중심점과 반지름의 임계값의 범위에 속하는 모든 원형의 에지를 찾고, 찾아진 원형의 에지 중에서 경계의 기울기 임계값을 정해서 경계 강도가 강한 원 만을 추출할 수 있다. 이와 같은 경계의 기울기 임계값은 상기 찾아진 원형의 에지 이미지에 기초하여 사용자에 의해 결정될 수 있으며, 프로세서(140)는 결정된 경계의 기울기 임계값을 이용함으로써 상기 찾아진 원형의 에지 중 보다 선명한 원만을 추출할 수 있다.The processor 140 finds all circular edges within the range of the center point and radius of the preset circle among the extracted edges, and determines the slope threshold of the boundary among the found circular edges to form a circle having strong boundary strength. Only bays can be extracted. The slope threshold of such a boundary may be determined by a user based on the found circular edge image, and the processor 140 may use only the sharper circle of the found circular edges by using the determined slope threshold of the boundary. Can be extracted.

단계(550)에서, 프로세서(140)는 라이다 센서를 이용하여 마커 보드(130)를 센싱함으로써 식별된 포인트 클라우드 데이터로부터 마커 보드(130) 내에 존재하는 홀을 인식할 수 있다. 프로세서(140)는 라이다 센서를 통해 수집된 포인트 클라우드 데이터를 카메라 센서의 시야(Field Of View, FOV)에 기초하여 분할(Segment)할 수 있다. 이때, 카메라 센서의 시야는 카메라 센서 고유의 캘리브레이션 파라미터를 이용하여 추출될 수 있다. 분할된 포인트 클라우드 데이터에는 센싱한 마커 보드(130) 뿐만 아니라 마커 보드(130) 주변의 다양한 오브젝트들이 함께 포함될 수 있다.In operation 550, the processor 140 may recognize a hole present in the marker board 130 from the identified point cloud data by sensing the marker board 130 using a lidar sensor. The processor 140 may segment the point cloud data collected through the lidar sensor based on a field of view (FOV) of the camera sensor. In this case, the field of view of the camera sensor may be extracted using calibration parameters inherent to the camera sensor. The divided point cloud data may include various objects around the marker board 130 as well as the sensed marker board 130.

프로세서(140)는 카메라 센서의 시야에 해당하는 포인트 클라우드 데이터에서 마커 보드(130) 만을 추출하기 위하여 모든 오브젝트의 법선(Normal)과 곡률(Curvature)을 계산하여 동일한 법선과 곡률을 가지는 평면(Plane)을 식별할 수 있다. 이때, 식별된 평면은 마커 보드(130)에 해당할 수 있으며, 프로세서(140)는 식별된 평면만을 추출하고, 나머지 부분은 제거할 수 있다.The processor 140 calculates normal and curvature of all objects to extract only the marker board 130 from the point cloud data corresponding to the field of view of the camera sensor, and has a plane having the same normal and curvature. Can be identified. In this case, the identified plane may correspond to the marker board 130, and the processor 140 may extract only the identified plane and remove the remaining part.

프로세서(140)는 추출된 평면에 포함된 포인트 클라우드 데이터에서 일정 각도를 가지는 선을 구성하는 포인트들을 제거함으로써 마커 보드(130)에 존재하는 홀을 인식할 수 있다. 보다 구체적으로 프로세서(140)는 평면에 맵핑된 포인트들 중에서 동일한 각도를 가지는 선(Line)을 찾고, 선 분할(Line Segment) 작업을 통해 동일한 각도를 가지는 선을 추출하여 해당 선에 맵핑된 포인트들을 제거할 수 있다. 이와 같은 작업을 통해 프로세서(140)는 마커 보드(130)에 대응하는 평면에서 홀에 대응하는 원형(Circle)의 포인트들만 남길 수 있다. The processor 140 may recognize a hole present in the marker board 130 by removing points constituting a line having a predetermined angle from the point cloud data included in the extracted plane. More specifically, the processor 140 finds a line having the same angle among the points mapped to the plane, extracts a line having the same angle through a line segmenting operation, and extracts the points mapped to the corresponding line. Can be removed Through this operation, the processor 140 may leave only points of a circle corresponding to a hole in a plane corresponding to the marker board 130.

이후 프로세서(140)는 마커 보드(130) 내에 존재하는 홀을 인식하기 위하여 원의 중심점과 반지름의 임계값을 정하고, 다양하게 검출된 다각형(원 포함) 중에서 일정 반지름을 가지는 홀을 식별할 수 있다Thereafter, the processor 140 may determine a threshold of a center point and a radius of a circle in order to recognize a hole existing in the marker board 130, and identify a hole having a predetermined radius among various detected polygons (including a circle).

단계(560)에서, 프로세서(140)는 카메라 센서 및 라이다 센서로부터 마커 보트(130)까지의 거리에 기초하여 변환 벡터를 결정할 수 있다. 이때, 라이다 센서로부터 마커 보드(130)까지의 제1 거리(

Figure 112018096183932-pat00028
)과 카메라 센서로부터 마커 보드(130)까지의 제2 거리(
Figure 112018096183932-pat00029
)는 카메라 센서의 초점 거리(
Figure 112018096183932-pat00030
), 포인트 클라우드 데이터 및 이미지 데이터로부터 각각 인식된 홀의 반지름(
Figure 112018096183932-pat00031
)을 이용하여 계산될 수 있다. In step 560, the processor 140 may determine the transform vector based on the distance from the camera sensor and the lidar sensor to the marker boat 130. At this time, the first distance from the lidar sensor to the marker board 130 (
Figure 112018096183932-pat00028
) And the second distance from the camera sensor to the marker board 130
Figure 112018096183932-pat00029
) Is the focal length of the camera sensor (
Figure 112018096183932-pat00030
), The radius of the hole recognized from the point cloud data and the image data, respectively (
Figure 112018096183932-pat00031
Can be calculated using

단계(570)에서, 프로세서(140)는 결정된 변환 벡터를 이용하여 라이다 센서의 포인트 클라우드 데이터를 카메라 센서의 이미지 데이터로 투영함으로써 프로세서(140)는 카메라 센서 및 라이다 센서 간의 캘리브레이션을 수행할 수 있다. 그리고, 프로세서(140)는 캘리브레이션이 수행된 카메라 센서 및 라이다 센서를 이용하여 원거리에 위치한 타겟을 보다 정확하게 탐지할 수 있다.In operation 570, the processor 140 may perform the calibration between the camera sensor and the lidar sensor by projecting the point cloud data of the lidar sensor into the image data of the camera sensor using the determined transformation vector. have. The processor 140 may more accurately detect a target located at a far distance by using a calibrated camera sensor and a lidar sensor.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with reference to the accompanying drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different manner than the described method, or other components. Or even if replaced or replaced by equivalents, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the following claims.

100 : 이종 센서 간의 캘리브레이션 시스템
110 : 제1 센서
120 : 제2 센서
130 : 마커 보드
140 : 프로세서
100: Calibration system between different sensors
110: first sensor
120: second sensor
130: marker board
140: processor

Claims (19)

삭제delete 이종 센서 간의 캘리브레이션 방법에 있어서,
체커 보드를 이용하여 카메라 센서의 초점 길이, 왜곡 및 이미지의 중심을 포함하는 내부 특성에 대응하는 상기 카메라 센서 고유의 캘리브레이션 파라미터를 추정하는 단계;
상기 추정된 캘리브레이션 파라미터를 이용하여 추출된 상기 카메라 센서의 시야(Field Of View, FOV)에 기초하여 상기 카메라 센서를 통해 마커 보드를 촬영한 이미지 데이터를 식별하는 단계;
상기 카메라 센서의 시야에 기초하여 라이다(LiDAR) 센서를 통해 상기 마커 보드를 센싱(Sensing)한 포인트 클라우드 데이터를 식별하는 단계;
상기 식별된 이미지 데이터 및 포인트 클라우드 데이터 각각에서 상기 마커 보드에 존재하는 홀을 인식하는 단계;
상기 이미지 데이터를 통해 인식한 홀의 반지름과 상기 포인트 클라우드 데이터를 통해 인식한 홀의 반지름에 기초하여 상기 카메라 센서와 라이다 센서의 캘리브레이션을 위한 변환 벡터를 결정하는 단계; 및
상기 결정된 변환 벡터를 이용하여 상기 라이다 센서의 포인트 클라우드 데이터를 상기 카메라 센서의 이미지 데이터로 투영함으로써 상기 카메라 센서 및 라이다 센서 간의 캘리브레이션을 수행하는 단계
를 포함하는 이종 센서 간의 캘리브레이션 방법.
In the calibration method between different sensors,
Using the checker board to estimate calibration parameters inherent to the camera sensor corresponding to internal characteristics including focal length, distortion and center of the image of the camera sensor;
Identifying image data of photographing the marker board through the camera sensor based on a field of view (FOV) of the camera sensor extracted using the estimated calibration parameter;
Identifying point cloud data sensing the marker board through a LiDAR sensor based on a field of view of the camera sensor;
Recognizing holes present in the marker board in each of the identified image data and point cloud data;
Determining a transformation vector for calibration of the camera sensor and the lidar sensor based on the radius of the hole recognized through the image data and the radius of the hole recognized through the point cloud data; And
Performing calibration between the camera sensor and the lidar sensor by projecting the point cloud data of the lidar sensor into the image data of the camera sensor using the determined transform vector.
Calibration method between heterogeneous sensors comprising a.
제2항에 있어서,
상기 홀을 인식하는 단계는,
상기 식별된 이미지 데이터에 포함된 픽셀들에 대한 픽셀 값의 변화량에 기초하여 상기 마커 보드에 존재하는 홀을 인식하는 이종 센서 간의 캘리브레이션 방법.
The method of claim 2,
Recognizing the hole,
And a method for calibrating a hole existing in the marker board based on an amount of change of a pixel value for pixels included in the identified image data.
이종 센서 간의 캘리브레이션 방법에 있어서,
카메라 센서를 통해 따라 마커 보드를 촬영한 이미지 데이터를 식별하는 단계;
라이다(LiDAR) 센서를 통해 상기 마커 보드를 센싱(Sensing)한 포인트 클라우드 데이터를 식별하는 단계;
상기 식별된 이미지 데이터 및 포인트 클라우드 데이터 각각에서 상기 마커 보드에 존재하는 홀을 인식하는 단계;
상기 이미지 데이터를 통해 인식한 홀의 반지름과 상기 포인트 클라우드 데이터를 통해 인식한 홀의 반지름에 기초하여 상기 카메라 센서와 라이다 센서의 캘리브레이션을 위한 변환 벡터를 결정하는 단계; 및
상기 결정된 변환 벡터를 이용하여 상기 라이다 센서의 포인트 클라우드 데이터를 상기 카메라 센서의 이미지 데이터로 투영함으로써 상기 카메라 센서 및 라이다 센서 간의 캘리브레이션을 수행하는 단계
를 포함하고,
상기 홀을 인식하는 단계는,
상기 식별된 포인트 클라우드 데이터에 포함된 포인트들 중 일정 각도를 가지는 선을 구성하는 포인트들을 제거함으로써 상기 마커 보드에 존재하는 홀을 인식하는 이종 센서 간의 캘리브레이션 방법.
In the calibration method between different sensors,
Identifying image data of the marker board according to the camera sensor;
Identifying point cloud data sensing the marker board through a LiDAR sensor;
Recognizing holes present in the marker board in each of the identified image data and point cloud data;
Determining a transformation vector for calibration of the camera sensor and the lidar sensor based on the radius of the hole recognized through the image data and the radius of the hole recognized through the point cloud data; And
Performing calibration between the camera sensor and the lidar sensor by projecting the point cloud data of the lidar sensor into the image data of the camera sensor using the determined transform vector.
Including,
Recognizing the hole,
The calibration method between heterogeneous sensors for recognizing a hole present in the marker board by removing points constituting a line having a predetermined angle among the points included in the identified point cloud data.
삭제delete 이종 센서 간의 캘리브레이션 방법에 있어서,
카메라 센서를 통해 따라 마커 보드를 촬영한 이미지 데이터를 식별하는 단계;
라이다(LiDAR) 센서를 통해 상기 마커 보드를 센싱(Sensing)한 포인트 클라우드 데이터를 식별하는 단계;
상기 식별된 이미지 데이터 및 포인트 클라우드 데이터 각각에서 상기 마커 보드에 존재하는 홀을 인식하는 단계;
상기 카메라 센서의 초점 거리, 상기 마커 보드에 존재하는 홀의 반지름 및 상기 카메라 센서와 라이다 센서 각각을 통해 인식된 홀의 반지름을 이용하여 결정된 상기 카메라 센서로부터 마커 보드까지의 제1 거리 및 상기 라이다 센서로부터 마커 보드까지의 제2 거리에 기초하여 상기 카메라 센서와 라이다 센서의 캘리브레이션을 위한 변환 벡터를 결정하는 단계; 및
상기 결정된 변환 벡터를 이용하여 상기 라이다 센서의 포인트 클라우드 데이터를 상기 카메라 센서의 이미지 데이터로 투영함으로써 상기 카메라 센서 및 라이다 센서 간의 캘리브레이션을 수행하는 단계
를 포함하는 이종 센서 간의 캘리브레이션 방법.
In the calibration method between different sensors,
Identifying image data of the marker board according to the camera sensor;
Identifying point cloud data sensing the marker board through a LiDAR sensor;
Recognizing holes present in the marker board in each of the identified image data and point cloud data;
The first distance from the camera sensor to the marker board and the lidar sensor determined using a focal length of the camera sensor, a radius of a hole existing in the marker board, and a radius of a hole recognized through each of the camera sensor and a lidar sensor. Determining a transform vector for calibration of the camera sensor and a lidar sensor based on a second distance from the marker board to the marker board; And
Performing calibration between the camera sensor and the lidar sensor by projecting the point cloud data of the lidar sensor into the image data of the camera sensor using the determined transform vector.
Calibration method between heterogeneous sensors comprising a.
제2항에 있어서,
상기 캘리브레이션을 수행하는 단계는,
상기 결정된 변환 벡터를 이용하여 상기 라이다 센서의 포인트 클라우드 데이터를 상기 카메라 센서의 이미지 데이터로 투영함에 있어 이동 변환을 고려하여 투영하는 이종 센서 간의 캘리브레이션 방법.
The method of claim 2,
The performing of the calibration may include:
And calibrating the point cloud data of the lidar sensor to the image data of the camera sensor by using the determined transform vector.
제2항에 있어서,
상기 캘리브레이션이 수행된 카메라 센서 및 라이다 센서를 이용하여 타겟을 탐지하는 단계
를 더 포함하는 이종 센서 간의 캘리브레이션 방법.
The method of claim 2,
Detecting a target using the calibrated camera sensor and a lidar sensor
Calibration method between heterogeneous sensors further comprising.
삭제delete 삭제delete 제2항 내지 제4항 및 제6항 내지 제8항 중에서 어느 하나의 항의 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium having recorded thereon a program for executing the method of any one of claims 2 to 4 and 6 to 8. 삭제delete 카메라 센서 및 라이다 센서 간의 캘리브레이션을 수행하는 프로세서
를 포함하고,
상기 프로세서는,
체커 보드를 이용하여 상기 카메라 센서의 초점 길이, 왜곡 및 이미지의 중심을 포함하는 내부 특성에 대응하는 상기 카메라 센서 고유의 캘리브레이션 파라미터를 추정하고,
상기 추정된 캘리브레이션 파라미터를 이용하여 추출된 상기 카메라 센서의 시야(Field Of View, FOV)에 기초하여 상기 카메라 센서를 통해 마커 보드를 촬영한 이미지 데이터를 식별하며,
상기 카메라 센서의 시야에 기초하여 라이다(LiDAR) 센서를 통해 상기 마커 보드를 센싱(Sensing)한 포인트 클라우드 데이터를 식별하고,
상기 식별된 이미지 데이터 및 포인트 클라우드 데이터 각각에서 상기 마커 보드에 존재하는 홀을 인식하며,
상기 이미지 데이터를 통해 인식한 홀의 반지름과 상기 포인트 클라우드 데이터를 통해 인식한 홀의 반지름에 기초하여 상기 카메라 센서와 라이다 센서의 캘리브레이션을 위한 변환 벡터를 결정하고,
상기 결정된 변환 벡터를 이용하여 상기 라이다 센서의 포인트 클라우드 데이터를 상기 카메라 센서의 이미지 데이터로 투영함으로써 상기 카메라 센서 및 라이다 센서 간의 캘리브레이션을 수행하는 이종 센서 간의 캘리브레이션 장치.
Processor performing calibration between camera sensor and lidar sensor
Including,
The processor,
Using a checker board to estimate calibration parameters inherent to the camera sensor corresponding to internal characteristics including focal length, distortion and center of the image of the camera sensor,
Identifying image data of the marker board through the camera sensor based on a field of view (FOV) of the camera sensor extracted using the estimated calibration parameter,
Identify the point cloud data sensing the marker board through a LiDAR sensor based on a field of view of the camera sensor,
Recognizes a hole present in the marker board in each of the identified image data and point cloud data,
A transformation vector for calibration of the camera sensor and the lidar sensor is determined based on the radius of the hole recognized through the image data and the radius of the hole recognized through the point cloud data.
And calibrating between the camera sensor and the lidar sensor by projecting the point cloud data of the lidar sensor into the image data of the camera sensor using the determined transform vector.
제13항에 있어서,
상기 프로세서는,
상기 식별된 이미지 데이터에 포함된 픽셀들에 대한 픽셀 값의 변화량에 기초하여 상기 마커 보드에 존재하는 홀을 인식하는 이종 센서 간의 캘리브레이션 장치.
The method of claim 13,
The processor,
And a calibration device for heterogeneous sensors that recognizes a hole present in the marker board based on a change amount of a pixel value for pixels included in the identified image data.
카메라 센서 및 라이다 센서 간의 캘리브레이션을 수행하는 프로세서
를 포함하고,
상기 프로세서는,
카메라 센서를 통해 따라 마커 보드를 촬영한 이미지 데이터를 식별하고, 라이다(LiDAR) 센서를 통해 상기 마커 보드를 센싱(Sensing)한 포인트 클라우드 데이터를 식별하며,
상기 식별된 이미지 데이터에서 상기 마커 보드에 존재하는 홀을 인식하고,
상기 식별된 포인트 클라우드 데이터에 포함된 포인트들 중 일정 각도를 가지는 선을 구성하는 포인트들을 제거함으로써 상기 마커 보드에 존재하는 홀을 인식하며,
상기 이미지 데이터를 통해 인식한 홀의 반지름과 상기 포인트 클라우드 데이터를 통해 인식한 홀의 반지름에 기초하여 상기 카메라 센서와 라이다 센서의 캘리브레이션을 위한 변환 벡터를 결정하고,
상기 결정된 변환 벡터를 이용하여 상기 라이다 센서의 포인트 클라우드 데이터를 상기 카메라 센서의 이미지 데이터로 투영함으로써 상기 카메라 센서 및 라이다 센서 간의 캘리브레이션을 수행하는 이종 센서 간의 캘리브레이션 장치.
Processor performing calibration between camera sensor and lidar sensor
Including,
The processor,
Identify the image data of the marker board according to the camera sensor, and identify the point cloud data sensing the marker board through a LiDAR sensor,
Recognizes a hole present in the marker board in the identified image data,
Recognizing a hole present in the marker board by removing points constituting a line having a predetermined angle among the points included in the identified point cloud data,
A transformation vector for calibration of the camera sensor and the lidar sensor is determined based on the radius of the hole recognized through the image data and the radius of the hole recognized through the point cloud data.
And calibrating between the camera sensor and the lidar sensor by projecting the point cloud data of the lidar sensor into the image data of the camera sensor using the determined transform vector.
삭제delete 카메라 센서 및 라이다 센서 간의 캘리브레이션을 수행하는 프로세서
를 포함하고,
상기 프로세서는,
카메라 센서를 통해 따라 마커 보드를 촬영한 이미지 데이터를 식별하고, 라이다(LiDAR) 센서를 통해 상기 마커 보드를 센싱(Sensing)한 포인트 클라우드 데이터를 식별하며,
상기 식별된 이미지 데이터 및 포인트 클라우드 데이터 각각에서 상기 마커 보드에 존재하는 홀을 인식하고,
상기 카메라 센서의 초점 거리, 상기 마커 보드에 존재하는 홀의 반지름 및 상기 카메라 센서와 라이다 센서 각각을 통해 인식된 홀의 반지름을 이용하여 결정된 상기 카메라 센서로부터 마커 보드까지의 제1 거리 및 상기 라이다 센서로부터 마커 보드까지의 제2 거리에 기초하여 상기 카메라 센서와 라이다 센서의 캘리브레이션을 위한 변환 벡터를 결정하며,
상기 결정된 변환 벡터를 이용하여 상기 라이다 센서의 포인트 클라우드 데이터를 상기 카메라 센서의 이미지 데이터로 투영함으로써 상기 카메라 센서 및 라이다 센서 간의 캘리브레이션을 수행하는 이종 센서 간의 캘리브레이션 장치.
Processor performing calibration between camera sensor and lidar sensor
Including,
The processor,
Identify the image data of the marker board according to the camera sensor, and identify the point cloud data sensing the marker board through a LiDAR sensor,
Recognize a hole present in the marker board in each of the identified image data and point cloud data,
The first distance from the camera sensor to the marker board and the lidar sensor determined using the focal length of the camera sensor, the radius of the hole present in the marker board, and the radius of the hole recognized through each of the camera sensor and the lidar sensor. Determine a transform vector for calibration of the camera sensor and a lidar sensor based on a second distance from the marker board to
And calibrating between the camera sensor and the lidar sensor by projecting the point cloud data of the lidar sensor into the image data of the camera sensor using the determined transform vector.
제13항에 있어서,
상기 프로세서는,
상기 결정된 변환 벡터를 이용하여 상기 라이다 센서의 포인트 클라우드 데이터를 상기 카메라 센서의 이미지 데이터로 투영함에 있어 이동 변환을 고려하여 투영하는 이종 센서 간의 캘리브레이션 장치.
The method of claim 13,
The processor,
And a projection apparatus for projecting point cloud data of the LiDAR sensor into image data of the camera sensor using the determined transform vector, in consideration of movement transformation.
제13항에 있어서,
상기 프로세서는,
상기 캘리브레이션이 수행된 카메라 센서 및 라이다 센서를 이용하여 타겟을 탐지하는 이종 센서 간의 캘리브레이션 장치.
The method of claim 13,
The processor,
The calibration device between the heterogeneous sensor for detecting a target using the camera sensor and the lidar sensor that the calibration is performed.
KR1020180116141A 2018-09-28 2018-09-28 Apparatus and method for calibrating between heterogeneous sensors KR102054455B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180116141A KR102054455B1 (en) 2018-09-28 2018-09-28 Apparatus and method for calibrating between heterogeneous sensors
US17/274,870 US11971961B2 (en) 2018-09-28 2019-09-27 Device and method for data fusion between heterogeneous sensors
PCT/KR2019/012562 WO2020067751A1 (en) 2018-09-28 2019-09-27 Device and method for data fusion between heterogeneous sensors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180116141A KR102054455B1 (en) 2018-09-28 2018-09-28 Apparatus and method for calibrating between heterogeneous sensors

Publications (1)

Publication Number Publication Date
KR102054455B1 true KR102054455B1 (en) 2019-12-10

Family

ID=69002805

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180116141A KR102054455B1 (en) 2018-09-28 2018-09-28 Apparatus and method for calibrating between heterogeneous sensors

Country Status (1)

Country Link
KR (1) KR102054455B1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111521204A (en) * 2020-03-19 2020-08-11 安徽建筑大学 Angular displacement visual measurement method based on absolute position rotary encoder
CN112946609A (en) * 2021-02-02 2021-06-11 中国汽车技术研究中心有限公司 Calibration method, device and equipment for laser radar and camera and readable storage medium
CN113064143A (en) * 2020-08-14 2021-07-02 百度(美国)有限责任公司 Recalibration determination system for autonomous vehicles with multiple LiDAR sensors
WO2021182793A1 (en) * 2020-03-12 2021-09-16 주식회사 멀티플아이 Method and apparatus for calibrating different types of sensors using single checkerboard
KR20210116161A (en) * 2020-03-12 2021-09-27 주식회사 멀티플아이 Heterogeneous sensors calibration method and apparatus using single checkerboard
KR102309608B1 (en) * 2020-10-21 2021-10-06 주식회사 노바테크 Method of convergence a coordinate system between Lidar and Stereo-Camera
CN113495256A (en) * 2020-04-01 2021-10-12 北京京东乾石科技有限公司 Method and device for determining accuracy of calibration results among multiple laser radars
KR20230003803A (en) * 2021-06-30 2023-01-06 주식회사 모빌테크 Automatic calibration through vector matching of the LiDAR coordinate system and the camera coordinate system
US11619727B2 (en) 2020-06-29 2023-04-04 Ford Global Technologies, Llc Determining multi-degree-of-freedom pose for sensor calibration
KR20230126107A (en) 2022-02-22 2023-08-29 주식회사 경우시스테크 Callibration method for heterogenous optical sensor and monitoring system using therewith
KR20230126106A (en) 2022-02-22 2023-08-29 주식회사 경우시스테크 Callibration method for heterogenous optical sensor using calibration object and monitoring system using therewith

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101033167B1 (en) * 2011-01-31 2011-05-11 국방과학연구소 Device, system and method for calibration of camera and laser range finder
KR20110087893A (en) * 2010-01-27 2011-08-03 삼성전자주식회사 Apparatus and method for calibration of composite sensor
KR20150069927A (en) * 2013-12-16 2015-06-24 국방과학연구소 Device, method for calibration of camera and laser range finder
KR20160036723A (en) * 2014-09-25 2016-04-05 (주)씨소 Sensor Calibration Method and Electronic Device and Marker Board for the same
KR20170127103A (en) * 2016-05-10 2017-11-21 전자부품연구원 System and method for 3-dimensional calibration of camera and depth sensor, and calibration device and calibration jig thereof
KR20180055292A (en) * 2016-11-16 2018-05-25 국민대학교산학협력단 Integration method for coordinates of multi lidar

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110087893A (en) * 2010-01-27 2011-08-03 삼성전자주식회사 Apparatus and method for calibration of composite sensor
KR101033167B1 (en) * 2011-01-31 2011-05-11 국방과학연구소 Device, system and method for calibration of camera and laser range finder
KR20150069927A (en) * 2013-12-16 2015-06-24 국방과학연구소 Device, method for calibration of camera and laser range finder
KR20160036723A (en) * 2014-09-25 2016-04-05 (주)씨소 Sensor Calibration Method and Electronic Device and Marker Board for the same
KR20170127103A (en) * 2016-05-10 2017-11-21 전자부품연구원 System and method for 3-dimensional calibration of camera and depth sensor, and calibration device and calibration jig thereof
KR20180055292A (en) * 2016-11-16 2018-05-25 국민대학교산학협력단 Integration method for coordinates of multi lidar

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210116161A (en) * 2020-03-12 2021-09-27 주식회사 멀티플아이 Heterogeneous sensors calibration method and apparatus using single checkerboard
KR102438490B1 (en) * 2020-03-12 2022-09-01 주식회사 멀티플아이 Heterogeneous sensors calibration method and apparatus using single checkerboard
WO2021182793A1 (en) * 2020-03-12 2021-09-16 주식회사 멀티플아이 Method and apparatus for calibrating different types of sensors using single checkerboard
CN111521204A (en) * 2020-03-19 2020-08-11 安徽建筑大学 Angular displacement visual measurement method based on absolute position rotary encoder
CN113495256A (en) * 2020-04-01 2021-10-12 北京京东乾石科技有限公司 Method and device for determining accuracy of calibration results among multiple laser radars
CN113495256B (en) * 2020-04-01 2024-04-05 北京京东乾石科技有限公司 Method and device for determining accuracy of calibration result among multiple laser radars
US11619727B2 (en) 2020-06-29 2023-04-04 Ford Global Technologies, Llc Determining multi-degree-of-freedom pose for sensor calibration
CN113064143A (en) * 2020-08-14 2021-07-02 百度(美国)有限责任公司 Recalibration determination system for autonomous vehicles with multiple LiDAR sensors
KR102309608B1 (en) * 2020-10-21 2021-10-06 주식회사 노바테크 Method of convergence a coordinate system between Lidar and Stereo-Camera
CN112946609A (en) * 2021-02-02 2021-06-11 中国汽车技术研究中心有限公司 Calibration method, device and equipment for laser radar and camera and readable storage medium
KR20230003803A (en) * 2021-06-30 2023-01-06 주식회사 모빌테크 Automatic calibration through vector matching of the LiDAR coordinate system and the camera coordinate system
KR102490521B1 (en) 2021-06-30 2023-01-26 주식회사 모빌테크 Automatic calibration through vector matching of the LiDAR coordinate system and the camera coordinate system
KR20230126107A (en) 2022-02-22 2023-08-29 주식회사 경우시스테크 Callibration method for heterogenous optical sensor and monitoring system using therewith
KR20230126106A (en) 2022-02-22 2023-08-29 주식회사 경우시스테크 Callibration method for heterogenous optical sensor using calibration object and monitoring system using therewith

Similar Documents

Publication Publication Date Title
KR102054455B1 (en) Apparatus and method for calibrating between heterogeneous sensors
CN110322500B (en) Optimization method and device for instant positioning and map construction, medium and electronic equipment
KR102483649B1 (en) Vehicle localization method and vehicle localization apparatus
US12008778B2 (en) Information processing apparatus, control method for same, non-transitory computer-readable storage medium, and vehicle driving support system
JP6760114B2 (en) Information processing equipment, data management equipment, data management systems, methods, and programs
KR102145557B1 (en) Apparatus and method for data fusion between heterogeneous sensors
US20110205338A1 (en) Apparatus for estimating position of mobile robot and method thereof
US20160379370A1 (en) Information processing apparatus, information processing method, and storage medium
US20160104047A1 (en) Image recognition system for a vehicle and corresponding method
US11971961B2 (en) Device and method for data fusion between heterogeneous sensors
JP2017526082A (en) Non-transitory computer-readable medium encoded with computer program code for causing a motion estimation method, a moving body, and a processor to execute the motion estimation method
CN112230242A (en) Pose estimation system and method
US11151729B2 (en) Mobile entity position estimation device and position estimation method
KR20210090384A (en) Method and Apparatus for Detecting 3D Object Using Camera and Lidar Sensor
KR102021202B1 (en) Calibration Method for Integrating a Single Three-dimensional Coordinate System of Multiple Sensors
CN114898314B (en) Method, device, equipment and storage medium for detecting target of driving scene
CN111524194A (en) Positioning method and terminal for mutual fusion of laser radar and binocular vision
KR20180098945A (en) Method and apparatus for measuring speed of vehicle by using fixed single camera
CN112771575A (en) Distance determination method, movable platform and computer readable storage medium
JP2017181476A (en) Vehicle location detection device, vehicle location detection method and vehicle location detection-purpose computer program
KR20220025585A (en) Method and apparatus for estimating position
JP7404173B2 (en) Image processing device
US20220291009A1 (en) Information processing apparatus, information processing method, and storage medium
US20180307932A1 (en) Outside Recognition Device for Vehicle
Vaida et al. Automatic extrinsic calibration of LIDAR and monocular camera images

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant