KR20150069927A - Device, method for calibration of camera and laser range finder - Google Patents

Device, method for calibration of camera and laser range finder Download PDF

Info

Publication number
KR20150069927A
KR20150069927A KR1020130156665A KR20130156665A KR20150069927A KR 20150069927 A KR20150069927 A KR 20150069927A KR 1020130156665 A KR1020130156665 A KR 1020130156665A KR 20130156665 A KR20130156665 A KR 20130156665A KR 20150069927 A KR20150069927 A KR 20150069927A
Authority
KR
South Korea
Prior art keywords
flat plate
distance information
plate member
camera
points
Prior art date
Application number
KR1020130156665A
Other languages
Korean (ko)
Other versions
KR101565900B1 (en
Inventor
심성대
원치선
박윤수
윤석민
조경은
엄기현
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020130156665A priority Critical patent/KR101565900B1/en
Publication of KR20150069927A publication Critical patent/KR20150069927A/en
Application granted granted Critical
Publication of KR101565900B1 publication Critical patent/KR101565900B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

The present invention provides a calibration apparatus and a calibration method for converting coordinates by using information of respective photographed images and distance information wherein changes of coordinates are calculated by using a flat plate member including a vertex and by using a corresponding pair of lines comprising a vertex which is estimated from the distance information, and a vertex which is extracted from the image information. Accordingly, it is possible to overcome the limitations of the position where the laser sensor, the camera, and the plate member are arranged.

Description

카메라 및 레이저 센서의 캘리브레이션 장치 및 캘리브레이션 방법{DEVICE, METHOD FOR CALIBRATION OF CAMERA AND LASER RANGE FINDER}Technical Field [0001] The present invention relates to a calibration apparatus and a calibration method for a camera and a laser sensor,

본 발명은 지형 및 사물 인지를 위한 이종 센서 간 캘리브레이션에 관한 발명이다. The present invention relates to calibration between heterogeneous sensors for terrain and object recognition.

각도 및 거리 정보를 가지는 레이저 센서(또는 레이저 거리센서)의 사용 범위는 로봇 및 자율이동차량 등의 분야의 발전에 따라 점점 넓어지고 있다. 산업분야 또는 군수분야는 더 많은 정보를 활용하기 위하여 최근에 상기 레이저 센서와 함께 카메라 이미지를 많이 사용한다. 다만, 레이저 센서와 카메라를 함께 사용하기 위해서는 레이저 센서와 카메라 간의 대응 관계를 알아내는 캘리브레이션이 필수적으로 선행되어야 한다.The range of use of a laser sensor (or a laser distance sensor) having angle and distance information is getting wider as the field of robot and autonomous moving vehicle develops. Industrial or military applications often use camera images together with the laser sensors to utilize more information. However, in order to use the laser sensor and the camera together, it is essential to calibrate the calibration to find the correspondence between the laser sensor and the camera.

거리를 측정하는 레이저 센서와 컬러(밝기) 영상을 획득하는 2D CCD 카메라 간 캘리브레이션을 수행하기 위하여, 새로운 모양의 보드를 활용하는 방법이 개발되었다. 예를 들어, 사각형 평판에 일정 반경의 구멍을 뚫어 해당 구멍에서 거리 (깊이)의 차이에 의한 레이저 스캔 데이터와 칼라 영상의 밝기의 변화에 의한 구멍을 검출함으로써 자동적인 대응점 검출을 하는 방법이다. 다만, 판 위의 구멍을 비스듬히 지나 반사되어 되돌아오는 레이저가 종종 평판의 뒷면에 부딪치어 돌아오지 않는 경우가 발생하였다. In order to perform calibration between the distance measuring laser sensor and the 2D CCD camera acquiring the color (brightness) image, a method of utilizing a new shape board has been developed. For example, it is a method of automatically detecting a correspondence point by drilling a hole with a certain radius in a rectangular plate, detecting laser scan data due to a difference in distance (depth) in the hole, and hole caused by a change in brightness of the color image. However, there is a case where the laser beam that is reflected back through the hole on the plate obliquely hits the back surface of the flat plate and does not return.

이에 두 개의 사각형 평판을 예각(acute angle)의 V형으로 붙이고 두 평판의 가장자리에 투영된 거리 센서의 3D 포인트 클라우드의 거리를 최소화하는 방향으로 변환 매트릭스의 파라미터를 결정하는 방법이 제안되었으나, 레이저 거리 데이터와 밝기의 영상 데이터의 직접적인 대응점을 기반으로 하지 않아 과정이 복잡하거나 인간의 개입을 필요로 하는 단점이 있다. A method has been proposed in which two rectangular plates are attached to an acute angle V shape and the parameters of the conversion matrix are determined in a direction that minimizes the distance of the 3D point cloud of the distance sensor projected to the edge of the two plates. But it is not based on a direct correspondence point between the data and brightness image data, and thus has a disadvantage that the process is complicated or requires human intervention.

레이저 거리 데이터와 칼라 영상 데이터의 좀 더 정확한 대응점 검출을 위해 가시적인 IR (infra-red) 선을 사용하여 칼라 영상에서 직접 거리와 밝기의 대응점을 검출하는 방법이 발표 되었다. 다만, 방법은 IR 센서가 구비되어야 가능하다는 단점이 있다. In order to detect more accurate correspondence between laser distance data and color image data, a method of detecting the correspondence between direct distance and brightness in a color image using a visible IR (infra-red) line has been disclosed. However, there is a disadvantage that the method can be performed only when an IR sensor is provided.

보드의 기하학적인 특징을 이용하여 레이저 거리 데이터와 영상 데이터의 직접적인 대응점을 검출하는 방법이 제안되었다. 예를 들어 삼각형의 보드를 사용하여 취득한 거리 레이저 데이터와 이미 알고 있는 삼각형 밑면의 길이의 비율로부터 카메라 영상에서 취득한 삼각형 모양의 두 선분을 지나는 양쪽 두 점을 유추할 수 있으며 이들 대응점을 이용하여 좌표축 변환식의 값들 계산할 수 있다 A method of detecting a direct correspondence point between the laser distance data and the image data using the geometric characteristics of the board has been proposed. For example, from the ratio of the distance between the laser data obtained by using the triangular board and the length of the bottom of the triangle which is already known, it is possible to infer two points passing through two triangular segments obtained from the camera image. You can calculate the values of

다만, 상기 방법은 삼각형 평면 보드의 밑면이 레이저 거리 센서의 주사면과 평행을 이루어야 한다는 조건과 삼각형의 면에 대해 단일 레이저 스캔 데이터를 이용한다는 한계가 있다.However, this method has a limitation that the bottom surface of the triangular planar board must be parallel to the scanning surface of the laser distance sensor and that a single laser scan data is used for the triangular surface.

이에 본 발명의 삼각형 보드가 수평으로 배치되는 등의 제약이 없는 3D 레이저 스캐너와 2D 영상 카메라의 캘리브레이션 장치를 제공하는 것에 있다.Accordingly, it is an object of the present invention to provide a 3D laser scanner and an apparatus for calibrating a 2D image camera without the restriction that the triangular board of the present invention is disposed horizontally.

이와 같은 본 발명의 과제를 달성하기 위한 일 실시예에 따른 캘리브레이션 장치는 이미지 정보를 촬영하는 카메라, 거리 정보를 감지하는 레이저 센서, 상기 이미지 정보 및 거리 정보의 대응관계를 산출하여 상기 카메라 및 레이저 센서의 캘리브레이션을 수행하는 캘리브레이션 모듈을 포함하고, 상기 캘리브레이션 모듈은 복수의 꼭지점을 포함하는 다각형으로 이루어지는 평판부재 및 상기 거리 정보를 이용하여 상기 복수의 꼭지점들을 예측하고, 상기 예측된 꼭지점들을 상기 이미지 정보에 포함되는 평판부재의 꼭지점과 대응시켜 상기 이미지 정보와 상기 거리 정보 사이에서 좌표를 변환하는 제어부을 포함한다. According to an aspect of the present invention, there is provided a calibration apparatus including a camera that captures image information, a laser sensor that senses distance information, a correspondence relation between the image information and the distance information, Wherein the calibration module includes a flat plate member having a polygonal shape including a plurality of vertexes, and a controller for predicting the plurality of vertexes using the distance information, and calculating the predicted vertexes in the image information And a control unit for converting coordinates between the image information and the distance information in correspondence with the vertexes of the plate member included.

본 발명과 관련된 일 예로서, 상기 평판 부재는 삼각형 또는 마름모 형태로 이루어진다. As an example related to the present invention, the flat plate member is formed in a triangular or rhombic shape.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 꼭지점을 예측하기 위하여 상기 거리 정보에 포함되는 복수의 평면 중 하나의 평면을 선택하며, 상기 하나의 평면은, 상기 복수의 평면 중 기 설정된 거리 내에 위치하고 상기 평판부재에 해당되는 가장 많은 포인트를 포함한다. In one embodiment of the present invention, the controller selects one of a plurality of planes included in the distance information to predict the vertex, the one plane being located within a predetermined distance among the plurality of planes And includes the most points corresponding to the flat plate members.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 하나의 평면의 포인트들을 상기 평면에 수직하도록 정사영 시키고, 상기 정사영된 포인트들을 이용하여 상기 평판부재의 꼭지점을 예측한다. In one embodiment of the present invention, the control unit orthogonalizes the points of the one plane so as to be perpendicular to the plane, and predicts the vertices of the flat member using the orthogonal points.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 정사영된 포인트들을 이용하여 복수의 빗면에 대한 방정식을 검출하고, 상기 복수의 방정식의 연산을 통하여 상기 꼭지점을 산출한다. As an example related to the present invention, the controller detects the equations for a plurality of oblique planes using the orthographic points, and calculates the vertices through the calculation of the plurality of equations.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 꼭지점들 사이의 길이와 상기 평판부재의 모서리의 길이를 비교하여, 상기 길이들의 차이가 오차범위내에 해당되는지 판단한다. As an example related to the present invention, the controller compares the length between the vertexes and the edge of the flat plate member to determine whether the difference between the lengths is within an error range.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 이미지 정보에서 연산된 이미지 좌표축에 대한 제1 위치 데이터와 상기 예측된 꼭지점들에 의하여 연산된 좌표축에 대한 제2 위치데이터를 이용하여 복수의 대응점을 산출한다. As an example related to the present invention, the controller calculates a plurality of corresponding points using first position data of the image coordinate axis calculated in the image information and second position data of the coordinate axis calculated by the predicted vertices do.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 대응점이 기 설정된 기준개수 이상 산출되는지 여부를 판단하고, 상기 대응점이 상기 기준개수 미만인 경우, 상기 거리 정보 및 상기 이미지정보를 다시 수신한다. In one embodiment of the present invention, the control unit determines whether or not the corresponding point is calculated to be equal to or greater than a predetermined reference number, and receives the distance information and the image information again when the corresponding point is less than the reference number.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 제1 및 제2 위치데이터를 이용하여 상기 이미지 정보 및 상기 거리정보 사이에서의 변환행렬을 산출하고, 상기 변환행렬을 이용하여 좌표변환을 수행한다. As an example related to the present invention, the controller calculates a transformation matrix between the image information and the distance information using the first and second position data, and performs coordinate transformation using the transformation matrix.

이와 같은 본 발명의 과제를 달성하기 위한 일 실시예에 따른, 이미지 정보를 촬영하는 카메라 및 거리 정보를 감지하는 레이저 센서의 사이에서 좌표변환을 수행하는 캘리브레이션 방법은, 상기 카메라 및 상기 레이저 센서를 이용하여 평판부재를 촬영하는 단계, 상기 평판부재의 거리 정보로부터 복수의 꼭지점을 예측하는 단계, 상기 예측된 꼭지점과 상기 평판부재의 이미지 정보에 포함되는 꼭지점을 이용하여 적어도 하나의 대응쌍을 생성하는 단계, 상기 대응쌍을 이용하여 변환행렬을 생성하는 단계 및 상기 변환행렬을 이용하여 좌표변환을 수행하는 단계를 포함한다. According to another aspect of the present invention, there is provided a calibration method for performing coordinate conversion between a camera for photographing image information and a laser sensor for sensing distance information, A step of photographing a flat plate member, a step of predicting a plurality of vertices from the distance information of the flat plate member, a step of generating at least one corresponding pair using vertexes included in the image information of the predicted vertex and the flat plate member Generating a transform matrix using the corresponding pair, and performing coordinate transform using the transform matrix.

본 발명과 관련된 일 예로서, 상기 복수의 꼭지점을 예측하는 단계는 상기 거리 정보로부터 하나의 평면을 검출하는 단계. 상기 검출된 평면 상에 상기 거리 정보에 포함되는 포인트들을 정사영시키는 단계 및 상기 정사영된 포인트들을 이용하여 복수의 빗면을 산출하는 단계를 포함한다. As an example related to the present invention, the step of predicting the plurality of vertices may include detecting one plane from the distance information. The method comprising the steps of: orthogonalizing points included in the distance information on the detected plane; and calculating a plurality of oblique planes using the orthogonal points.

본 발명과 관련된 일 예로서, 상기 대응쌍이 기 설정된 기준개수 이상인지 판단하는 단계를 더 포함하고, 상기 대응쌍이 상기 기준개수 미만인 경우 상기 카메라 및 상기 레이저 센서로부터 각각 상기 이미지 정보 및 거리 정보를 다시 수신한다. In one embodiment of the present invention, the method further comprises determining whether the corresponding pair is greater than or equal to a preset reference number, and when the corresponding pair is less than the reference number, receiving the image information and distance information from the camera and the laser sensor again do.

상기와 같은 구성의 본 발명에 의하면, 평판부재 자체의 형상을 이용하여 평판부재와 상기 평판부재를 촬영하는 카메라 및 레이저 센서의 위치를 보다 간편하게 변환행렬을 위한 데이터를 구할 수 있다. According to the present invention having the above-described structure, it is possible to easily obtain the data for the conversion matrix of the position of the camera and the laser sensor for photographing the flat plate member and the flat plate member using the shape of the flat plate member itself.

이에 따라, 평판부재의 위치에 따른 오차를 최소화하고 보다 용이하게 레이저 스캐너와 카메라를 캘리브레이션 할 수 있다. Accordingly, it is possible to minimize the error according to the position of the flat plate member and calibrate the laser scanner and the camera more easily.

도 1a는 본 발명의 일 실시예에 따르는 캘리브레이션 시스템을 나타내는 개념도.
도 1b는 도 1a의 캘리브레이션 시스템의 구성도.
도 2는 본 발명의 일 실시 예에 따른 캘리브레이션 장치를 나타내는 개념도.
도 3은 본 발명에 따른 캘리브레이션 방법을 설명하기 위한 흐름도.
도 4는 3D 포인트 클라우드에서 대응쌍에 이용되는 삼각형의 세 꼭지점 예측 방법에 대한 흐름도.
도 5a 및 도 5b는 정렬된 포인트들을 연산하는 방법을 설명하기 위한 개념도.
도 6은 정렬된 3D 포인트 클라우드에서 삼각형의 모서리와 위쪽 꼭지점을 검출하는 방법에 대한 개념도.
도 7은 대응쌍에 이용되는 2D 이미지와 3D 포인트 클라우드에서 삼각형 보드의 세 꼭지점에 대한 개념도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1A is a conceptual diagram showing a calibration system according to an embodiment of the present invention. FIG.
1B is a configuration diagram of the calibration system of FIG. 1A;
2 is a conceptual diagram showing a calibration apparatus according to an embodiment of the present invention;
3 is a flow chart for explaining a calibration method according to the present invention.
4 is a flow chart of a method for predicting a triangle vertex point for a corresponding pair in a 3D point cloud;
5A and 5B are conceptual diagrams for explaining a method of calculating aligned points.
Figure 6 is a conceptual diagram of a method for detecting edges and top vertices of a triangle in an aligned 3D point cloud.
Fig. 7 is a conceptual diagram of three vertices of a triangle board in a 2D point cloud and a 2D image used in a corresponding pair; Fig.

이하, 본 발명과 관련된 카메라 및 레이저 센서의 캘리브레이션 장치, 캘리브레이션 시스템 및 캘리브레이션 방법에 관하여 도면을 참조하여 보다 상세하게 설명한다. 본 명세서에서는 서로 다른 실시예라도 동일·유사한 구성에 대해서는 동일·유사한 참조번호를 부여하고, 그 설명은 처음 설명으로 갈음한다. 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Hereinafter, a calibration apparatus, a calibration system, and a calibration method of a camera and a laser sensor according to the present invention will be described in detail with reference to the drawings. In the present specification, the same or similar reference numerals are given to different embodiments in the same or similar configurations. As used herein, the singular forms "a", "an" and "the" include plural referents unless the context clearly dictates otherwise.

도 1a는 본 발명의 일 실시예에 따르는 캘리브레이션 시스템을 나타내는 개념도이고, 도 1b는 도 1a의 캘리브레이션 시스템의 구성도이다. 도 2는 본 발명의 일 실시 예에 따른 캘리브레이션 장치를 나타내는 개념도이다. FIG. 1A is a conceptual diagram showing a calibration system according to an embodiment of the present invention, and FIG. 1B is a structural diagram of the calibration system in FIG. 1A. 2 is a conceptual diagram illustrating a calibration apparatus according to an embodiment of the present invention.

본 발명에 따른 캘리브레이션 시스템은 레이저 스캐너(11), 카메라(12), 제어부 모듈(S) 및 평판부재(13)를 포함한다. 상기 레이저 스캐너(11)는 복수이 장치로 이루어지고, 상기 복수의 장치들은 하나의 축을 기준으로 배열된다. 배열된 상기 레이저 스캐너(11)와 상기 카메라(12)의 위치는 도면에 도시된 바와 같이 기 설정된 위치에 고정된다. 상기 레이저 스캐너(11)와 상기 카메라(12)는, 상기 레이저 스캐너(11)와 상기 카메라(12)에 의한 데이터가 상기 평판부재(13) 상에서 획득되도록 고정된다. 상기 레이저 스캐너(11)와 상기 케마라(12)는 상대적으로 고정된 거리를 유지하면서, 이동형 로봇본체(미도시)에 장착될 수 있다. The calibration system according to the present invention includes a laser scanner 11, a camera 12, a control module S and a flat plate member 13. The laser scanner 11 comprises a plurality of apparatuses, and the plurality of apparatuses are arranged with respect to one axis. The positions of the laser scanner 11 and the camera 12 arranged are fixed at predetermined positions as shown in the figure. The laser scanner 11 and the camera 12 are fixed so that data by the laser scanner 11 and the camera 12 are acquired on the flat plate member 13. The laser scanner 11 and the kemalas 12 can be mounted on a mobile robot body (not shown) while maintaining a relatively fixed distance.

상기 레이저 스캐너(11)는 감지 대상체들의 거리 정보를 감지하며, 전방을 향하여 레이저 빔을 주사하여 대상 물체로부터 반사된 레이저를 수광하는 3D 레이저 스캐너의 형태로 구현될 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니며, 레이저 센서(10)는 3D 포인트 클라우드를 생성할 수 있는 구동되는 2D 레이저 스캐너나 , 대상물의 거리 정보를 획득할 수 있는 FMCW(Frequency Modulated Continuous Wave) 레이더 또는 3D 레이저 스캐너 등이 될 수 있다.The laser scanner 11 may be implemented in the form of a 3D laser scanner that senses distance information of the objects to be sensed, and receives the laser reflected from the object by scanning the laser beam toward the front. However, the present invention is not limited thereto. The laser sensor 10 may be a 2D laser scanner driven to generate a 3D point cloud, a frequency modulated continuous wave (FMCW) radar capable of obtaining distance information of an object, A 3D laser scanner, and the like.

상기 카메라(12)는 이미지 정보를 촬영하며, CCD(Charge Coupled-Device) 카메라, 복수의 카메라가 하나의 마운트에 고정되는 스테레오 카메라 등의 형태를 가질 수 있다.The camera 12 may take the form of a CCD (Charge Coupled-Device) camera, a stereo camera in which a plurality of cameras are fixed to a mount, and the like.

상기 제어부 모듈(S)은 상기 레이저 스캐너(11)와 상기 카메라(12)로부터 데이터를 수신하여 캘리브레이션을 수행한다. 상기 제어부 모듈(S)은 상기 이동형 로봇본체(미도시)에 탑재 될 수 있다. The controller module S receives data from the laser scanner 11 and the camera 12 and performs calibration. The control module S may be mounted on the mobile robot body (not shown).

상기 배열레이저 스캐너(11)로부터 제어부(S)로 수신된 데이터는 3D포인트 클라우드(30)로 이루어지며, 3D포인트 클라우드(30)는 레이저 수광 센서로부터 반사된 물체의 표면까지의 거리를 레이저 센서의 원점 또는 공간상의 임의의 원점을 기준으로 3D 좌표계로 나타낸 포인트들의 집합을 의미한다. 다만, 본 발명의 거리 데이터는 3D 레이저 스캐너(11)의 데이터에 한정되는 것은 아니며 빛의 패턴의 크기를 이용하는 방식이나 빛의 속도를 재는 방식의 깊이 카메라(Depth camera)등 일반적인 3D 거리 센서의 데이터가 될 수도 있다.The data received from the array laser scanner 11 to the control unit S is made up of a 3D point cloud 30 and the 3D point cloud 30 measures the distance from the laser light receiving sensor to the surface of the object reflected by the laser sensor Means a set of points represented by a 3D coordinate system with respect to an origin or any arbitrary origin in space. However, the distance data of the present invention is not limited to the data of the 3D laser scanner 11 but may be data of a general 3D distance sensor such as a depth camera using a light pattern size or a light depth measuring camera .

상기 카메라(12)로부터 제어부(S)로 수신되는 데이터(20)는 2D 이미지 정보이며, 이 때 사용되는 카메라는 도 1a에 도시된 것처럼 복수일 수도 있다. 또한 2D 이미지 정보(20)는 컬러이미지 정보가 아닌 흑백이미지 등 평판부재(13)의 기하학적인 정보를 표현 가능한 2D 이미지들이 될 수도 있다.
The data 20 received from the camera 12 to the control unit S is 2D image information, and a plurality of cameras may be used as shown in FIG. 1A. The 2D image information 20 may be 2D images capable of expressing the geometric information of the flat plate member 13, such as a monochrome image, rather than color image information.

상기 평판부재(13)는 상기 레이저 센서(11)의 감지범위(측정범위)와 상기 카메라(12)의 촬영범위 내에 배치된다. 상기 평판부재(13)는 배열레이저 스캐너(11)에서 생성된 3D 포인트 클라우드(30)와 카메라(12)에서 생성된 2D 이미지(20)에서 각각 포함될 수 있는 공간적 위치에 배치된다. 평판부재(13)는 모서리가 직선으로 이루어져있고, 맞닿은 빗변들이 예각을 이루는 형태로 이루어 질 수 있다. 예를 들어 삼각형이나 마름모형이 될 수 있다. The flat plate member 13 is disposed within the sensing range (measurement range) of the laser sensor 11 and within the imaging range of the camera 12. [ The flat plate member 13 is disposed at a spatial position that can be included in the 3D point cloud 30 generated by the array laser scanner 11 and the 2D image 20 generated by the camera 12, respectively. The flat plate member 13 may have a shape in which the corners are straight and the opposing hypotenuses form an acute angle. For example, triangular or rhombic.

다만, 상기 레이저 센서(11)의 데이터 스캔 방향이 서로 평행한 경우 상기 평판부재(13)는 상기 평판부재(13)을 이루는 두 개 이상의 모서리가 상기 스캔 방향과 평행하게 배치되는 것이 제한된다. However, when the data scanning directions of the laser sensor 11 are parallel to each other, the flat plate member 13 is limited in that two or more corners of the flat plate member 13 are arranged parallel to the scanning direction.

하나의 상기 평판부재의 배치에서 생성된 3D 포인트 클라우드(30)와 2D 이미지(20)는 한 쌍의 데이터로 정의된다. 상기 한 쌍의 데이터에는 촬영 당시 사용한 평판부재 형태와 개수에 따라서 검출되는 대응쌍의 개수가 다르다. 상기 대응쌍은 전체 검출된 평판부재의 꼭지점 수의 합과 같을 수 있다. The 3D point cloud 30 and the 2D image 20 generated in the arrangement of one of the flat plate members are defined as a pair of data. The pair of data differ in the number of corresponding pairs detected depending on the type of plate member used at the time of photographing and the number. The corresponding pair may be equal to the sum of the number of vertices of the entire detected flat plate member.

예를 들어, 상기 평판부재(13)가 삼각형 모양인 경우, 상기 데이터 쌍에서는 3개의 대응쌍이 형성될 수 있다. 두 개의 마름모 모양의 평면부재를 사용한 상기 데이터 상에서는 8개의 대응쌍이 형성될 수 있다. 설명의 편의를 위하여 상기 평판부재가 삼각형 모양인 것으로 설명한다. For example, if the flat plate member 13 has a triangular shape, three corresponding pairs may be formed in the data pair. Eight corresponding pairs can be formed on the data using two rhombic planar members. For convenience of explanation, it is assumed that the flat plate member has a triangular shape.

도 3은 본 발명에 따른 캘리브레이션 방법을 설명하기 위한 흐름도이고, 도 4는 3D 포인트 클라우드에서 대응쌍에 이용되는 삼각형의 세 꼭지점 예측 방법에 대한 흐름도이다. 도 5a 및 도 5b는 정렬된 포인트들을 연산하는 방법을 설명하기 위한 개념도이다. FIG. 3 is a flow chart for explaining a calibration method according to the present invention, and FIG. 4 is a flowchart of a method of predicting a triangle vertex used in a corresponding pair in a 3D point cloud. 5A and 5B are conceptual diagrams for explaining a method of calculating aligned points.

먼저 상기 제어부 모듈(S)은 3D 포인트 클라우드를 수신한다(S10). 상기 제어부 모듈(S)는 수신한 3D 포인트 클라우드(30)에서 하나의 평판부재 (삼각형 보드)에 대한 복수의 포인트들을 검출한다. 예를 들어, 두 개의 평판부재에 대한 데이터가 포함된 3D 포인트 클라우드(30)에서 하나의 평판부재에 대한 포인트를 검출할 수 있다.First, the control module S receives the 3D point cloud (S10). The control module S detects a plurality of points for one flat plate (triangular board) in the received 3D point cloud 30. For example, a point for one flat plate member in a 3D point cloud 30 containing data for two flat plate members may be detected.

또한, 상기 평판부재(삼각형 보드) 영역에 대한 데이터를 정렬한다(S30). 상기 평판부재 영역에 대한 데이터를 정렬하여 상기 레이저 센서(12)에서 생성한 노이즈를 줄일 수 있다.In addition, data for the flat plate (triangular board) area is arranged (S30). The noise generated by the laser sensor 12 can be reduced by aligning the data on the flat plate member region.

도 4 및 도 5a를 참조하면, 상기 평판부재(삼각형 보드)에 해당하는 평면을 검출한다(S21), 즉 상기 제어부 모듈(S)은 상기 수신된 평판부재에 해당하는 포인트들에서 상기 평판부재에 해당하는 평면(P)를 검출한다. 4 and 5A, a plane corresponding to the flat plate (triangular board) is detected (S21). That is, the control module S detects a plane corresponding to the received flat plate member The corresponding plane P is detected.

예를 들어, 상기 제어부 모듈(S)은 상기 평면(P)를 검출하기 위하여 상기 평판부재에 해당하는 포인트들 중 임의의 3개의 포인트를 선택한다. 상기 제어부 모듈(S)은 상기 3개의 포인트를 포함한 평면으로부터 일정거리 내의 상기 평판부재에 해당하는 포인트 수가 최대가 되는 평면을 검출하도록 반복하여 연산한다.For example, the control module S selects any three of the points corresponding to the plate member to detect the plane P. The controller module S repeatedly calculates to detect a plane having a maximum number of points corresponding to the flat plate members within a certain distance from the plane including the three points.

상기 제어부 모듈(S)은 상기 검출된 평판부재 평면(P) 위에 상기 평판부재에 해당하는 포인트들(30)을 평면에 수직하도록 정사영(orthogonal projection)시켜 정렬된 포인트들(40)을 얻을 수 있다(S22). 다만, 각 포인트들의 발광점의 위치가 추정 가능하다면, 레이저 발광부에 평행하도록 정사영을 나타낼 수 있다.The controller module S can obtain points 40 aligned by orthogonal projection so that the points 30 corresponding to the flat plate member are perpendicular to the plane on the detected plane member plane P (S22). However, if the position of the light emitting point of each point can be estimated, orthogonal projection can be shown so as to be parallel to the laser emitting portion.

도 5b를 참조하면, 상기 제어부 모듈(S)은 상기 평판부재(삼각형 보드)영역에 해당하는 3D 포인트들 중 일부(30a, 30b, 30c, 30d)에 의하여 검출된 평면(P)에 각각 정사영된 정렬된 포인트(40a, 40b, 40c, 40d)를 연산한다. 5B, the controller module S is mounted on a plane P detected by a portion 30a, 30b, 30c, or 30d of 3D points corresponding to the flat member (triangular board) And calculates aligned points 40a, 40b, 40c, and 40d.

상기 제어부 모듈(S)은 평판부재(삼각형 보드)의 꼭지점을 예측한다(S30). 도 6은 정렬된 3D 포인트 클라우드에서 삼각형의 모서리와 위쪽 꼭지점을 검출하는 방법에 대한 개념도이고, 이를 참조하여 꼭지점을 예측하는 방법을 보다 구체적으로 설명한다. The control module S predicts the vertex of the flat member (triangular board) (S30). FIG. 6 is a conceptual diagram of a method for detecting a corner and an upper vertex of a triangle in an aligned 3D point cloud, and a method for predicting a vertex will be described in more detail with reference to FIG.

상기 제어부 모듈(S)은 상기 정렬된 포인트들(40a, 40b, 40c, 40d) 중 상기 평판부재의 좌측빗면에 해당하는 3D직선 방정식을 검출하고(S31), 상기 평판부재의 우측 빗면에 해당하는 3D 직선방정식을 검출한다(S32). The controller module S detects a 3D linear equation corresponding to the left oblique plane of the flat member among the aligned points 40a, 40b, 40c, and 40d (S31), and detects a 3D linear equation corresponding to the right oblique plane of the flat member The 3D linear equation is detected (S32).

상기 3D 직선 방정식을 검출하기 위하여 상기 좌측 빗면에 해당하는 포인트들(41)을 검출하고 상기 우측 빗면에 해당하는 포인트들(42)을 검촐한다. In order to detect the 3D linear equation, the points 41 corresponding to the left oblique plane are detected and the points 42 corresponding to the right oblique plane are detected.

예를 들어, 상기 레이저 센서(11)가 서로 평행한 동일 방향을 스캔하는 레이저 센서장치들로 구성되어 있는 경우, 상기 정렬된 포인트들(40a, 40b, 40c, 40d) 중 상기 각 센서 스캔라인에서 가장 좌측에 해당하는 포인트들을 검출하여 상기 좌측 빗면에 해당하는 포인트들(41)을 검출할 수 있다. 또한, 상기 정렬된 포인트 중 각 센서 스캔라인에서 가장 우측에 해당하는 포인트들을 검출하여 상기 우측 빗면에 해당하는 포인트들(42)을 검출할 수 있다. For example, if the laser sensor 11 is composed of laser sensor devices that scan in the same direction parallel to each other, it is preferable that each of the aligned points 40a, 40b, 40c, The points corresponding to the left oblique plane can be detected by detecting the points corresponding to the leftmost oblique plane. In addition, it is possible to detect points corresponding to the right oblique plane by detecting the rightmost points in each sensor scan line among the aligned points.

상기 삼각형 보드의 좌측 빗면에 해당하는 3D 직선방정식(43)은, 상기 검출한 좌측 빗면에 해당하는 포인트들(41)로부터 임의의 2개를 선택하여, 상기 2개의 포인트를 포함한 3D 직선방정식으로부터 일정거리 내의 상기 좌측 빗면에 해당하는 포인트들(41)의 수가 최대가 되는 3D 직선방정식을 검출하도록 반복하여 연산이 가능하다(S31). 상기 삼각형 보드의 우측 빗면에 해당하는 3D 직선방정식(44)은, 상기 연산 방법(S31)으로 상기 검출한 우측 빗면에 해당하는 포인트들(42)로부터 연산이 가능하다(S32).The 3D linear equation 43 corresponding to the left oblique plane of the triangular board selects any two points from the detected points 41 corresponding to the detected left oblique plane, It is possible to calculate a 3D linear equation that maximizes the number of points 41 corresponding to the left oblique plane in the distance (S31). The 3D linear equation 44 corresponding to the right oblique plane of the triangular board can be calculated from the points 42 corresponding to the detected right oblique plane in the calculation method S31.

다음으로, 상기 제어부 모듈(S)은 상기 삼각형 보드의 위쪽 꼭지점을 산출한다(S33). 상기 꼭지점은 상기 삼각형 보드의 좌측 빗면에 해당하는 3D 직선방정식(43)과 상기 삼각형 보드의 우측 빗면에 해당하는 3D 직선방정식(44)의 교점을 연산하여 산출할 수 있다.Next, the controller module S calculates the upper vertex of the triangular board (S33). The vertex can be calculated by calculating the intersection point of the 3D linear equation 43 corresponding to the left oblique plane of the triangular board and the 3D linear equation 44 corresponding to the right oblique plane of the triangular board.

상기 좌측 3D 직선 방정식(43)과 우측 3D 직선 방정식(44)은 각각 동일한 평면(P)위에 존재하는 포인트들(40) 내의 하위 집합들(41, 42)로 구해진 직선들이므로 역시 동일한 평면(P)에 속한다. 따라서 두 직선 43과 44가 평행하지 않다면 교점(51)가 평면(P)위에 존재한다.Since the left 3D linear equation 43 and the right 3D linear equation 44 are the straight lines obtained by the subsets 41 and 42 in the points 40 existing on the same plane P respectively, ). Thus, if the two straight lines 43 and 44 are not parallel, the intersection point 51 is on the plane P.

또한 상기 좌측 3D 직선 방정식(43)은 삼각형 보드의 좌측 모서리의 위치 정보를 포함하고, 우측 3D 직선 방정식(44)은 삼각형 보드의 좌측 모서리의 위치정보를 포함하므로, 두 직선 방정식의 교점(51)은 삼각형 보드의 위쪽 꼭지점의 3D 위치정보에 해당한다.Since the left 3D linear equation 43 includes the position information of the left corner of the triangular board and the right 3D linear equation 44 includes the position information of the left corner of the triangular board, Corresponds to the 3D position information of the upper vertex of the triangular board.

상기 제어부 모듈(S)은 삼각형 보드의 좌측 아랫쪽 꼭지점(52)의 위치정보와 우측 아랫쪽 꼭지점(53)의 위치정보를 연산한다(S34). 예를 들어, 상기 좌측 3D 직선 방정식(43)의 하위 집합이며, 한쪽 끝점을 상기 두 직선의 교점(51)으로 하는 3D 선분을 가정한다. 이 때 삼각형 보드의 위쪽 꼭지점과 좌측 아래쪽 꼭지점 사이의 거리는 좌측 모서리의 길이와 같다. 따라서 상기 선분의 길이가 삼각형 보드의 왼쪽 모서리의 길이와 같다고 가정하고, 좌측 아래쪽 꼭지점에 해당하는 선분의 끝점(52)의 위치정보를 연산한다. 상기 우측 아래쪽 꼭지점(53)의 위치정보도 같은 연산 방법으로, 상기 두 직선의 교점(51)과 삼각형 보드의 우측 모서리의 길이를 이용하여 연산한다.The controller module S calculates the position information of the left lower vertex 52 and the position information of the lower right vertex 53 of the triangular board (S34). For example, it is assumed that a 3D segment is a subset of the left 3D linear equation (43), and one end point is an intersection (51) of the two straight lines. At this time, the distance between the upper vertex of the triangular board and the lower vertex of the left corner is equal to the length of the left corner. Therefore, it is assumed that the length of the line segment is equal to the length of the left corner of the triangle board, and the position information of the end point 52 of the line segment corresponding to the lower left corner point is calculated. The position information of the right lower corner point 53 is also calculated by using the same calculation method, using the intersection 51 of the two straight lines and the length of the right edge of the triangular board.

상기 제어부 모듈(S)은 기 연산한 꼭지점들(51, 52, 53)의 위치 정보의 적합성을 판별한다(S35). 예를 들어, 상기 검출한 삼각형 보드의 좌측 아래쪽 꼭지점(52)과 우측 아래쪽 꼭지점(53) 사이의 거리는 연산된 삼각형 보드의 아래쪽 모서리의 길이이다. 실제 삼각형 보드의 아래쪽 모서리의 길이와의 크기차를 산출하여, 임계값 이상의 오차가 생기는 경우, 상기 연산단계(S20, S30)에서 평면(P)과 직선 방정식들(43, 44)을 검출하는 조건들을 변경하여 오차가 임계값 이하가 될 때까지 반복 수행할 수 있다. The controller module S determines suitability of the position information of the vertexes 51, 52, and 53 (S35). For example, the distance between the lower left vertex 52 and the lower right vertex 53 of the detected triangular board is the length of the lower edge of the calculated triangular board. A condition for detecting the plane P and the linear equations 43 and 44 in the calculation steps S20 and S30 when an error equal to or greater than the threshold value is generated by calculating the difference in size from the bottom edge of the actual triangular board, Can be repeated until the error is less than or equal to the threshold value.

한편, 상기 제어부 모듈(S)은 2D 이미지(20)를 수신한다(S20). 상기 재어부 모듈(S)은 상기 수신된 2D 이미지(20)에서 상기 평판부재의 꼭지점의 위치 데이터를 검출한다(S50). 예를 들어, 상기 삼각형 보드를 사용한 경우, 3개의 꼭지점의 2D 위치 데이터를 검출할 수 있다.Meanwhile, the control module S receives the 2D image 20 (S20). The reckoning module S detects position data of a vertex of the flat plate member in the received 2D image (S50). For example, when the triangular board is used, 2D position data of three vertexes can be detected.

상기 제어부 모듈(S)은 두 꼭지점의 대응쌍을 형성한다(S60). 도 7은 대응쌍에 이용되는 2D 이미지와 3D 포인트 클라우드에서 삼각형 보드의 세 꼭지점에 대한 개념도이다. 도 3 및 도 7을 참조하여, 대응쌍을 형성하는 방법을 설명한다. The control module S forms a corresponding pair of two vertexes (S60). Fig. 7 is a conceptual diagram of three vertices of a triangle board in a 2D image cloud and a 2D image used in a corresponding pair. Referring to Figs. 3 and 7, a method of forming a corresponding pair will be described.

상기 평판부재(13)가 삼각형 보드인 경우 상기 삼각형 보드의 세 꼭지점들은 2D이미지에서 연산된 2D 이미지 좌표축 2개에 대한 제1 위치 데이터(21, 22, 23)와 상기 3D 포인트 클라우드에서 연산된 3D 이미지 좌표축 3개에 대한 제2 위치데이터(51, 52, 53)로 나타낼 수 있다.When the flat plate member 13 is a triangular board, the three vertexes of the triangular board are divided into first position data (21, 22, 23) for two 2D coordinate axes calculated in the 2D image, and 3D And second position data 51, 52, 53 for three image coordinate axes.

삼각형 보드의 위쪽 꼭지점은 2D 위치데이터의 2개 좌표축의 위치 정보(21)와 3D 포인트 클라우드의 3개 좌표축의 위치정보(51)를 가진다.The upper vertex of the triangle board has the position information 21 of the two coordinate axes of the 2D position data and the position information 51 of the three coordinate axes of the 3D point cloud.

상기 제어부 모듈(S)은 상기 형성된 대응쌍의 개수가 변환행렬을 산출할 수 있는 기준값에 충분한지 판단한다(S70). The controller module S determines whether the number of the corresponding pairs formed is sufficient for a reference value capable of calculating the transformation matrix (S70).

상기 변환 행렬은 3D 포인트 클라우드의 좌표값을 2D 이미지 좌표값으로 변환하는 행렬을 의미한다. 만약, 변환 행렬이 3X4의 크기의 행렬이면, 대응쌍의 수는 12개 이상일 때 변환 행렬을 산출 가능할 것이다.The transformation matrix means a matrix for transforming the coordinate values of the 3D point cloud into the 2D image coordinate values. If the transformation matrix is a matrix of size 3X4, the transformation matrix can be computed when the number of corresponding pairs is 12 or more.

상기 대응쌍이 충분하지 아니한 경우, 상기 제어부 모듈(S)은 상기 3D 병렬레이저 스캐너를 통해 생성된 포인트 클라우드를 다시 수신하고(S10), 상기 2D 카메라 영상을 다시 수신한다(S40). 즉, 상위 단계들(S10 내지 S50)을 다시 수행한다.If the corresponding pair is not sufficient, the control module S receives the point cloud generated through the 3D parallel laser scanner again (S10) and receives the 2D camera image again (S40). That is, the upper steps S10 to S50 are performed again.

상기 제어부 모듈(S)은 상기 대응쌍들로부터 변환행렬을 생성한다(S60). 상기 제어부 모듈(S)은 3D 포인트 클라우드의 좌표값은 2D 이미지 좌표값으로 변환하는 행렬과 상기 변환행렬의 역행렬에 해당하는 2D 이미지 좌표값을 3D 포인트 클라우드의 좌표값으로 변환하느 역변환행렬을 구할 수 있다. 상기 변환행렬은 카메라의 내부변수, 외부변수 및 카메라와 레이저 센서간의 좌표변환 행렬을The control module S generates a transformation matrix from the corresponding pairs (S60). The controller module S may obtain an inverse transformation matrix for transforming a coordinate value of the 3D point cloud into a 2D image coordinate value and a 2D image coordinate value corresponding to an inverse matrix of the transformation matrix into a coordinate value of the 3D point cloud have. The transformation matrix includes a coordinate transformation matrix between the internal variables of the camera, external variables, and the camera and the laser sensor

포함하며, 이를 통하여 이미지 정보 및 거리 정보의 사이에서 직접적인 좌표 변환이 가능하게 된다.Thereby enabling direct coordinate conversion between image information and distance information.

상기 제어부 모듈(S)은 상기 변환행렬 및 상기 역변환행렬을 이용하여 2D 이미지 데이터와 3D 포인트 클라우드 데이터의 캘리브레이션을 수행한다(S90). The controller module S performs calibration of 2D image data and 3D point cloud data using the transformation matrix and the inverse transformation matrix (S90).

기 생성된 변환 행렬을 이용하여 상기 3D 포인트 클라우드(30)의 좌표축에서 상기 2D 이미지(20)의 좌표축으로 변환할 수 있다. 또한 상기 단계에서(S80) 연산된 역 변환 행렬을 이용하여 2D 이미지(20)의 좌표축에서 상기 3D 포인트 클라우드(30)의 좌표축으로 변환 가능하다.And convert the coordinate axis of the 3D point cloud 30 to the coordinate axis of the 2D image 20 using the generated transformation matrix. In addition, it is possible to convert from the coordinate axis of the 2D image 20 to the coordinate axis of the 3D point cloud 30 using the inverse transformation matrix computed in the step S80.

상기와 같은 카메라 및 레이저 센서의 캘리브레이션 장치, 캘리브레이션 방법은 위에서 설명된 실시예들의 구성과 방법에 한정되는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성 될 수 있다.The calibration device and the calibration method of the camera and the laser sensor are not limited to the configuration and the method of the embodiments described above, but the embodiments may be modified such that all or some of the embodiments are selectively combined .

Claims (12)

이미지 정보를 촬영하는 카메라;
거리 정보를 감지하는 레이저 센서;
상기 이미지 정보 및 거리 정보의 대응관계를 산출하여 상기 카메라 및 레이저 센서의 캘리브레이션을 수행하는 캘리브레이션 모듈을 포함하고,
상기 캘리브레이션 모듈은,
복수의 꼭지점을 포함하는 다각형으로 이루어지는 평판부재; 및
상기 거리 정보를 이용하여 상기 복수의 꼭지점들을 예측하고, 상기 예측된 꼭지점들을 상기 이미지 정보에 포함되는 평판부재의 꼭지점과 대응시켜 상기 이미지 정보와 상기 거리 정보 사이에서 좌표를 변환하는 제어부을 포함하는 캘리브레이션 장치.
A camera for photographing image information;
A laser sensor for sensing distance information;
And a calibration module for calculating the correspondence between the image information and the distance information and performing calibration of the camera and the laser sensor,
Wherein the calibration module comprises:
A flat plate member made of a polygon including a plurality of vertexes; And
And a control unit for predicting the plurality of vertexes using the distance information and converting the coordinates between the image information and the distance information by associating the predicted vertices with the vertices of the flat plate member included in the image information, .
제1항에 있어서.
상기 평판 부재는 삼각형 또는 마름모 형태로 이루어지는 것을 특징으로 하는 캘리브레이션 장치.
The method of claim 1,
Wherein the flat plate member is in the form of a triangle or a rhomboid.
제1항에 있어서, 상기 제어부는 상기 꼭지점을 예측하기 위하여 사기 거리 정보에 포함되는 복수의 평면 중 하나의 평면을 선택하며,
상기 하나의 평면은, 상기 복수의 평면 중 기 설정된 거리 내에 위치하고 상기 평판부재에 해당되는 가장 많은 포인트를 포함하는 것을 특징으로 하는 캘리브레이션 장치.
2. The apparatus of claim 1, wherein the controller selects one of a plurality of planes included in the fraud distance information to predict the vertex,
Wherein the one plane is located within a predetermined distance of the plurality of planes and includes the most points corresponding to the flat plate members.
제3항에 있어서,
상기 제어부는 상기 하나의 평면의 포인트들은 상기 평면에 수직하도록 정사영 시키고, 상기 정사영된 포인트들을 이용하여 상기 평판부재의 꼭지점을 예측하는 것을 특징으로 하는 캘리브레이션 장치.
The method of claim 3,
Wherein the control unit corrects the points of the one plane to be perpendicular to the plane and predicts the vertex of the flat member using the orthogonal points.
제4항에 있어서,
상기 제어부는 상기 정사영된 포인트들을 이용하여 복수의 빗면에 대한 방정식을 검출하고, 상기 복수의 방정식의 연산을 통하여 상기 꼭지점을 산출하는 것을 특징으로 하는 캘리브레이션 장치.
5. The method of claim 4,
Wherein the control unit detects the equations for a plurality of oblique planes using the orthogonal projection points and calculates the vertexes through calculation of the plurality of equations.
제3항에 있어서,
상기 제어부는 상기 꼭지점들 사이의 길이와 상기 평판부재의 모서리의 길이를 비교하여, 상기 꼭지점들 사이의 길이와 상기 모서리의 길이 차이가 오차범위내에 해당되는지 판단하는 것을 특징으로 하는 캘리브레이션 장치.
The method of claim 3,
Wherein the controller compares the length between the vertexes with the length of the edge of the flat plate member to determine whether the difference between the length of the vertexes and the length of the edge falls within an error range.
제1항에 있어서,
상기 제어부는 상기 이미지 정보에서 연산된 이미지 좌표축에 대한 제1 위치 데이터와 상기 예측된 꼭지점들에 의하여 연산된 좌표축에 대한 제2 위치데이터를 이용하여 복수의 대응점을 산출하는 것을 특징으로 하는 캘리브레이션 장치.
The method according to claim 1,
Wherein the controller calculates the plurality of corresponding points using the first position data of the image coordinate axis calculated in the image information and the second position data of the coordinate axis calculated by the predicted vertices.
제7항에 있어서, 상기 제어부는 상기 대응점이 기 설정된 기준개수 이상 산출되는지 여부를 판단하고,
상기 대응점이 상기 기준개수 미만인 경우, 상기 거리 정보 및 상기 이미지 정보를 다시 수신하는 것을 특징으로 하는 캘리브레이션 장치.
8. The apparatus of claim 7, wherein the controller determines whether the corresponding point is calculated to be equal to or greater than a predetermined reference number,
And the distance information and the image information are received again when the corresponding point is less than the reference number.
제8항에 있어서, 상기 제어부는 상기 제1 및 제2 위치데이터를 이용하여 상기 이미지 정보 및 상기 거리 정보 사이에서의 변환행렬을 산출하고, 상기 변환행렬을 이용하여 좌표변환을 수행하는 것을 특징으로 하는 캘리브레이션 장치. 9. The apparatus according to claim 8, wherein the controller calculates a transformation matrix between the image information and the distance information using the first and second position data, and performs coordinate transformation using the transformation matrix . 이미지 정보를 촬영하는 카메라와, 거리 정보를 감지하는 레이저 센서의 사이에서 좌표변환을 수행하는 캘리브레이션 방법에 있어서,
상기 카메라 및 상기 레이저 센서를 이용하여 평판부재를 촬영하는 단계;
상기 평판부재의 거리 정보로부터 복수의 꼭지점을 예측하는 단계;
상기 예측된 꼭지점과 상기 평판부재의 이미지 정보에 포함되는 꼭지점을 이용하여 적어도 하나의 대응쌍을 생성하는 단계;
상기 대응쌍을 이용하여 변환행렬을 생성하는단계; 및
상기 변환행렬을 이용하여 좌표변환을 수행하는 단계를 포함하는 캘리브레이션 방법.
A calibration method for performing coordinate conversion between a camera for capturing image information and a laser sensor for sensing distance information,
Photographing a flat plate member using the camera and the laser sensor;
Estimating a plurality of vertexes from the distance information of the flat plate member;
Generating at least one corresponding pair using the vertex included in the image information of the predicted vertex and the flat plate member;
Generating a transform matrix using the corresponding pair; And
And performing a coordinate transformation using the transformation matrix.
제10항에 있어서, 상기 복수의 꼭지점을 예측하는 단계는,
상기 거리 정보로부터 하나의 평면을 검출하는 단계;
상기 검출된 평면 상에 상기 거리 정보에 포함되는 포인트들을 정사영시키는 단계; 및
상기 정사영된 포인트들을 이용하여 복수의 빗면을 산출하는 단계를 포함하는 것을 특징으로 하는 캘리브레이션 방법.
11. The method of claim 10, wherein the step of predicting the plurality of vertexes comprises:
Detecting one plane from the distance information;
Orthogonalizing points included in the distance information on the detected plane; And
And calculating a plurality of oblique planes using the orthogonal projection points.
제10항에 있어서,
상기 대응쌍이 기 설정된 기준개수 이상인지 판단하는 단계를 더 포함하고,
상기 대응쌍이 상기 기준개수 미만인 경우 상기 카메라 및 상기 레이저 센서로부터 각각 상기 이미지 정보 및 거리 정보를 다시 수신하는 것을 특징으로 하는 캘리브레이션 방법.
11. The method of claim 10,
Further comprising determining whether the corresponding pair is greater than or equal to a predetermined reference number,
And when the corresponding pair is less than the reference number, receiving the image information and the distance information from the camera and the laser sensor, respectively.
KR1020130156665A 2013-12-16 2013-12-16 Device, method for calibration of camera and laser range finder KR101565900B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130156665A KR101565900B1 (en) 2013-12-16 2013-12-16 Device, method for calibration of camera and laser range finder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130156665A KR101565900B1 (en) 2013-12-16 2013-12-16 Device, method for calibration of camera and laser range finder

Publications (2)

Publication Number Publication Date
KR20150069927A true KR20150069927A (en) 2015-06-24
KR101565900B1 KR101565900B1 (en) 2015-11-05

Family

ID=53516918

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130156665A KR101565900B1 (en) 2013-12-16 2013-12-16 Device, method for calibration of camera and laser range finder

Country Status (1)

Country Link
KR (1) KR101565900B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109029284A (en) * 2018-06-14 2018-12-18 大连理工大学 A kind of three-dimensional laser scanner based on geometrical constraint and camera calibration method
KR102014097B1 (en) * 2019-01-16 2019-08-26 주식회사 나노시스템즈 calibration system of scanner and camera
KR102054455B1 (en) * 2018-09-28 2019-12-10 재단법인대구경북과학기술원 Apparatus and method for calibrating between heterogeneous sensors
WO2020067751A1 (en) * 2018-09-28 2020-04-02 재단법인대구경북과학기술원 Device and method for data fusion between heterogeneous sensors
CN111521132A (en) * 2020-04-14 2020-08-11 长春理工大学 Novel self-calibration laser scanning projection method
KR102145557B1 (en) * 2019-02-21 2020-08-18 재단법인대구경북과학기술원 Apparatus and method for data fusion between heterogeneous sensors
CN114022636A (en) * 2021-09-18 2022-02-08 杭州汇萃智能科技有限公司 Point cloud distortion correction method based on 3D line scanning camera and related equipment
WO2023027268A1 (en) * 2021-08-26 2023-03-02 한국로봇융합연구원 Camera-lidar calibration device and method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101033167B1 (en) * 2011-01-31 2011-05-11 국방과학연구소 Device, system and method for calibration of camera and laser range finder

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109029284A (en) * 2018-06-14 2018-12-18 大连理工大学 A kind of three-dimensional laser scanner based on geometrical constraint and camera calibration method
KR102054455B1 (en) * 2018-09-28 2019-12-10 재단법인대구경북과학기술원 Apparatus and method for calibrating between heterogeneous sensors
WO2020067751A1 (en) * 2018-09-28 2020-04-02 재단법인대구경북과학기술원 Device and method for data fusion between heterogeneous sensors
US11971961B2 (en) 2018-09-28 2024-04-30 Daegu Gyeongbuk Institute Of Science And Technology Device and method for data fusion between heterogeneous sensors
KR102014097B1 (en) * 2019-01-16 2019-08-26 주식회사 나노시스템즈 calibration system of scanner and camera
KR102145557B1 (en) * 2019-02-21 2020-08-18 재단법인대구경북과학기술원 Apparatus and method for data fusion between heterogeneous sensors
CN111521132A (en) * 2020-04-14 2020-08-11 长春理工大学 Novel self-calibration laser scanning projection method
WO2023027268A1 (en) * 2021-08-26 2023-03-02 한국로봇융합연구원 Camera-lidar calibration device and method
KR20230030955A (en) * 2021-08-26 2023-03-07 한국로봇융합연구원 Apparatus for Camera-Lidar Calibration and method thereof
CN114022636A (en) * 2021-09-18 2022-02-08 杭州汇萃智能科技有限公司 Point cloud distortion correction method based on 3D line scanning camera and related equipment

Also Published As

Publication number Publication date
KR101565900B1 (en) 2015-11-05

Similar Documents

Publication Publication Date Title
KR101565900B1 (en) Device, method for calibration of camera and laser range finder
US11002537B2 (en) Distance sensor including adjustable focus imaging sensor
US9826217B2 (en) System and method for adjusting a baseline of an imaging system with microlens array
US9322646B2 (en) Adaptive mechanism control and scanner positioning for improved three-dimensional laser scanning
US11302022B2 (en) Three-dimensional measurement system and three-dimensional measurement method
CN104142157B (en) A kind of scaling method, device and equipment
KR101954855B1 (en) Use of intensity variations of light patterns for depth mapping of objects in a volume
KR101033167B1 (en) Device, system and method for calibration of camera and laser range finder
EP2195608B1 (en) System and method for multiframe surface measurement of the shape of objects
KR20160003776A (en) Posture estimation method and robot
JP5633058B1 (en) 3D measuring apparatus and 3D measuring method
JP6333396B2 (en) Method and apparatus for measuring displacement of mobile platform
KR20180018736A (en) Method for acquiring photographing device and depth information
JP6282377B2 (en) Three-dimensional shape measurement system and measurement method thereof
KR101203816B1 (en) Robot fish localization system using artificial markers and method of the same
TWI571099B (en) Device and method for depth estimation
Portugal-Zambrano et al. Robust range finder through a laser pointer and a webcam
JP7298687B2 (en) Object recognition device and object recognition method
KR101996226B1 (en) Apparatus for measuring three-dimensional position of subject and method thereof
JP6867766B2 (en) Information processing device and its control method, program
Zhou et al. A new algorithm for computing the projection matrix between a LIDAR and a camera based on line correspondences
KR101436097B1 (en) Non-Contacting Method for Measuring 6-DOF Motion Based on Laser Sensor
JP2011227073A (en) Three-dimensional position measuring device
WO2024034469A1 (en) Information processing device, information processing method, and program
JP6604934B2 (en) Point cloud pixel position determination device, method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20191002

Year of fee payment: 5