KR101405317B1 - Assist Apparatus for calibarating Camera Sensor and Laser Sensor, and Sensor Calibration System and Method using the same - Google Patents

Assist Apparatus for calibarating Camera Sensor and Laser Sensor, and Sensor Calibration System and Method using the same Download PDF

Info

Publication number
KR101405317B1
KR101405317B1 KR1020130004311A KR20130004311A KR101405317B1 KR 101405317 B1 KR101405317 B1 KR 101405317B1 KR 1020130004311 A KR1020130004311 A KR 1020130004311A KR 20130004311 A KR20130004311 A KR 20130004311A KR 101405317 B1 KR101405317 B1 KR 101405317B1
Authority
KR
South Korea
Prior art keywords
sensor
laser distance
distance sensor
laser
oblique
Prior art date
Application number
KR1020130004311A
Other languages
Korean (ko)
Inventor
김창환
황중원
김남훈
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020130004311A priority Critical patent/KR101405317B1/en
Application granted granted Critical
Publication of KR101405317B1 publication Critical patent/KR101405317B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Manufacturing & Machinery (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

As an enhanced sensor calibration auxiliary device for calibrating a camera sensor and a laser distance sensor, provided is the sensor calibration auxiliary device including a horn-like body. The body includes a front inclined plane disposed on the front of an inclined plane and a rear inclined plane disposed on the rear of the inclined plane on the basis of the virtual inclined plane dividing the body in half in the height direction of the body. When viewing the body from the front side, a portion of the inner surface of the rear inclined plane is exposed through a cut part by forming the cut part, which passes through the front inclined plane, on the front inclined plane. A grid part with a grid is formed on the outer surface of the front inclined plane or the inner surface of the rear inclined plane. Also, a sensor calibration system using the enhanced sensor calibration auxiliary device and a sensor calibration method are provided.

Description

카메라 센서와 레이저 거리 센서의 보정을 위한 보조장치와, 이를 이용한 센서 보정 시스템 및 센서 보정 방법{Assist Apparatus for calibarating Camera Sensor and Laser Sensor, and Sensor Calibration System and Method using the same} Technical Field [0001] The present invention relates to an assist device for calibrating a camera sensor and a laser distance sensor, and a sensor calibration system and a sensor calibration method using the same,

본 발명은 카메라 센서와 레이저 거리 센서의 보정에 관한 것으로서, 더욱 상세하게는 카메라 센서와 레이저 거리 센서의 정확한 위치(위치 및 방향)를 산출하는데 이용되는 보조장치와 이를 이용한 센서 보정 시스템 및 센서 보정 방법에 관한 것이다. The present invention relates to a correction of a camera sensor and a laser distance sensor, and more particularly, to an auxiliary device used for calculating an accurate position (position and direction) of a camera sensor and a laser distance sensor, .

도 1에 도시된 바와 같이, 레이저 거리 센서(11)와 카메라 센서(12)가 동시에 탑재된 시스템(10)이 다양한 분야에서 이용되고 있다. As shown in Fig. 1, a system 10 in which a laser distance sensor 11 and a camera sensor 12 are simultaneously mounted is used in various fields.

레이저 거리 센서(11)는 레이저를 물체에 주사하여 반사되어 돌아오는 시간을 통해 물체까지의 거리를 측정하는 센서이고, 카메라 센서(12)는 물체를 촬영하여 물체의 이미지 정보를 수집하는 센서이다. The laser distance sensor 11 is a sensor for scanning a laser with respect to an object and measuring the distance to an object through a time that is reflected and returned. The camera sensor 12 is a sensor for collecting image information of an object by photographing the object.

레이저 거리 센서(11)와 카메라 센서(12)를 통해 정확한 정보를 수집하기 위해서는 상기 센서들의 정확한 위치를 찾아내는 보정(Calibration) 작업이 먼저 이루어져야 한다. In order to collect accurate information through the laser distance sensor 11 and the camera sensor 12, a calibration operation for finding the accurate position of the sensors must be performed first.

레이저 거리 센서(11)의 보정은 센서가 위치한 공간에서의 센서의 정확한 위치 및 방향을 찾아내는 작업이다. 레이저 거리 센서를 통해 수집되는 거리 정보를 통해 센싱 대상이 되는 물체의 위치를 정보화하기 위해서는 레이저 거리 센서가 위치한 공간의 임의의 절대 좌표계 상에서 레이저 거리 센서의 위치 및 방향을 먼저 확정할 필요가 있다. The correction of the laser distance sensor 11 is an operation for finding the accurate position and direction of the sensor in the space where the sensor is located. In order to inform the position of an object to be sensed through the distance information collected through the laser distance sensor, it is necessary to first determine the position and direction of the laser distance sensor on an arbitrary absolute coordinate system of the space where the laser distance sensor is located.

여기서, 레이저 거리 센서(11)의 위치는 특정 좌표계에서 x, y, z의 좌표 정보를 의미하고, 레이저 거리 센서(11)의 방향은 롤(Roll), 피치(Pitch), 요(Yaw)의 정보를 의미한다. Here, the position of the laser distance sensor 11 means coordinate information of x, y and z in a specific coordinate system, and the direction of the laser distance sensor 11 is a roll, a pitch, Information.

카메라 센서(12)의 보정은 카메라 센서의 위치와 카메라 내부 변수(카메라 초점거리, 왜곡 변수)를 찾아내는 작업이다. The correction of the camera sensor 12 is to find the position of the camera sensor and the internal parameters of the camera (camera focal length, distortion parameters).

특허문헌 1은 카메라 센서와 레이저 거리 센서가 고정된 상태에서, 레이저 거리 센서가 보정용 보조장치에 레이저를 주사하여 얻어지는 정보를 통해 센서를 보정하는 방법을 제안하고 있다. Patent Document 1 proposes a method in which a laser distance sensor corrects a sensor based on information obtained by scanning a laser to a correction assistant while the camera sensor and the laser distance sensor are fixed.

하지만, 특허문헌 1에 따르면 레이저 거리 센서가 바닥에 수평한 경우를 가정하고 있어, 오로지 레이저 거리 센서의 피치 정보만을 획득하게 된다. However, according to Patent Document 1, it is assumed that the laser distance sensor is horizontal to the floor, and only the pitch information of the laser distance sensor is obtained.

즉, 특허문헌 1에 따르면 레이저 거리 센서가 바닥에 실제로 수평한지를 측정하고 못하며(즉, 레이저 거리 센서의 롤을 고려하고 있지 못하며), 레이저 거리 센서의 요를 전혀 고려하고 있지 않기 때문에 레이저 거리 센서를 정확히 보정하기 어렵다. That is, according to Patent Document 1, since the laser distance sensor can not measure the actual horizontal position on the floor (that is, the roll of the laser distance sensor is not considered) and the laser distance sensor is not considered at all, Is difficult to accurately correct.

또한, 특허문헌 1은 카메라 센서의 자체의 위치 보정에 대해서는 전혀 고려하고 있지 않다. In addition, Patent Document 1 does not consider the positional correction of the camera sensor itself at all.

대한민국 특허등록공보 제10-1033167호Korean Patent Registration No. 10-1033167

본 발명은 상술한 종래 기술의 문제점을 해결하기 위한 것으로, 레이저 거리 센서의 위치 및 방향을 정확히 추출하고, 카메라 센서의 위치 정보를 정확하게 추출하는 것을 목적으로 한다. SUMMARY OF THE INVENTION It is an object of the present invention to accurately extract the position and direction of a laser distance sensor and accurately extract position information of a camera sensor.

상기 목적을 달성하기 위하여, 본 발명의 따르면 개선된 형태의 센서 보정 보조장치와, 이를 이용한 센서 보정 시스템 및 센서 보정 방법이 제공된다. In order to accomplish the above object, according to the present invention, there is provided an improved sensor correcting device, a sensor correcting system and a sensor correcting method using the same.

본 발명의 일 측면에 따르면, 카메라 센서와 레이저 거리 센서의 보정을 위한 센서 보정 보조장치로서, 뿔 형태의 몸체를 구비하고, 상기 몸체는, 상기 몸체를 상기 몸체의 높이방향을 따라 절반으로 나누는 가상의 사면을 기준으로 상기 사면의 전방에 위치하는 전방 빗면부와 상기 사면의 후방에 위치하는 후방 빗면부를 포함하며, 상기 전방 빗면부에는 상기 전방 빗면부를 관통하는 절개부가 형성되어 상기 몸체를 전방에서 보았을 때 상기 절개부를 통해 상기 후방 빗면부의 내면의 일부가 노출되고, 상기 전방 빗면부의 외면 또는 상기 후방 빗면부의 내면에는 격자 무늬가 새겨진 격자 무늬부가 형성되는 센서 보정 보조장치가 제공된다. According to an aspect of the present invention, there is provided a sensor correcting auxiliary device for correcting a camera sensor and a laser distance sensor, the sensor correcting auxiliary device comprising a horn-shaped body, the body including a virtual And a rear beveled surface portion located behind the slanted surface, wherein the front beveled surface portion is formed with a cut-out portion penetrating the front beveled surface portion so that the body is viewed from the front A part of the inner surface of the rear bezel is exposed through the cutout, and a lattice pattern engraved on the outer surface of the front bevel or the inner surface of the rear bevel is formed.

일 실시예에 따르면, 상기 몸체는 다각형 뿔 형태를 구비하고, 상기 전방 빗면부는 복수의 전방 빗면을 포함하고, 상기 후방 빗면부는 복수의 후방 빗면을 포함하며, 상기 사면은 상기 전방 빗면과 상기 후방 빗면이 연결되는 두 모서리를 지난다. According to one embodiment, the body has a polygonal cone shape, the front beveled portion includes a plurality of forward oblique faces, the rear beveled portion includes a plurality of rear oblique faces, and the oblique face has the front oblique face and the rear oblique face, This connects two corners.

또한, 상기 몸체는 정점과 밑면의 중심을 잇는 선분이 밑면과 수직한 사각뿔 형태를 가지고, 상기 사각뿔의 사각형 밑면의 두 개의 대각 선분은 서로 직교하며, 상기 두 개의 절개부는, 상기 전방 빗면부를 형성하는 두 개의 전방 빗면이 형성하는 모서리를 중심으로 대칭으로 배치될 수도 있다. In addition, the body has a shape of a quadrangular pyramid, which is perpendicular to the bottom surface, and the two diagonal lines of the quadrangular pyramid are orthogonal to each other, and the two incisions form the front beveled portion But may be arranged symmetrically with respect to an edge formed by the two front oblique faces.

다른 실시예에 따르면, 센서 보정 보조장치는 몸체에 결합되는 보조면체를 더 포함하고, 상기 보조면체는 상기 후방 빗면의 내면과 하나의 평면을 형성하는 보조면을 구비한다. According to another embodiment, the sensor correcting device further comprises an auxiliary surface body coupled to the body, the auxiliary surface surface having an auxiliary surface forming a plane with the inner surface of the rear oblique surface.

이때, 상기 보조면체는, 상기 후방 빗면과 상기 전방 빗면이 만나는 모서리를 기준으로 상기 몸체에 대해 접철 가능하도록 형성될 수도 있다. At this time, the auxiliary surface body may be foldable with respect to the body with reference to a corner where the rear oblique surface and the front oblique surface meet.

상기 격자 무늬부에는 단색으로 형성된 단색 무늬부가 구비될 수도 있다. The grid pattern portion may be provided with a monochrome pattern portion formed in a single color.

또한, 상기 격자 무늬부는 상기 전방 빗면부의 외면 빗면부에 형성될 수도 있다. The lattice pattern may be formed on the outer surface of the front beveled portion.

본 발명의 다른 측면에 따르면, 카메라 센서와 레이저 거리 센서를 보정하기 위한 센서 보정 시스템으로서, 물체의 이미지 정보를 촬영하는 카메라 센서와, 레이저 광을 주사하여 물체까지의 거리 정보를 감지하는 레이저 거리 센서와, 상기 센서 보정 보조장치 및 상기 카메라 센서와 상기 레이저 거리 센서에 의해 수집되는 정보를 분석하는 정보 처리장치를 포함하고, 상기 레이저 거리 센서는 상기 절개부를 지나면서 상기 몸체를 가로지르는 레이저 광의 주사면이 형성되도록 상기 몸체의 전방에서 레이저 광을 주사하고, 상기 정보 처리장치는, 상기 전방 빗면부 및 상기 절개부를 통해 노출된 후방 빗면부의 내면에서 반사되는 레이저 광을 분석하여, 상기 주사면이 상기 몸체와 교차하여 형성하는 교차면의 형상을 산출하고, 상기 교차면과 상기 몸체의 기하학적 관계를 통해 상기 레이저 거리 센서의 위치 및 방향을 산출하는 센서 보정 시스템이 제공된다. According to another aspect of the present invention, there is provided a sensor correction system for correcting a camera sensor and a laser distance sensor, comprising: a camera sensor that captures image information of an object; a laser distance sensor that detects distance information to an object by scanning the laser light; And an information processing device for analyzing information collected by the sensor correcting device, the camera sensor, and the laser distance sensor, wherein the laser distance sensor comprises a laser light source for irradiating the laser light across the body, The information processing apparatus analyzes the laser beam reflected from the inner surface of the rear oblique face portion exposed through the front oblique face portion and the cutout portion, And the shape of the intersection surface formed by intersecting the intersection surface and the intersection surface, A sensor calibration system for calculating the position and orientation of the laser distance sensor is provided through the geometric relationship of the body.

또한, 상기 정보 처리장치는, 상기 카메라 센서로 상기 격자 무늬부를 촬영하여 획득된 영상 정보를 이용해 상기 3차원 영상을 2차원 영상으로 투영하기 위한 카메라 변수를 산출하여 상기 카메라 센서의 위치를 보정할 수도 있다. In addition, the information processing apparatus may calculate camera parameters for projecting the 3D image into a two-dimensional image using the image information obtained by photographing the grid pattern portion with the camera sensor to correct the position of the camera sensor have.

일 실시예에 따르면, 상기 격자 무늬부에는 상기 몸체의 높이 방향과 수평하게 연장되며 단색으로 형성된 단색 무늬부가 구비되고, 상기 레이저 거리 센서는 상기 주사면이 상기 단색 무늬부를 지나도록 레이저 광을 주사한다. According to an embodiment of the present invention, the lattice pattern portion includes a monochrome pattern portion extending in a horizontal direction with respect to the height direction of the body, and the laser distance sensor scans the laser light so that the scan surface passes through the monochromatic pattern portion .

본 발명의 또 다른 측면에 따르면, 상기 센서 보정 보조장치를 이용하여 카메라 센서와 레이저 거리 센서를 보정하는 센서 보정 방법으로서, 상기 몸체의 전방 빗면부의 중심이 상기 레이저 거리 센서와 정면으로 마주하도록 상기 센서 보정 보조장치의 몸체와 상기 레이저 거리 센서를 배치하고, 상기 절개부를 지나면서 상기 몸체를 가로지르는 레이저 광의 주사면이 형성되도록 상기 몸체의 전방에서 레이저 광을 주사하며, 상기 전방 빗면부 및 상기 절개부를 통해 노출된 후방 빗면부의 내면에 의해 반사되는 레이저 광을 분석하여 상기 레이저의 주사면이 상기 몸체와 교차하여 형성하는 교차면의 형상을 산출하고, 상기 교차면과 상기 몸체의 기하학적 관계를 통해 임의의 절대 좌표계 상에서의 상기 센서 보정 보조장치에 대한 상기 레이저 거리 센서의 위치 및 방향을 산출하는 센서 보정 방법이 제공된다. According to another aspect of the present invention, there is provided a sensor calibration method for calibrating a camera sensor and a laser distance sensor using the sensor calibration assistant, the sensor calibration method comprising the steps of: Wherein the body of the correction assistant and the laser distance sensor are arranged and the laser beam is scanned in front of the body so as to form a scanning surface of laser light across the body passing through the cutout portion, The laser beam reflected by the inner surface of the rear beveled surface exposed through the laser beam is analyzed to calculate the shape of the intersecting surface formed by intersecting the scanning surface of the laser with the body, The laser distance to the sensor calibration aid on an absolute coordinate system The sensor calibration method for calculating the position and orientation of the stand is provided.

또한, 상기 카메라 센서로 상기 격자 무늬부를 촬영하여 획득된 영상 정보를 이용해 상기 3차원 영상을 2차원 영상으로 투영하기 위한 변수를 산출하고, 상기 변수를 이용해 상기 임의의 절대 좌표계 상에서의 상기 카메라의 위치를 산출할 수도 있다. The method may further include calculating a variable for projecting the 3D image into a 2D image using the image information obtained by photographing the grid pattern portion with the camera sensor, .

일 실시예에 따르면, 상기 센서 보정 보조장치는 정점과 밑면의 중심을 잇는 선분이 지면과 수직한 사각뿔 형태의 몸체를 구비하고, 상기 사각뿔의 사각형 밑면의 두 개의 대각 선분은 서로 직교하며, 상기 전방 빗면부는 두 개의 전방 빗면을 포함하고, 상기 후방 빗면부는 두 개의 후방 빗면을 포함하고, 상기 사면은 상기 전방 빗면과 상기 후방 빗면이 연결되는 두 모서리를 지나며, 상기 레이저 거리 센서의 정면 방향이 상기 두 개의 전방 빗면이 만나는 모서리와 두 개의 후방 빗면이 만나는 모서리를 모두 통과하도록 상기 보정 보조장치와 상기 레이저 거리 센서를 배치할 수도 있다. According to an embodiment of the present invention, the sensor correcting auxiliary device has a body of a quadrangular pyramid shape in which a line segment connecting a vertex and a center of the bottom surface is perpendicular to the ground surface, wherein two diagonal line segments of the quadrangular pyramid are orthogonal to each other, Wherein the oblique portion includes two front oblique faces, the rear oblique portion includes two rear oblique faces, the oblique face passes through two corners where the front oblique face and the rear oblique face are connected, The correction assist device and the laser distance sensor may be arranged so as to pass both the corner where the front bevel faces meet and the corner where the two rear oblique faces meet.

도 1은 레이저 거리 센서와 카메라 센서가 동시에 탑재된 로봇을 도시한 것이다.
도 2는 본 발명의 제1실시예에 따른 센서 보정 보조장치의 사시도이다.
도 3은 도 2의 센서 보정장치의 평면도이다.
도 4는 도 2의 센서 보정장치의 측면도이다.
도 5는 도 2의 센서 보정장치의 정면도이다.
도 6 및 도 7은 레이저 거리 센서를 이용해 도 2의 센서 보정 보조장치에 레이저 광을 조사하는 모습을 도시한 것이다.
도 8은 레이저 광의 주사면이 도 2의 센서 보정 보조장치와 교차하여 형성되는 교차면의 추출 원리를 설명하기 위한 도면이다.
도 9는 레이저 거리 센서의 위치 및 방향 확정을 위해 레이저 거리 센서와 센서 보정 보조장치가 정렬된 모습을 도시한 것이다.
도 10은 도 9와 같이 레이저 거리 센서와 센서 보정 보조장치가 정렬된 상태에서 레이저 거리 센서의 롤과 피치에 따라 변화하는 교차면의 형상을 도시한 것이다.
도 11은 레이저 거리 센서와 센서 보정 보조장치를 측면에서 도시한 것이다.
도 12는 레이저 거리 센서와 센서 보정 보조장치를 정면에서 도시한 것이다.
도 13은 도 11 및 도 12와 같이 배치된 레이저 거리 센서와 센서 보정 보조장치에 의한 교차면을 도시한 것이다.
도 14는 본 발명의 제2실시예에 따른 센서 보정 보조장치의 사시도이다.
도 15는 레이저 광의 주사면이 도 2의 센서 보정 보조장치와 교차하여 형성되는 교차면의 추출 원리를 설명하기 위한 도면이다.
1 shows a robot in which a laser distance sensor and a camera sensor are simultaneously mounted.
FIG. 2 is a perspective view of a sensor correcting device according to a first embodiment of the present invention. FIG.
3 is a plan view of the sensor correction device of Fig.
4 is a side view of the sensor correction device of FIG.
5 is a front view of the sensor correction device of FIG.
FIGS. 6 and 7 illustrate how the laser-assistant apparatus of FIG. 2 irradiates laser light using the laser distance sensor.
Fig. 8 is a view for explaining the extraction principle of the intersecting surface formed by intersecting the scanning surface of the laser light with the sensor correcting auxiliary device of Fig. 2. Fig.
FIG. 9 shows an arrangement in which the laser distance sensor and the sensor correction assistant are aligned to determine the position and orientation of the laser distance sensor.
FIG. 10 is a cross-sectional view of the laser distance sensor according to the roll and pitch of the laser distance sensor in a state where the laser distance sensor and the sensor correction assistant are aligned as shown in FIG.
11 is a side view of the laser distance sensor and the sensor correction assistant.
Figure 12 shows a laser distance sensor and a sensor correction aid in front view.
13 is a cross-sectional view of the laser distance sensor and the sensor correction assist device arranged as shown in Figs. 11 and 12. Fig.
FIG. 14 is a perspective view of a sensor correction assistance apparatus according to a second embodiment of the present invention. FIG.
Fig. 15 is a view for explaining the extraction principle of the intersecting surface formed by intersecting the scanning surface of laser light with the sensor correcting device of Fig. 2;

이하, 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 하나의 실시예로서 설명되는 것이며, 이것에 의해 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지 않는다.
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. Although the present invention has been described with reference to the embodiments shown in the drawings, it is to be understood that the technical idea of the present invention and its essential structure and operation are not limited thereby.

<제1실시예>
&Lt; Embodiment 1 >

센서 보정 보조장치Sensor calibration aid

도 2는 본 발명의 제1실시예에 따른 센서 보정 보조장치의 사시도이다. FIG. 2 is a perspective view of a sensor correcting device according to a first embodiment of the present invention. FIG.

도 3은 도 2의 센서 보정장치의 평면도이고, 도 4는 도 2의 센서 보정장치의 측면도이며, 도 5는 도 2의 센서 보정장치의 정면도이다. 도 3 내지 도 4에서는 도시의 편의를 위해 격자무늬부(124)가 도시 생략되었다. FIG. 3 is a plan view of the sensor correction device of FIG. 2, FIG. 4 is a side view of the sensor correction device of FIG. 2, and FIG. 5 is a front view of the sensor correction device of FIG. 3 to 4, the lattice pattern 124 is omitted for convenience of illustration.

도 2 내지 도 5에 도시된 바와 같이, 센서 보정 보조장치(100)는 속이 빈 뿔 형태의 몸체(100)를 구비한다. As shown in FIGS. 2 to 5, the sensor correcting assisting device 100 includes a hollow horn-shaped body 100.

본 실시예에 따른 몸체(100)는 밑면의 두 대각 선분이 서로 수직하고, 몸체(100)의 정점(T)과 밑면의 중심(OH)을 잇는 선분이 지면과 수직한 사각뿔 형태를 가진다. 즉, 몸체(100)는 위에서 바라보았을 때 마주보는 대각의 크기가 서로 동일하고(도 3), 측면 및 정면에서 보았을 때 전체적으로 이등변 삼각형의 형상을 가진다(도 4 및 도 5). The body 100 according to the present embodiment has a square cone shape in which two diagonal line segments of the bottom surface are perpendicular to each other and a line segment connecting the apex T of the body 100 and the center O H of the bottom surface is perpendicular to the ground surface. That is, the body 100 has the same diagonal size as viewed from above (FIG. 3), and has an isosceles triangle shape as viewed from the side and front (FIGS. 4 and 5).

몸체(100)는, 몸체(100)를 그 높이방향을 따라 절반으로 나누는 가상의 사면(미도시)을 기준으로 상기 사면의 전방에 위치하는 전방 빗면부와 상기 사면의 후방에 위치하는 후방 빗면부를 포함한다. The body 100 includes a front oblique face portion positioned in front of the oblique face and a rear oblique face portion located behind the oblique face on a hypothetical slope (not shown) that divides the body 100 in half along the height direction, .

상기 사면은 몸체(100)의 정점(T)과 두 모서리(151, 152)를 통과하는 가상의 면이다. 따라서, 본 실시예에 따르면, 상기 전방 빗면부는 두 개의 전방 빗면(110, 120)으로 이루어지고, 상기 후방 빗면부는 두 개의 후방 빗면(130, 140)으로 이루어진다. 네 개의 빗면(110, 120, 130, 140)은 네 모서리(151, 152, 153, 154)를 형성한다. The slope is an imaginary plane passing through the apex T of the body 100 and the two edges 151 and 152. Therefore, according to the present embodiment, the front beveled surface comprises two front oblique faces 110 and 120, and the rear oblique face portion comprises two rear oblique faces 130 and 140. [ Four oblique faces 110, 120, 130, and 140 form four corners 151, 152, 153, and 154, respectively.

도 2에 가장 잘 도시된 바와 같이, 두 개의 전방 빗면(110, 120)에는 각각 전방 빗면(110, 120)을 관통하는 절개부(112, 122)가 형성되어 있다. 몸체(100)를 전방에서 보았을 때 절개부(112, 122)를 통해 후방 빗면(130, 140)의 내면(131, 141)의 일부가 외부로 노출된다.As best shown in FIG. 2, the two forward oblique faces 110 and 120 are formed with cutouts 112 and 122 through the forward oblique faces 110 and 120, respectively. A part of the inner surfaces 131 and 141 of the rear oblique faces 130 and 140 is exposed to the outside through the cutout portions 112 and 122 when the body 100 is viewed from the front.

본 실시예에 따르면 두 개의 절개부(112, 122)는 두 개의 전방 빗면(110, 120)이 형성하는 모서리(153)를 중심으로 대칭으로 배치된다. According to the present embodiment, the two incisions 112 and 122 are arranged symmetrically with respect to the edge 153 formed by the two front oblique faces 110 and 120.

절개부(112, 122)가 형성되지 않은 전방 빗면부(112, 122)의 외면(111, 121)에는 흑백의 격자 무늬가 바둑판 형태로 새겨진 격자 무늬부(124)가 형성된다. A grid pattern 124 is formed on the outer faces 111 and 121 of the front oblique faces 112 and 122 where the cutouts 112 and 122 are not formed.

격자 무늬부(124)에는 몸체(100)의 높이 방향과 수직한 방향으로 연장되며, 흰색으로 형성된 단색 무늬부(123)가 구비된다. The grid pattern portion 124 is provided with a monochrome pattern portion 123 extending in a direction perpendicular to the height direction of the body 100 and formed in white.

후술하는 바와 같이, 격자 무늬부(124)는 카메라 센서(12)의 보정을 위해 이용되는 부분이다. As will be described later, the lattice pattern portion 124 is a portion used for the correction of the camera sensor 12.

또한, 후술하는 바와 같이, 레이저 거리 센서(11)의 위치 및 방향을 추출하기 위해 레이저 거리 센서(11)를 이용해 몸체(100)에 레이저를 주사하게 되는데, 격자 무늬부(124)의 흑백의 격자 무늬에 따라 레이저의 율상이 변화하는 현상이 발생할 수 있다. 따라서, 레이저 거리 센서(11)가 단색 무늬부(123)를 지나는 경로로 레이저를 주사하도록 하여 보정의 정확도를 높일 수 있다. In order to extract the position and the direction of the laser distance sensor 11 as described later, the laser is scanned on the body 100 using the laser distance sensor 11. In this case, A phenomenon in which the rate of laser varies depending on the pattern may occur. Therefore, the laser distance sensor 11 scans the laser beam passing through the monochromatic pattern 123, thereby improving the accuracy of the correction.

단색 무늬부(123)는 별도의 부재를 이용해 격자 무늬부(124)에 탈착 가능하며, 격자 무늬부(124)에 대해 상하로 위치 이동 가능하도록 형성될 수도 있다.
The monochromatic fringe 123 may be detachable to the fringe pattern portion 124 using a separate member and may be formed to be vertically movable with respect to the fringe pattern portion 124.

센서 보정 시스템 및 보정 방법Sensor calibration system and calibration method

도 6 내지 도 13은 본 발명의 제1실시예에 따른 센서 보정 보조장치를 이용한 센서 보정 시스템 및 센서 보정 방법을 설명하기 위한 도면이다. 6 to 13 are views for explaining a sensor correction system and a sensor correction method using the sensor correction assistance device according to the first embodiment of the present invention.

본 실시예에 따른 센서 보정 시스템은 카메라 센서(12)와 레이저 거리 센서(11)를 보정하기 위한 센서 보정 시스템으로서, 물체의 이미지 정보를 촬영하는 카메라 센서(12)와 레이저를 주사하여 상기 물체까지의 거리 정보를 감지하는 레이저 거리 센서(11), 본 실시에에 따른 센서 보정 보조장치 및 카메라 센서(12)와 레이저 거리 센서(11)에 의해 수집되는 정보를 처리하는 정보 처리장치(미도시)를 포함하여 구성된다. The sensor correction system according to the present embodiment is a sensor correction system for correcting the camera sensor 12 and the laser distance sensor 11. The sensor correction system includes a camera sensor 12 for photographing image information of an object, An information processing apparatus (not shown) for processing the information collected by the camera distance sensor 11 and the sensor correction assist device and camera sensor 12 according to the present embodiment, .

먼저 레이저 거리 센서(11)의 보정 시스템 및 방법을 설명한다. First, the correction system and method of the laser distance sensor 11 will be described.

도 6에 도시된 바와 같이, 레이저 거리 센서(11)는 몸체(100)의 전방에서 절개부(112, 122)를 지나면서 몸체(100)를 가로지르도록 복수의 레이저 광(점선 표시)을 조사한다. 상술한 바와 같이, 레이저 거리 센서(11)가 단색 무늬부(123)를 지나는 경로로 레이저를 주사하도록 하는 것이 바람직하다. 6, the laser distance sensor 11 irradiates a plurality of laser beams (dotted lines) so as to cross the body 100 while passing through the cutouts 112 and 122 in front of the body 100, do. As described above, it is preferable that the laser distance sensor 11 scan the laser through a path passing through the monochrome fringe portion 123. [

복수의 레이저 광들은 서로 일정한 간격(θ)을 가지고 조사된다. 일반적으로 레이저 거리 센서(11)는 로봇(10)에 연결된 회전축(미도시)을 기준으로 회전하면서 일정 간격으로 복수의 레이저 광을 차례로 조사하지만, 필요에 따라서는 레이저 거리 센서(11)가 일정 간격의 복수의 레이저 광을 동시에 조사하도록 구성될 수 있다는 것이 이해되어야 할 것이다. A plurality of laser beams are irradiated with a certain interval (?) From each other. Generally, the laser distance sensor 11 sequentially irradiates a plurality of laser beams at regular intervals while rotating about a rotation axis (not shown) connected to the robot 10, and if necessary, It is to be understood that the present invention is not limited thereto.

도 7에 도시된 바와 같이, 복수의 레이저 광이 형성하는 주사면은 몸체(100)와 교차하는 가상의 교차면(200)을 형성하게 된다. As shown in FIG. 7, the scanning surface formed by the plurality of laser beams forms a virtual intersection surface 200 intersecting the body 100.

본 실시예에 따르면 교차면(200)의 형상 정보를 산출하고, 교차면(200)과 몸체(100)의 형상의 기하학적 관계를 통해 레이저 거리 센서(11)의 위치 및 방향을 산출하게 된다. According to this embodiment, the shape information of the intersection surface 200 is calculated and the position and direction of the laser distance sensor 11 are calculated through the geometric relationship between the intersection surface 200 and the shape of the body 100.

다시 도 6을 참조하면, 복수의 레이저 광 중 일부는 절개부를 통해 노출된 후방 빗면의 내면(131, 141)에 도달한 뒤 반사되고, 다른 일부는 전방 빗면의 외면(111, 121)에 부딪힌 뒤 반사된다. Referring again to FIG. 6, a part of the plurality of laser beams reaches the inner surfaces 131 and 141 of the rear oblique plane exposed through the cutout and is then reflected, and the other part is struck on the outer surfaces 111 and 121 of the front oblique plane Reflection.

반사된 레이저 광의 정보를 분석하면, 레이저 거리 센서(11)로부터 레이저 광이 도달하는 몸체(100)의 복수의 지점(P1, P2)까지의 거리를 알 수 있다. 지점(P1, P2) 간의 간격(θ)은 이미 알고 있으므로, 도 8에 도시된 바와 같이, 복수의 레이저 광에 의해 수집된 각 지점까지의 거리를 레이저 거리 센서(11)의 위치(도 8의 0점)를 기준으로 각 지점 위치를 2차원 평면에 좌표화할 수 있다. By analyzing the information of the reflected laser light, the distance from the laser distance sensor 11 to the plurality of points P 1 and P 2 of the body 100 reaching the laser light can be known. Since the distance between the points P 1 and P 2 is already known, the distance to each point collected by the plurality of laser beams is set to the position of the laser distance sensor 11 8 point of zero point), the position of each point can be co-ordinated on a two-dimensional plane.

도 8에서, 데이터(P111)는 제1전방 빗면(110)의 외면(111)에 의해 반사된 레이저 광들에 의해 수집된 지점 정보이고, 데이터(P121)는 제2전방 빗면(120)의 외면(121)에 의해 반사된 레이저 광들에 의해 수집된 지점 정보이며, 데이터(P131)는 제1후방 빗면(130)의 외면(131)에 의해 반사된 레이저 광들에 의해 수집된 지점 정보이고, 데이터(P141)는 제2후방 빗면(140)의 외면(141)에 의해 반사된 레이저 광들에 의해 수집된 지점 정보이다. 8, the data P 111 is point information collected by the laser beams reflected by the outer surface 111 of the first front oblique surface 110, and the data P 121 is point information of the second front oblique surface 120 The data P 131 is the point information collected by the laser beams reflected by the outer surface 131 of the first rear oblique surface 130 and is the point information collected by the laser beams reflected by the outer surface 121, The data P 141 is point information collected by the laser beams reflected by the outer surface 141 of the second rear oblique surface 140.

위와 같이 수집된 각 거리 데이터들을 공지의 RANSAC 알고리즘 등을 통해 노이즈를 제거하고, 각 지점들을 잇는 라인들을 추출한 뒤 이를 이용하여 각 라인이 형성하는 사각형을 추출할 수 있다.Each of the distance data collected as described above can be removed by using the known RANSAC algorithm or the like, and the lines connecting the points can be extracted, and the rectangles formed by the lines can be extracted using the extracted lines.

노이즈 제거 방법은 데이터들이 평균 값을 사용하는 방법과, 데이터들의 중간 값을 사용하는 방법 등과 같은 공지의 방법들이 이용될 수도 있으며, 사각형의 추출은 사각형의 꼭지점 모델을 이용하여 사각형을 추출하거나, 필터링 방법으로 사각형을 추출할 수도 있다는 것이 이해되어야 할 것이다. The noise cancellation method may use known methods such as a method of using an average value of data and a method of using an intermediate value of data, and the extraction of a quadrangle may be performed by extracting a quadrangle using a vertex model of a quadrangle, It should be understood that the rectangle may be extracted by the method.

도 8과 같이 추출된 사각형은, 레이저 광의 주사면이 몸체(100)와 교차하여 형성하는 교차면(200)의 2차원적인 형상을 나타낸다. The rectangle extracted as shown in FIG. 8 represents a two-dimensional shape of the intersection surface 200 formed by intersecting the scanning surface of the laser light with the body 100.

도 8은 레이저 거리 센서(11)의 몸체(100)에 대한 롤과 피치가 0인 상태에서 추출된 사각형을 도시한 것이다. 이와 같은 상태에서는 교차면(200)이 몸체(100)의 밑면 형상과 동일한 대각이 a 또는 b인 형상을 가진다. 8 shows a rectangle extracted from the roll 100 and the pitch of the body 100 of the laser distance sensor 11. FIG. In this state, the intersecting plane 200 has a shape of a or b whose diagonal is the same as the bottom face of the body 100.

이하, 레이저 거리 센서(11)의 보정 방법에 대해 설명한다. Hereinafter, a correction method of the laser distance sensor 11 will be described.

도 9에 도시된 바와 같이, 먼저 몸체(100)의 전방 빗면부의 중심이 레이저 거리 센서(11)와 정면으로 마주하도록 센서 보정 보조장치와 레이저 거리 센서(11)를 배치한다. 9, the sensor correction assistant and the laser distance sensor 11 are arranged so that the center of the front oblique face of the body 100 faces the laser distance sensor 11 in front.

레이저 거리 센서(11)에 대해 레이저 거리 센서(11)의 전방 중심을 원점(OL)으로 한 센서 좌표계(x', y', z')를 설정할 수 있다. 또한, 센서 보정 보조장치의 밑면 중심을 원점(OH)으로 하고, 두 대각선을 각각 x, y축으로 밑면의 중심과 정점(T)를 잇는 선분을 z축으로 하는 몸체 좌표계(x", y", z")를 설정할 수 있다. 도 9에서는 z축은 도시 생략되어 있다. The sensor coordinate system (x ', y', z ') in which the front center of the laser distance sensor 11 is the origin (O L ) with respect to the laser distance sensor 11 can be set. The body coordinate system (x ", y (t)) is defined by the center of the bottom surface of the sensor correction assisting device as the origin (O H ) and the two diagonal lines as x and y axes and the line segment connecting the center of the bottom surface and the vertex &quot;, z ") can be set. In Fig. 9, the z-axis is omitted.

본 실시예에 따르면, 레이저 거리 센서(11)의 정면 방향이 몸체(100)의 두 개의 전방 빗면이 만나는 모서리(153)와 두 개의 후방 빗면이 만나는 모서리(154)를 모두 통과하도록 센서 보정 보조장치와 레이저 거리 센서(11)를 배치한다. 즉, 도 9에서 센서 좌표계의 y축과 몸체 좌표계의 y축이 동일 축선 상에 위치하도록 한다. According to the present embodiment, the sensor correction assist device 150 is arranged so that the frontal direction of the laser distance sensor 11 passes both the edge 153 where the two front oblique faces of the body 100 meet and the edge 154 where the two rear oblique faces meet, And the laser distance sensor 11 are disposed. That is, in FIG. 9, the y-axis of the sensor coordinate system and the y-axis of the body coordinate system are located on the same axis.

이와 같은 배치 상태에서는 도 10에 도시된 바와 같이, 레이저 거리 센서(11)의 롤과 피치에 관계없이 교차면(200, 400, 500)들의 전후방 꼭지점(1, 1', 1", 2, 2', 2")들이 하나의 축(B) 상에 위치하게 된다. 또한, 도 10에 도시된 바와 같이, 축(B)은 0점과 일치하여 형성된다. 레이저 거리 센서(11)의 롤과 피치에 따라서, 교차면(200, 400, 500)의 형상(변의 길이 및 대각의 크기 등)이 달라질 뿐이다. 10, the front and rear vertexes 1, 1 ', 1 ", 2, 2 (see FIG. 10) of the intersecting surfaces 200, 400, ', 2' ') are positioned on one axis (B). Further, as shown in Fig. 10, the axis B is formed coinciding with the zero point. The shape of the intersecting surfaces 200, 400 and 500 (such as the length of the side and the size of the diagonal) varies only in accordance with the roll and pitch of the laser distance sensor 11. [

따라서, 본 실시예에 따르면, 추출되는 교차면의 전후방 꼭지점을 연결한 선분(축(B))이 0점(도 8)과 일치하는지를 확인하여, 몸체(100)의 전방 빗면부의 중심이 레이저 거리 센서(11)와 정면으로 마주하였는지 여부를 확인할 수 있다. According to the present embodiment, it is confirmed whether or not the line segment (axis B) connecting the front and rear vertexes of the intersecting surface to be extracted coincides with zero point (FIG. 8) It is possible to confirm whether or not the sensor 11 is faced to the front.

다시 도 9를 참조하면, 센서 보정 보조장치의 몸체(100)의 전방 빗면부의 중심이 레이저 거리 센서(11)와 정면으로 마주하도록 배치한 상태에서, 몸체(100)의 좌표계 (x", y", z")에 대해 롤, 피치, 요가 0인 임의의 절대 좌표계(x, y, z)를 설정한다. 9, the coordinate system (x ", y") of the body 100 is set so that the center of the front oblique face portion of the body 100 of the sensor correction assist device faces the laser distance sensor 11, (x, y, z) with roll, pitch,

절대 좌표계에서의 몸체(100)의 밑면 중심(OH)의 위치(x좌표, y좌표, z좌표) 및 몸체의 방향(몸체 좌표계의 절대 좌표계에 대한 롤, 피치, 요)은 (x H , y H , z H ∥0, 0, 0)로 나타낼 수 있다. 여기서, x H , y H , z H 는 절대 좌표계 설정시 정해지는 값으로, 사용자가 임의로 결정할 수 있는 값이다.Position (x coordinate, y coordinate, z coordinate) and direction of the body (roll of the absolute coordinate system of the body coordinate system, pitch and yaw) on the bottom of the center (O H) of the body 100 in the absolute coordinate system (x H, y H , z H ? 0, 0, 0). Here, x H , y H , and z H are values that are set when setting the absolute coordinate system, and can be arbitrarily determined by the user.

다음으로 레이저 거리 센서(11)의 절대 좌표계에서의 위치 및 방향(즉, 절대 좌표계에서의 원점(OL)의 좌표 및 센서 좌표계의 절대 좌표계에 대한 회전 정도)를 구할 수 있다. Next, the position and direction of the laser distance sensor 11 in the absolute coordinate system (that is, the coordinates of the origin (O L ) in the absolute coordinate system and the degree of rotation with respect to the absolute coordinate system of the sensor coordinate system) can be obtained.

센서 보정 보조장치의 몸체(100)의 전방 빗면부의 중심이 레이저 거리 센서(11)와 정면으로 마주하도록 배치한 상태이므로, 레이저 거리 센서(11)의 x 좌표 값(xL)은 XH가 된다. 또한, 레이저 거리 센서(11)의 요 값(YL)은 0이 된다. The x-coordinate value (x L ) of the laser distance sensor 11 becomes X H since the center of the front oblique face of the body 100 of the sensor correction assisting device is arranged to face the laser distance sensor 11 in front . Further, the yaw value (Y L ) of the laser distance sensor 11 becomes zero.

한편, 이미 알고 있는 몸체(100)의 형상 정보와, 교차면의 형상 정보의 기하학적 관계를 통해, 레이저 거리 센서(11)의 y, z 좌표 값과, 롤 및 피치 값을 계산할 수 있다. On the other hand, the y, z coordinate values and the roll and pitch values of the laser distance sensor 11 can be calculated through the geometric relationship between the shape information of the body 100 and the shape information of the intersecting face which are already known.

도 11 내지 도 13은 레이저 거리 센서(11)의 y, z 좌표 값과, 롤 및 피치 값을 계산하는 방법을 설명하기 위한 도면이다. Figs. 11 to 13 are diagrams for explaining a method of calculating y, z coordinate values and roll and pitch values of the laser distance sensor 11. Fig.

도 11 및 도 12에 도시된 바와 같이, 레이저 거리 센서(11)가 소정 각도의 롤(θR) 및 피치(θP)를 가지고 몸체(100)에 레이저 광을 주사하는 경우, 도 13에 도시된 바와 같은 교차면(400)이 형성된다. As shown in Figs. 11 and 12, when the laser distance sensor 11 scans the body 100 with laser light with a roll angle? R and a pitch? P of a predetermined angle, The intersecting surface 400 is formed.

교차면(400)은 레이저 거리 센서(11)와 센서 보정 보조장치와의 거리 정보를 통해 추출된 것이므로, 추출된 교차면(400)을 통해 교차면(400)의 대각 선분의 길이(LB1 + LB2, LB3+LB4), 각 변의 길이(La, Lb, Lc, Ld), 사잇각의 크기 등을 계산해낼 수 있다. The intersection plane 400 is extracted through the distance information between the laser distance sensor 11 and the sensor correction assistant so that the length L B1 of the diagonal line segment of the intersection plane 400 through the extracted intersection plane 400, B2 L, L L B3 + B4), each side length (L a, L b, L c, L d), we can calculate on the size of the included angle.

또한, 레이저 거리 센서(11)로부터 몸체까지의 길이(Ly)는 0점에서부터 전방 꼭지점(1)까지의 길이가 된다. In addition, the length L y from the laser distance sensor 11 to the body is the length from the zero point to the front vertex 1.

한편, 도 11 및 도 12에 도시된 바와 같은, 몸체(100)의 높이(L3), 밑면의 대각선 길이(2L1, 2L2) 및 밑면과 빗면의 사잇각의 크기(b, c)는 몸체(100)의 형상 정보로부터 이미 알고 있는 값이다. 11 and 12, the height L 3 of the body 100, the diagonal lengths 2L 1 and 2L 2 of the bottom surface, and the sizes b and c of the angle between the bottom surface and the oblique angle, Is a value already known from the shape information of the optical disc 100.

도 11을 참조하면, 계산된 교차면(400)의 형상 정보와 이미 알고 있는 몸체(100)의 형상 정보를 이용하면, 레이저 거리 센서(11)의 몸체 좌표계에 대한 y, z 좌표(yL, zL) 및 피치(θp)의 값을 아래 세 수학식과 같이 구할 수 있다.
11, using the calculated shape information of the intersection surface 400 and the known shape information of the body 100, y and z coordinates (y L , y L ) of the body coordinate system of the laser distance sensor 11, z L ) and the pitch (? p ) can be obtained by the following three mathematical equations.

[수학식 1][Equation 1]

Figure 112013003924714-pat00001

Figure 112013003924714-pat00001

[수학식 2]&Quot; (2) &quot;

Figure 112013003924714-pat00002

Figure 112013003924714-pat00002

[수학식 3]&Quot; (3) &quot;

Figure 112013003924714-pat00003

Figure 112013003924714-pat00003

한편, 도 12를 참조하면, 교차면(400)과 몸체(100)의 형상 정보로부터, 레이저 거리 센서(11)의 롤(θR) 값을 아래 두 수학식을 통해 구할 수 있다.
12, the value of the roll (θ R ) of the laser distance sensor 11 can be obtained from the following two equations from the information of the shape of the crossing surface 400 and the body 100.

[수학식 4]&Quot; (4) &quot;

Figure 112013003924714-pat00004

Figure 112013003924714-pat00004

[수학식 5]&Quot; (5) &quot;

Figure 112013003924714-pat00005

Figure 112013003924714-pat00005

위와 같이 구한 값을 정리하면, 레이저 거리 센서(11)의 절대 좌표계에 대한 위치 및 방향은 (x L , y L , z L ∥RL, PL, YL) = (xH, yH-yL, zH-zL ∥θR, θP, 0)로 확정할 수 있다(도 9 참조). The position and direction of the laser distance sensor 11 with respect to the absolute coordinate system are ( x L , y L , z L ∥R L , P L , Y L ) = (x H , y H - y L , z H -z L ?? R ,? P , 0) (see FIG. 9).

본 실시예에 따르면, 레이저 거리 센서의 위치뿐만 아니라, 방향(롤, 피치 및 요)를 모두 고려하므로, 센서를 정확하게 보정할 수 있다. According to the present embodiment, both the position (roll, pitch and yaw) as well as the position of the laser distance sensor are considered, so that the sensor can be accurately corrected.

이와 같이 보정된 레이저 거리 센서(11)의 절대 좌표계에서의 위치 및 방향 정보는, 레이저 거리 센서(11)에 의해 수집되는 대상 물체의 형상 정보 등을 절대 좌표계 상에 데이터화하는 기초가 된다.
The position and orientation information in the absolute coordinate system of the laser distance sensor 11 thus corrected is a basis for data on the absolute coordinate system of the shape information and the like of the object to be collected by the laser distance sensor 11.

다음으로, 카메라 센서(12)의 보정 방법을 설명한다. Next, a correction method of the camera sensor 12 will be described.

카메라 센서(12)의 보정은 촬영된 영상을 통해 실제 카메라 변수를 찾아내는 과정을 의미한다. 카메라 변수는 카메라 초점거리, 카메라 왜곡을 의미하는 내부 변수와 카메라의 위치를 의미하는 외부 변수로 나누어진다. The correction of the camera sensor 12 means a process of detecting an actual camera parameter through a photographed image. The camera parameters are divided into external variables, which are the camera's focal length, internal variables, which indicate camera distortion, and camera position.

핀홀(pinhole) 카메라 모델에서 투영변환을 통해 3D 이미지는 2D 이미지로 사영된다. 절대 좌표계의 3D 이미지의 좌표는 하기 [수학식 6]을 통해 2D 이미지 좌표계의 좌표로 사용된다.
In a pinhole camera model, a 3D image is projected as a 2D image through projection transformation. The coordinates of the 3D image of the absolute coordinate system are used as coordinates of the 2D image coordinate system through the following expression (6).

[수학식 6]&Quot; (6) &quot;

Figure 112013003924714-pat00006
Figure 112013003924714-pat00006

여기서 [u v 1]T는 2D 픽셀 좌표계의 2D 좌표이고, [X Y Z 1]T는 절대 좌표계의 3D 좌표이다.
Where [uv 1] T is the 2D coordinate of the 2D pixel coordinate system, and [XYZ 1] T is the 3D coordinate of the absolute coordinate system.

상기 [수학식 6]에서 하기 행렬은 내부 변수이다.
In Equation (6), the following matrix is an internal variable.

Figure 112013003924714-pat00007

Figure 112013003924714-pat00007

내부 변수는 카메라 센서의 초점 거리(αx, αy)와 카메라의 광축이 만나는 2D 픽셀 좌표계 상의 한 점 즉, 왜곡 중심(Cx, Cy)에 의해 결정된다. The internal variable is determined by a point on the 2D pixel coordinate system where the focal length (α x , α y ) of the camera sensor meets the optical axis of the camera, ie, the distortion center (C x , C y ).

한편, 상기 [수학식 6]에서 하기 행렬은 외부 변수이다.
In Equation (6), the following matrix is an external variable.

Figure 112013003924714-pat00008

Figure 112013003924714-pat00008

외부 변수는 절대 좌표계의 좌표를 카메라 좌표계의 좌표로 변환시키기 위한 것으로서, 세계 좌표계에 대한 카메라 좌표계의 상대적인 이동과 회전에 관한 파마리터이다. The external variable is for converting the coordinates of the absolute coordinate system to the coordinates of the camera coordinate system, and is a permaliter for the relative movement and rotation of the camera coordinate system relative to the world coordinate system.

카메라 좌표계의 한점 (x, y, z)는 하기 [수학식 7]에 의해 절대 좌표계의 한점 (X, Y, Z)로 변환될 수 있다.
One point (x, y, z) of the camera coordinate system can be converted into one point (X, Y, Z) of the absolute coordinate system by the following expression (7).

[수학식 7]&Quot; (7) &quot;

Figure 112013003924714-pat00009

Figure 112013003924714-pat00009

다시 도 2를 참조하면, 카메라 센서(12)를 이용해 흑백의 격자 무늬가 바둑판 형태로 새겨진 격자 무늬부(124)를 촬영하여 카메라 센서(12)의 위치를 보정한다. Referring again to FIG. 2, the camera sensor 12 is used to photograph the grid pattern 124, in which black and white grid patterns are inscribed in a grid pattern, to correct the position of the camera sensor 12.

센서 보정 보조장치의 몸체(100)의 형상 정보를 알고 있으므로, 몸체(100)의 격자 무늬부(124)의 각 격자의 꼭지점을 임의의 절대 좌표계 상에 좌표화할 수 있다. Since the shape information of the body 100 of the sensor correction assistant device is known, the vertexes of the respective gratings of the grid pattern portion 124 of the body 100 can be co-ordinated on an arbitrary coordinate system.

한편, 카메라에 의해 촬영된 격자의 꼭지점을 2D 픽셀 좌표계에 좌표화할 수 있다. On the other hand, the vertex of the grid photographed by the camera can be coordinateed in the 2D pixel coordinate system.

촬영된 격자의 절대 좌표계 상의 좌표와 2D 픽셀 좌표계 상의 좌표 값을 상기 [수학식 6]에 대입하면, 외부 변수를 구할 수 있다. An external variable can be obtained by substituting the coordinates on the absolute coordinate system of the photographed grid and the coordinate values on the 2D pixel coordinate system into Equation (6).

이어서 절대 좌표계 상의 격자 꼭지점의 좌표와 외부 변수를 상기 [수학식 7]에 대입하면, 해당 꼭지점의 카메라 좌표계 상의 좌표를 구할 수 있다. Subsequently, the coordinates on the camera coordinate system of the corresponding vertex can be obtained by substituting the coordinates of the vertex of the grid on the absolute coordinate system and the external variable into the above expression (7).

동일 격자의 꼭지점의 절대 좌표계 상의 좌표와 카메라 좌표계 상의 좌표를 비교하면, 카메라 좌표계의 절대 좌표계에 대한 상대 위치를 알 수 있다. 즉, 절대 좌표계에 대한 카메라 센서(12)의 위치를 확정할 수 있게 되는 것이다.
When the coordinates on the absolute coordinate system of the vertex of the same grid are compared with the coordinates on the camera coordinate system, the position relative to the absolute coordinate system of the camera coordinate system can be known. That is, the position of the camera sensor 12 with respect to the absolute coordinate system can be determined.

<제2실시예>
&Lt; Embodiment 2 >

도 14는 본 발명의 제2실시예에 따른 센서 보정 보조장치의 사시도이다. FIG. 14 is a perspective view of a sensor correction assistance apparatus according to a second embodiment of the present invention. FIG.

본 실시예에 따른 센서 보정 보조장치는 제1실시예에 따른 센서 보정 보조장치에 비교하여, 몸체(100')에 결합되는 보조면체(130', 140')를 더 포함한다. The sensor correcting auxiliary device according to the present embodiment further includes auxiliary surfaces 130 'and 140' which are coupled to the body 100 ', as compared with the sensor correcting auxiliary device according to the first embodiment.

보조면체(130', 140')는 각각 후방 빗면과 전방 빗면이 만나는 모서리(151, 152)를 기준으로 몸체(100')에 대해 접철 가능하게 형성된다. The auxiliary surfaces 130 'and 140' are each foldable with respect to the body 100 'with respect to the edges 151 and 152 where the rear oblique and front oblique surfaces meet.

보조면체(130', 140')는 펼쳐졌을 때, 후방 빗면(130, 140)의 내면(131, 141)과 하나의 평면을 형성하는 보조면(131', 141')을 구비한다. The auxiliary surfaces 130 'and 140' have auxiliary surfaces 131 'and 141' which, when unfolded, form one plane with the inner surfaces 131 and 141 of the rear bevel surfaces 130 and 140.

이러한 보조면(131', 141')은 후방 빗면(130, 140)의 내면(131, 141)과 더불어 레이저 거리 센서(11)의 레이저 광을 반사한다. These auxiliary surfaces 131 'and 141' reflect the laser light of the laser distance sensor 11 together with the inner surfaces 131 and 141 of the rear oblique surfaces 130 and 140.

도 15에 도시된 바와 같이, 보조면(131', 141')은 제1실시예와 비교하여 수집되는 거리 정보(P131', P141')를 증가시킬 수 있으므로, 교차면(200')의 형상을 추출하기 위한 데이터를 증가시켜 정확도를 증가시켜준다. As shown in FIG. 15, the auxiliary surfaces 131 ', 141' can increase the distance information P 131 ' , P 141' collected in comparison with the first embodiment, so that the intersection surface 200 ' Thereby increasing the accuracy of the data.

교차면(200')의 형상을 이용해 레이저 거리 센서(11)의 위치 및 방향을 확정하는 보정 과정은 제1실시예와 동일하므로, 자세한 설명을 생략한다. The correction process for determining the position and the direction of the laser distance sensor 11 using the shape of the intersecting surface 200 'is the same as that of the first embodiment, and thus a detailed description thereof will be omitted.

또한, 카메라 센서(12)의 보정 방법 역시 제1실시예와 동일하므로, 자세한 설명은 생략한다. Since the method of correcting the camera sensor 12 is also the same as that of the first embodiment, detailed description thereof will be omitted.

Claims (14)

카메라 센서와 레이저 거리 센서의 보정을 위한 센서 보정 보조장치로서,
뿔 형태의 몸체를 구비하고,
상기 몸체는,
상기 몸체를 상기 몸체의 높이방향을 따라 절반으로 나누는 가상의 사면을 기준으로 상기 사면의 전방에 위치하는 전방 빗면부와 상기 사면의 후방에 위치하는 후방 빗면부를 포함하며,
상기 전방 빗면부에는 상기 전방 빗면부를 관통하는 절개부가 형성되어 상기 몸체를 전방에서 보았을 때 상기 절개부를 통해 상기 후방 빗면부의 내면의 일부가 노출되고,
상기 전방 빗면부의 외면 또는 상기 후방 빗면부의 내면에는 격자 무늬가 새겨진 격자 무늬부가 형성된 것을 특징으로 하는 센서 보정 보조장치.
A sensor calibration aid for calibration of a camera sensor and a laser distance sensor,
A horn-shaped body,
The body,
A front beveled portion positioned forward of the slope and a rear beveled portion positioned behind the slope with respect to a hypothetical slope that divides the body into halves along a height direction of the body,
Wherein the front beveled portion is formed with a cutout portion penetrating the front beveled portion so that a part of the inner surface of the rear beveled portion is exposed through the cutout when the body is viewed from the front,
Wherein a grid pattern portion engraved with a grid pattern is formed on an outer surface of the front oblique portion or an inner surface of the rear oblique portion.
제1항에 있어서,
상기 몸체는 다각형 뿔 형태를 구비하고,
상기 전방 빗면부는 복수의 전방 빗면을 포함하고, 상기 후방 빗면부는 복수의 후방 빗면을 포함하며,
상기 사면은 상기 전방 빗면과 상기 후방 빗면이 연결되는 두 모서리를 지나는 것을 특징으로 하는 센서 보정 보조장치.
The method according to claim 1,
The body has a polygonal horn shape,
Wherein the front oblique portion includes a plurality of front oblique faces, the rear oblique portion includes a plurality of rear oblique faces,
Wherein the slope passes through two corners connecting the front oblique surface and the rear oblique surface.
제2항에 있어서,
상기 몸체는 정점과 밑면의 중심을 잇는 선분이 밑면과 수직한 사각뿔 형태를 가지고,
상기 사각뿔의 사각형 밑면의 두 개의 대각 선분은 서로 직교하며,
상기 두 개의 절개부는, 상기 전방 빗면부를 형성하는 두 개의 전방 빗면이 형성하는 모서리를 중심으로 대칭으로 배치되는 것을 특징으로 하는 센서 보정 보조장치.
3. The method of claim 2,
Wherein the body has a quadrangular pyramid shape in which a line segment connecting the apex and the center of the bottom surface is perpendicular to the bottom surface,
The two diagonal line segments of the square bottom of the quadrangular pyramid are orthogonal to each other,
Wherein the two incisions are arranged symmetrically with respect to an edge formed by the two front oblique faces forming the front oblique face portion.
제3항에 있어서,
상기 몸체에 결합되는 보조면체를 더 포함하고,
상기 보조면체는 상기 후방 빗면의 내면과 하나의 평면을 형성하는 보조면을 구비하는 것을 특징으로 센서 보정 보조장치.
The method of claim 3,
Further comprising an auxiliary body coupled to the body,
Wherein the auxiliary surface body has an auxiliary surface which forms one plane with an inner surface of the rear oblique surface.
제4항에 있어서,
상기 보조면체는,
상기 후방 빗면과 상기 전방 빗면이 만나는 모서리를 기준으로 상기 몸체에 대해 접철 가능한 것을 특징으로 하는 센서 보정 보조장치.
5. The method of claim 4,
The auxiliary-
Wherein the body is foldable with respect to an edge where the rear oblique face meets the front oblique face.
제1항에 있어서,
상기 격자 무늬부에는 단색으로 형성된 단색 무늬부가 구비되는 것을 특징으로 하는 센서 보정 보조장치.
The method according to claim 1,
Wherein the lattice pattern portion is provided with a monochromatic pattern portion formed in a single color.
제6항에 있어서,
상기 격자 무늬부는 상기 전방 빗면부의 외면 빗면부에 형성된 것을 특징으로 하는 센서 보정 보조장치.
The method according to claim 6,
Wherein the lattice pattern portion is formed on the outer surface of the front beveled portion.
카메라 센서와 레이저 거리 센서를 보정하기 위한 센서 보정 시스템으로서,
물체의 이미지 정보를 촬영하는 카메라 센서;
레이저 광을 주사하여 물체까지의 거리 정보를 감지하는 레이저 거리 센서;
청구항 제1항의 센서 보정 보조장치;
상기 카메라 센서와 상기 레이저 거리 센서에 의해 수집되는 정보를 분석하는 정보 처리장치를 포함하고,
상기 레이저 거리 센서는 상기 절개부를 지나면서 상기 몸체를 가로지르는 레이저 광의 주사면이 형성되도록 상기 몸체의 전방에서 레이저 광을 주사하고,
상기 정보 처리장치는,
상기 전방 빗면부 및 상기 절개부를 통해 노출된 후방 빗면부의 내면에서 반사되는 레이저 광을 분석하여, 상기 주사면이 상기 몸체와 교차하여 형성하는 교차면의 형상을 산출하고,
상기 교차면과 상기 몸체의 기하학적 관계를 통해 상기 레이저 거리 센서의 위치 및 방향을 산출하는 것을 특징으로 하는 센서 보정 시스템.
A sensor calibration system for calibrating a camera sensor and a laser distance sensor,
A camera sensor for capturing image information of an object;
A laser distance sensor that detects distance information to an object by scanning laser light;
A sensor calibration assistant device according to claim 1;
And an information processing device for analyzing information collected by the camera sensor and the laser distance sensor,
The laser distance sensor scans the laser light in front of the body so as to form a scanning surface of laser light across the body passing through the cutout,
The information processing apparatus includes:
Analyzing the laser beam reflected from the inner surface of the rear beveled surface portion exposed through the front beveled surface portion and the cutout portion to calculate a shape of an intersecting surface formed by intersecting the survey surface with the body,
Wherein the position and orientation of the laser distance sensor are calculated through the geometric relationship of the intersection surface and the body.
제8항에 있어서,
상기 정보 처리장치는,
상기 카메라 센서로 상기 격자 무늬부를 촬영하여 획득된 영상 정보를 이용해 3차원 영상을 2차원 영상으로 투영하기 위한 카메라 변수를 산출하여 상기 카메라 센서의 위치를 보정하는 것을 특징으로 하는 센서 보정 시스템.
9. The method of claim 8,
The information processing apparatus includes:
Wherein the position of the camera sensor is corrected by calculating a camera parameter for projecting the three-dimensional image into the two-dimensional image using the image information obtained by photographing the grid pattern portion with the camera sensor.
제8항에 있어서,
상기 격자 무늬부에는 상기 몸체의 높이 방향과 수평하게 연장되며 단색으로 형성된 단색 무늬부가 구비되고,
상기 레이저 거리 센서는 상기 주사면이 상기 단색 무늬부를 지나도록 레이저 광을 주사하는 것을 특징으로 하는 센서 보정 시스템.
9. The method of claim 8,
Wherein the lattice pattern portion is provided with a monochrome pattern portion extending in a horizontal direction with respect to a height direction of the body and formed in a single color,
Wherein the laser distance sensor scans the laser light so that the scanning surface passes the monochrome fringe portion.
청구항 제1항의 센서 보정 보조장치를 이용하여 카메라 센서와 레이저 거리 센서를 보정하는 센서 보정 방법으로서,
상기 몸체의 전방 빗면부의 중심이 상기 레이저 거리 센서와 정면으로 마주하도록 상기 센서 보정 보조장치의 몸체와 상기 레이저 거리 센서를 배치하고,
상기 절개부를 지나면서 상기 몸체를 가로지르는 레이저 광의 주사면이 형성되도록 상기 몸체의 전방에서 레이저 광을 주사하며,
상기 전방 빗면부 및 상기 절개부를 통해 노출된 후방 빗면부의 내면에 의해 반사되는 레이저 광을 분석하여, 상기 레이저의 주사면이 상기 몸체와 교차하여 형성하는 교차면의 형상을 산출하고,
상기 교차면과 상기 몸체의 기하학적 관계를 통해 임의의 절대 좌표계 상에서의 상기 센서 보정 보조장치에 대한 상기 레이저 거리 센서의 위치 및 방향을 산출하는 것을 특징으로 하는 센서 보정 방법.
A sensor calibration method for correcting a camera sensor and a laser distance sensor using the sensor calibration assistant of claim 1,
The body of the sensor correction assistant and the laser distance sensor are disposed such that the center of the front beveled portion of the body faces the laser distance sensor,
A laser light is scanned in front of the body so as to form a scanning surface of the laser light across the body,
The laser beam reflected by the front beveled portion and the inner surface of the rear beveled portion exposed through the cutout portion is analyzed to calculate the shape of the intersecting surface formed by intersecting the scanning surface of the laser with the body,
Calculating a position and a direction of the laser distance sensor with respect to the sensor correction assist device on an arbitrary absolute coordinate system through the geometric relationship between the intersecting surface and the body.
제11항에 있어서,
상기 카메라 센서로 상기 격자 무늬부를 촬영하여 획득된 영상 정보를 이용해 3차원 영상을 2차원 영상으로 투영하기 위한 변수를 산출하고,
상기 변수를 이용해 상기 임의의 절대 좌표계 상에서의 상기 카메라의 위치를 산출하는 것을 특징으로 하는 센서 보정 방법.
12. The method of claim 11,
Calculating a variable for projecting the three-dimensional image into the two-dimensional image using the image information obtained by photographing the grid pattern portion with the camera sensor,
And the position of the camera on the arbitrary absolute coordinate system is calculated using the variable.
제11항에 있어서,
상기 센서 보정 보조장치는
정점과 밑면의 중심을 잇는 선분이 지면과 수직한 사각뿔 형태의 몸체를 구비하고,
상기 사각뿔의 사각형 밑면의 두 개의 대각 선분은 서로 직교하며,
상기 전방 빗면부는 두 개의 전방 빗면을 포함하고, 상기 후방 빗면부는 두 개의 후방 빗면을 포함하고,
상기 사면은 상기 전방 빗면과 상기 후방 빗면이 연결되는 두 모서리를 지나며,
상기 레이저 거리 센서의 정면 방향이 상기 두 개의 전방 빗면이 만나는 모서리와 두 개의 후방 빗면이 만나는 모서리를 모두 통과하도록 상기 보정 보조장치와 상기 레이저 거리 센서를 배치하는 것을 특징으로 하는 센서 보정 방법.
12. The method of claim 11,
The sensor correction assist device
A line segment connecting the vertex and the center of the bottom surface has a body of a quadrangular pyramid shape perpendicular to the ground,
The two diagonal line segments of the square bottom of the quadrangular pyramid are orthogonal to each other,
Wherein the front oblique portion includes two front oblique faces, the rear oblique portion includes two rear oblique faces,
Wherein the slope passes through two corners where the front oblique surface and the rear oblique surface are connected,
Wherein the correction assist device and the laser distance sensor are disposed such that the frontal direction of the laser distance sensor passes both the corner where the two front oblique faces meet and the corner where the two rear oblique faces meet.
제11항에 있어서,
상기 격자 무늬부에는 단색으로 형성된 단색 무늬부가 구비되고,
상기 레이저 거리 센서는 단색 무늬부를 지나는 경로로 상기 몸체에 레이저를 주사하는 것을 특징으로 하는 센서 보정 방법.
12. The method of claim 11,
Wherein the lattice pattern portion is provided with a monochrome pattern portion formed in a single color,
Wherein the laser distance sensor scans the laser with a path passing through the monochromatic pattern.
KR1020130004311A 2013-01-15 2013-01-15 Assist Apparatus for calibarating Camera Sensor and Laser Sensor, and Sensor Calibration System and Method using the same KR101405317B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130004311A KR101405317B1 (en) 2013-01-15 2013-01-15 Assist Apparatus for calibarating Camera Sensor and Laser Sensor, and Sensor Calibration System and Method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130004311A KR101405317B1 (en) 2013-01-15 2013-01-15 Assist Apparatus for calibarating Camera Sensor and Laser Sensor, and Sensor Calibration System and Method using the same

Publications (1)

Publication Number Publication Date
KR101405317B1 true KR101405317B1 (en) 2014-06-11

Family

ID=51132317

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130004311A KR101405317B1 (en) 2013-01-15 2013-01-15 Assist Apparatus for calibarating Camera Sensor and Laser Sensor, and Sensor Calibration System and Method using the same

Country Status (1)

Country Link
KR (1) KR101405317B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160036723A (en) * 2014-09-25 2016-04-05 (주)씨소 Sensor Calibration Method and Electronic Device and Marker Board for the same
CN113008271A (en) * 2019-08-15 2021-06-22 深圳市瑞立视多媒体科技有限公司 Mathematical model construction method for calibrating 3D rotation difference, calibration method and device thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000035336A (en) 1998-07-16 2000-02-02 Asahi Optical Co Ltd Road mark member
KR20090128177A (en) * 2008-06-10 2009-12-15 삼성중공업 주식회사 Calibration apparatus for noncontact measuring system
KR101033167B1 (en) 2011-01-31 2011-05-11 국방과학연구소 Device, system and method for calibration of camera and laser range finder

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000035336A (en) 1998-07-16 2000-02-02 Asahi Optical Co Ltd Road mark member
KR20090128177A (en) * 2008-06-10 2009-12-15 삼성중공업 주식회사 Calibration apparatus for noncontact measuring system
KR101033167B1 (en) 2011-01-31 2011-05-11 국방과학연구소 Device, system and method for calibration of camera and laser range finder

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160036723A (en) * 2014-09-25 2016-04-05 (주)씨소 Sensor Calibration Method and Electronic Device and Marker Board for the same
KR101669850B1 (en) * 2014-09-25 2016-10-28 (주)씨소 Sensor Calibration Method and Electronic Device and Marker Board for the same
CN113008271A (en) * 2019-08-15 2021-06-22 深圳市瑞立视多媒体科技有限公司 Mathematical model construction method for calibrating 3D rotation difference, calibration method and device thereof

Similar Documents

Publication Publication Date Title
EP3392831B1 (en) Three-dimensional sensor system and three-dimensional data acquisition method
CN103782321B (en) Detection of a movable object when 3d scanning a rigid object
EP2068280B1 (en) Image Distortion Correction
JP5792157B2 (en) Image processing apparatus, method, program, and recording medium
EP2839238B1 (en) 3d scanner using merged partial images
JP4492654B2 (en) 3D measuring method and 3D measuring apparatus
JP5480914B2 (en) Point cloud data processing device, point cloud data processing method, and point cloud data processing program
CN104574406B (en) A kind of combined calibrating method between 360 degree of panorama laser and multiple vision systems
US11544860B2 (en) Combined point cloud generation using a stationary laser scanner and a mobile scanner
JP2018513345A (en) Three-dimensional measurement system and measurement method for feature points of planar array of four cameras
JP2016075637A (en) Information processing apparatus and method for the same
CN104142157A (en) Calibration method, device and equipment
JP5156601B2 (en) Shape measuring apparatus and program
CN104567727A (en) Three-dimensional target and global unified calibration method for linear structured light profile sensor
CN107084680A (en) A kind of target depth measuring method based on machine monocular vision
KR102109814B1 (en) Apparatus and method for registering images
KR20230000585A (en) Method and apparatus for calibrating multiple sensors
Li et al. Laser scanning based three dimensional measurement of vegetation canopy structure
KR101809529B1 (en) The system and method of 3D calibration
KR101405317B1 (en) Assist Apparatus for calibarating Camera Sensor and Laser Sensor, and Sensor Calibration System and Method using the same
JP3696336B2 (en) How to calibrate the camera
CN108062790A (en) The three-dimensional system of coordinate method for building up rebuild applied to object dimensional
CN113432558B (en) Device and method for measuring irregular object surface area based on laser
JPH09329440A (en) Coordinating method for measuring points on plural images
TW201913574A (en) Camera and laser range finder data fusion method used in object detection using a geometric feature and laser ranging data fusion technique to reconstruct a 3D size of an object

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170601

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee