KR100698534B1 - Landmark for location recognition of mobile robot and location recognition device and method using same - Google Patents
Landmark for location recognition of mobile robot and location recognition device and method using same Download PDFInfo
- Publication number
- KR100698534B1 KR100698534B1 KR20050105403A KR20050105403A KR100698534B1 KR 100698534 B1 KR100698534 B1 KR 100698534B1 KR 20050105403 A KR20050105403 A KR 20050105403A KR 20050105403 A KR20050105403 A KR 20050105403A KR 100698534 B1 KR100698534 B1 KR 100698534B1
- Authority
- KR
- South Korea
- Prior art keywords
- mobile robot
- landmark
- mark
- marks
- recognition unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 239000013598 vector Substances 0.000 claims description 15
- 238000002372 labelling Methods 0.000 claims description 7
- 238000005286 illumination Methods 0.000 claims description 5
- 230000001678 irradiating effect Effects 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 claims description 3
- 239000003086 colorant Substances 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1615—Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
- B25J9/162—Mobile manipulator, movable base with manipulator arm mounted on it
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
도 1은 실내 공간의 천정에 부착된 랜드마크를 촬상하는 이동로봇의 카메라를 나타내는 개략도.1 is a schematic diagram showing a camera of a mobile robot for imaging a landmark attached to a ceiling of an indoor space;
도 2는 이동로봇에 부착된 랜드마크를 촬상하는 천정의 카메라를 나타내는 개략도.2 is a schematic diagram showing a ceiling camera for capturing a landmark attached to a mobile robot;
도 3은 본 발명의 일실시예에 따른 랜드마크의 구성도.3 is a block diagram of a landmark according to an embodiment of the present invention;
도 4a는 본 발명의 일실시예에 따른 이동로봇의 위치 인식 장치를 나타낸 평면도.Figure 4a is a plan view showing a position recognition device of a mobile robot according to an embodiment of the present invention.
도 4b는 도 4a의 A-A' 단면도.4B is a sectional view taken along the line A-A 'in FIG. 4A;
< 도면의 주요부분에 대한 부호의 설명 > <Description of Symbols for Major Parts of Drawings>
100 : 랜드마크 110 : 위치인식부100: landmark 110: location recognition unit
120 : 영역인식부 200 : 카메라120: area recognition unit 200: camera
210 : 광각렌즈 220 : 적외선 LED210: wide-angle lens 220: infrared LED
230 : 적외선 조명 제어기 240 : CCD(또는 CMOS) 어레이230: infrared light controller 240: CCD (or CMOS) array
250 : 영상 제어기250: image controller
본 발명은 이동로봇의 위치(좌표와 방위) 인식을 위한 표지(이하, '랜드마크(Landmark)'라 함)와 이를 이용한 위치 인식 장치 및 방법에 관한 것으로, 보다 상세하게는 카메라로부터 획득된 랜드마크 영상으로부터 이동로봇의 위치를 정확하고 신속하게 구할 수 있는 랜드마크와, 적외선 카메라로부터 상기 랜드마크 영상을 획득하여 이동로봇의 정확한 위치 정보 이외에 영역 정보까지 검출할 수 있는 위치 인식 장치 및 방법에 관한 것이다.The present invention relates to a marker for recognizing a position (coordinate and azimuth) of a mobile robot (hereinafter referred to as 'landmark') and a location recognition apparatus and method using the same, and more particularly to a land obtained from a camera. A landmark that can accurately and quickly obtain the position of the mobile robot from the mark image, and a position recognition device and method that can detect the area information in addition to the exact position information of the mobile robot by obtaining the landmark image from the infrared camera will be.
실내 공간을 이동하는 로봇을 제어하기 위해서는 로봇이 실내 공간상에서 어느 위치에 있는가를 인식하는 기능이 필요한데, 일반적으로 카메라를 이용한 로봇의 자기위치를 계산하는 방법은 아래와 같이 크게 2 가지로 나눌 수 있다.In order to control a robot moving in an indoor space, a function of recognizing where the robot is located in an indoor space is required. In general, a method of calculating a magnetic position of a robot using a camera can be divided into two types as follows.
첫째, 인위적인 랜드마크를 이용하는 방법으로서, 도 1에 도시된 바와 같이 특정 의미를 갖는 랜드마크(30)를 천정 또는 벽면에 설치하고 이를 카메라(20)로 촬영한 후 영상에서 랜드마크(30)를 추출함으로써 화면상의 좌표계와 이동로봇(10)의 좌표계를 일치시켜 이동로봇(10)이 자기위치를 계산하는 방법이 있었다.(대한민국 등록특허 제485696호 참조)First, as a method of using artificial landmarks, as shown in Figure 1, a
둘째, 자연적인 랜드마크를 이용하는 방법으로서, 천정을 카메라로 촬영한 후 영상에서 조명기구 등 천정에 설치된 구조물 및 천정과 벽과의 경계면의 직선성분 및 에지(edge) 정보를 추출한 후 이를 이용하여 로봇의 자기 위치를 계산하는 방식이 있었다.(대한민국 등록특허 제483566호 참조)Secondly, as a method of using natural landmarks, the ceiling is photographed with a camera and the robot extracts the linear components and edge information of the structure installed on the ceiling, such as lighting fixtures, and the interface between the ceiling and the wall, and then uses them to capture the ceiling. There was a method of calculating the magnetic position of (see Korean Patent No. 483566).
그러나 인위적인 랜드마크를 사용하는 경우에는 조명의 영향을 많이 받고, 태양광에 의해 색깔정보가 왜곡되어 오인식이 많이 발생하는 문제점이 있었고, 자연적인 랜드마크를 사용하는 경우에도 주변 광원의 밝기에 영향을 많이 받고, 랜드마크에서 특징점의 위치를 기록하는 단계에서 오도메타(odometer) 정보나 다른 로봇위치 판독장치가 필요하므로 많은 메모리를 필요로 하고 부가적인 장치의 도움이 필수적이다. 특히 조명이 없는 상태에는 사용하기가 매우 힘들다는 문제점이 있었다.However, when using artificial landmarks, there is a problem that a lot of the influence of lighting is affected, and color information is distorted by sunlight, causing a lot of misunderstandings, and even when using natural landmarks, the brightness of surrounding light sources is affected. Receiving a lot, and in the step of recording the position of the feature point in the landmark requires the use of odometer information or other robot position reading device requires a lot of memory and the help of additional devices is essential. In particular, there is a problem that it is very difficult to use in the absence of lighting.
따라서 종래와 같이 카메라를 이용하여 자기의 위치를 인식하는 로봇에 있어서 조명의 영향을 받지 않으며, 영상 전처리 단계의 계산량을 줄일 수 있는 새로운 로봇의 자기 위치 인식 방법에 대한 필요성이 요구되고 있는 실정이다.Therefore, there is a need for a new robot magnetic position recognition method that can reduce the amount of calculation in the image preprocessing step without being affected by illumination in a robot that recognizes its position using a camera as in the prior art.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 카메라로 촬상된 랜드마크 영상으로부터 이동로봇의 위치 또는 영역 정보를 신속, 정확하게 검출할 수 있으며 또한 실내의 조명에 무관하게 랜드마크를 인식할 수 있는 이동로봇의 위치 인식용 랜드마크를 제공함에 그 목적이 있다.The present invention is to solve the above problems, it is possible to quickly and accurately detect the location or area information of the mobile robot from the landmark image captured by the camera and to recognize the landmark irrespective of the indoor lighting The purpose is to provide a landmark for location recognition of the mobile robot.
또한, 본 발명은 상기 랜드마크 영상을 적외선 카메라로 획득하고, 획득된 영상을 특별한 전처리 과정을 거치지 않고도 이동로봇의 위치와 영역 정보를 검출할 수 있는 이동로봇의 위치 인식 장치 및 방법을 제공함에 다른 목적이 있다.The present invention also provides an apparatus and method for recognizing a location of a mobile robot capable of acquiring the landmark image by an infrared camera and detecting the location and region information of the mobile robot without undergoing a special preprocessing process. There is a purpose.
상기의 목적을 달성하기 위한 본 발명의 이동로봇의 위치 인식용 랜드마크는, 이동로봇의 좌표와 방위 정보 인식을 위한 랜드마크에 있어서, 임의 위치의 1개의 마크와 이를 중심으로 X축 및 Y축 상에 위치하는 2개의 마크로 이루어진 위치인식부를 포함하는 것을 특징으로 한다.A landmark for position recognition of a mobile robot of the present invention for achieving the above object, in the landmark for recognizing the coordinates and azimuth information of the mobile robot, one mark of any position and the X axis and Y axis around the mark Characterized in that it comprises a position recognition portion consisting of two marks located on.
바람직하게는, 상기 랜드마크는 서로 다른 랜드마크를 구분하기 위하여 다수 개 마크의 조합으로 이루어지는 영역인식부를 더 포함하는 것이 바람직하다.Preferably, the landmark further comprises a region recognition unit consisting of a combination of a plurality of marks to distinguish different landmarks.
본 발명의 이동로봇의 위치 인식 장치는, 적외선을 반사하는 다수 개의 마크로 이루어진 랜드마크에 적외선을 조사하는 적외선 조명부; 상기 랜드마크를 촬상하여 2진 영상을 획득하는 적외선 카메라; 상기 2진 영상 내 군집된 부분 영상에 대하여 레이블링하고, 각각의 레이블 픽셀 개수 및/또는 분산으로부터 마크를 검출하는 마크 검출부; 및 상기 검출된 마크의 중심좌표로부터 이동로봇의 좌표 및 방위를 검출하는 위치 검출부를 포함하여 구성하는 것을 특징으로 한다.An apparatus for recognizing a position of a mobile robot according to the present invention includes an infrared illumination unit for irradiating infrared rays to a landmark composed of a plurality of marks reflecting infrared rays; An infrared camera for capturing the landmark to obtain a binary image; A mark detector for labeling the clustered partial images in the binary image and detecting a mark from the number and / or variance of each label pixel; And a position detection unit for detecting the coordinates and azimuths of the mobile robot from the center coordinates of the detected marks.
바람직하게는, 상기 적외선 카메라는, 적외선 조명부와 일체로 구성한다.Preferably, the infrared camera is configured integrally with the infrared illuminating unit.
본 발명의 이동로봇의 위치 인식 방법은, (a) 임의 위치의 1개의 마크와 이를 중심으로 X축 및 Y축 상에 위치하는 2개의 마크로 이루어져 적외선을 반사하는 위치인식부를 포함하는 랜드마크에 대하여 적외선을 조사하면서 랜드마크를 촬상하여 2진 영상을 획득하는 단계; (b) 상기 2진 영상 내 군집된 부분 영상에 대하여 레이블링 하고, 각각의 레이블 픽셀 개수 및/또는 분산으로부터 마크를 검출하는 단계; 및 (c) 상기 검출된 마크의 중심좌표로부터 이동로봇의 좌표 및 방위를 검출하는 단계를 포함하는 것을 특징으로 한다.The position recognition method of the mobile robot according to the present invention comprises: (a) a landmark including a position recognition part that reflects infrared rays, consisting of one mark at an arbitrary position and two marks positioned on the X and Y axes about the same; Imaging the landmark while irradiating infrared light to obtain a binary image; (b) labeling the clustered partial images in the binary image and detecting a mark from each number of label pixels and / or variance; And (c) detecting the coordinates and azimuths of the mobile robot from the center coordinates of the detected marks.
본 발명은 이동로봇의 위치 정보(좌표와 방위)를 인식하기 위하여 사용되는 랜드마크와, 이를 이용한 위치 인식 장치 및 방법에 관한 것으로, 먼저 본 발명에 따른 이동로봇의 위치 인식용 랜드마크에 대하여 설명한 후, 이를 이용한 이동로봇의 위치 인식 장치 및 방법에 대하여 첨부된 도면을 참조하여 보다 상세히 설명하기로 한다.The present invention relates to a landmark used for recognizing position information (coordinates and azimuths) of a mobile robot, and a location recognition apparatus and method using the same. First, a landmark for position recognition of a mobile robot according to the present invention will be described. Afterwards, a position recognition apparatus and method for a mobile robot using the same will be described in detail with reference to the accompanying drawings.
본 발명의 이동로봇의 위치 인식용 랜드마크는, 도 1에 도시된 바와 같이 로봇의 이동 공간 천정에 부착되어 로봇에 설치된 카메라로부터 촬상되거나, 도 2에 도시된 바와 같이 로봇 상부에 부착되어 천정에 설치된 카메라로부터 촬상되어 이동로봇의 위치 인식에 사용된다.The landmark for position recognition of the mobile robot of the present invention is attached to the ceiling of the robot's moving space as shown in FIG. 1, and is captured from a camera installed in the robot, or is attached to the top of the robot as shown in FIG. 2. It is captured from the installed camera and used for location recognition of the mobile robot.
본 발명의 일실시예에 따른 랜드마크(100)를 도 3을 참조하여 구체적으로 살펴보면, 이동로봇의 필수적인 위치 정보 즉, 좌표와 방위를 인식하기 위하여 3개의 마크로 이루어진 위치인식부(110)와, 이동로봇의 부가적인 영역 정보를 인식하도록 서로 다른 랜드마크(100)를 식별하기 위한 영역인식부(120)가 다수 개 마크의 조합으로 이루어진다.Looking at the
상기 위치인식부(110)는, 임의 위치의 1개의 마크(B)와 이를 중심으로 X축 및 Y축 상에 위치하는 2개의 마크(C, A)로 이루어진다. 이와 같이 구성된 3개의 마크는 랜드마크(100)상에서 기준점 및 기준좌표를 제공하게 된다.The
상기 영역인식부(120)는, 도 3과 같이 위치인식부(110) 내측에 3×3의 마크로 구성되어 있으나, 위치인식부(110)를 이루는 마크의 위치나 개수는 사용 목적에 따라 변경이 가능하다. 이와 같이 구성된 영역인식부(120)를 구성하는 각각의 마크 개수 및 위치에 상응하는 ID를 부여함으로써 서로 다른 랜드마크(100)를 식별하도록 한다. 도 3에 도시된 3×3의 마크로 이루어진 경우 ID는 512개가 부여됨을 알 수 있다. 이때, 영역인식부(120)를 이루는 마크의 위치는 상기 위치인식부(110)에서 제공되는 기준좌표에 따라 결정될 수 있으며, 각각의 ID별로 2진 코드화가 가능하므로 이동로봇의 영역 정보를 신속하게 인식할 수 있다.The
한편, 랜드마크(100)를 이루는 모든 마크는, 예컨대 특정 파장대의 빛, 특히 800nm~1200nm 영역의 적외선을 난반사하도록 적외선 반사 도료 등을 도포하거나, 반사시트를 부착할 수 있다. 따라서 적외선 카메라를 이용하여 야간뿐만 아니라 외란광이 있는 경우에도 마크에서 반사되는 적외선만 검출하여 특별한 영상 전처리 없이 이동로봇의 위치를 신속하게 인식할 수 있게 된다.On the other hand, all the marks constituting the
이때, 상기 마크는, 소정 크기의 원 형태만으로 구성하거나, 평면상에 원 형태 또는 평면상에 반구와 같이 돌출된 형태로 구성할 수 있다. 마크의 형상을 원 또는 반구 형태로 한 것은 마크의 검출에 있어 픽셀의 개수, 분산 또는 중심좌표를 용이하게 구할 수 있기 때문이다.In this case, the mark may be configured only in a circle shape of a predetermined size, or may be configured in a circle shape on a plane or a shape protruding like a hemisphere on a plane. The shape of the mark in the form of a circle or hemisphere is because the number of pixels, dispersion or center coordinates can be easily obtained in detecting the mark.
이러한 마크는 모두 동일하게 구성할 수도 있으나, 위식인식부(110)와 영역인식부(120)의 마크를 서로 다른 크기 및/또는 색상으로 구성함으로써 양자의 구분을 더욱 용이하게 할 수 있다.These marks may be configured in the same manner, but by distinguishing the marks of the
이상에서 설명한 본 발명의 랜드마크(100)를 구성하는 마크는 적외선 카메라를 사용하지 않는 종래의 이동로봇 위치 인식 장치에 활용할 수도 있으며, 후술하는 본 발명의 위치 인식 장치에만 그 용도가 제한되는 것은 아니다.The mark constituting the
본 발명의 이동로봇 위치 인식 장치 및 방법은, 기본적으로 로봇이 이동하는 공간 또는 랜드마크가 부착된 공간은 굴곡이 없으며 평행하다는 것이 전제되어야 하며, 이하에서 작동 순서대로 설명한다.In the mobile robot position recognition apparatus and method of the present invention, it is basically assumed that the space in which the robot moves or the space to which the landmark is attached is not curved and is parallel, and will be described in the operation sequence below.
(a) 먼저, 적외선 LED(220)에서 적외선을 랜드마크(100)로 조사하고, 위치인식부(110)를 이루는 마크에서 다시 반사된 영상을 카메라로 촬상하여 2진 영상을 획득한다. 즉, 카메라(200)로부터 획득된 영상 중 마크는 흰색에 가까운 밝은 색으로 설정하고, 소정의 경계치(threshold) 밝기 값을 선택하여 2진 영상(binary image)으로 변환한다.(a) First, infrared light is irradiated from the
상기 카메라(200)을 구체적으로 살펴보면, 도 4a와 4b에 도시된 바와 같이, 광각렌즈(210) 주위에 다수 개의 적외선 LED(220), 적외선 조명 제어기(230), CMOS Array(250) 및 영상 제어기(Vision Controller ; 250)로 구성된다. 이와 같이 구성된 카메라(200)는 이동로봇 또는 천정에 설치되어, 로봇의 이동 공간의 천정이나 벽면 또는 이동로봇의 상부에 부착된 본 발명의 랜드마크(100) 영상을 획득하게 된 다.Looking at the
(b) 다음으로, 상기 2진 영상에서 밝게 표시되는 부분 영상에 대하여 레이블링하고, 각각의 레이블 픽셀 개수 및/또는 분산으로부터 마크를 검출한다. 여기서 레이블링(labeling)이란, 2진 영상에서 밝게 표시된 군집된 부분 영상의 위치와 크기를 알기 위하여 군집된 영상을 개별적으로 인식하고 그에 대한 번호를 부여하여 레이블목록을 만드는 절차이다. 이러한 레이블링 후 각각의 레이블의 중심좌표를 구하고, 레이블의 픽셀 개수 및/또는 분산으로부터 마크를 검출한다.(b) Next, the partial image displayed brightly in the binary image is labeled, and a mark is detected from each number of label pixels and / or dispersion. In this case, labeling is a procedure of creating a label list by individually recognizing the clustered images and numbering them so as to know the position and size of the clustered partial images brightly displayed in the binary image. After this labeling, the center coordinates of each label are obtained and the mark is detected from the number and / or variance of pixels of the label.
레이블목록 중에서 마크인 것을 검출하기 위한 방법은 다양한 형태로 이루어질 수 있다. 예컨대, 첫번째 방법으로서, 레이블을 이루는 픽셀 개수에 대한 제한을 가할 수 있다. 즉, 마크는 동그란 원 형태이고 크기를 균일하게 정하였으므로 일정 개수 범위의 픽셀을 갖는 레이블만을 마크 후보를 선정하고, 일정 픽셀 개수보다 작거나 큰 레이블을 레이블목록에서 삭제한다. The method for detecting a mark in the label list may be in various forms. For example, as a first method, a restriction on the number of pixels constituting the label can be applied. That is, since the mark has a circular circle shape and a uniform size, only a label having a certain number of pixels is selected as a mark candidate, and a label smaller or larger than a certain number of pixels is deleted from the label list.
두번째 방법으로서, 마크는 원 형태로 군집되어 있으므로 레이블 중 중심좌표값에 대한 분산값을 이용하여 경계치에 해당하는 소정의 분산값을 정하여 군집되어 있지 않은 레이블을 레이블목록에서 또한 삭제함으로써 마크 후보를 선정할 수 있다.As a second method, since marks are clustered in a circle, mark candidates can be deleted by labeling a non-clustered label from the label list by setting a predetermined variance value corresponding to the boundary value using the variance of the center coordinates among the labels. Can be selected.
위와 같이 레이블에서 마크를 검출하는 2가지 방법은 선택적으로 사용하거나, 필요한 경우 병행하여 사용할 수 있다.As described above, the two methods of detecting the mark in the label may be selectively used or may be used in parallel if necessary.
한편, 랜드마크(100)에 위치인식부(110)의 마크만 있는 경우 위 방법을 통하여 3개의 마크를 검출할 수 있다. 그러나 위치인식부(110)의 마크 이외에 동일한 크기의 영역인식부(120) 마크가 있는 경우 다음과 같은 추가적인 단계를 거침으로써 전체 마크에서 위치인식부(110)에 해당되는 마크를 분리하여 검출할 수 있다.On the other hand, if there is only a mark of the
즉, 선정된 마크 후보 중에서 각 레이블 사이의 이격 거리가 유사하고, 직각에 가까운 위치에 있는 3개의 레이블을 찾음으로써 위치인식부(110)의 마크를 분리하여 검출할 수 있다. 예컨대, 각 레이블을 잇는 벡터의 내적을 구하고, 내적값이 유효한 내적 최대값과 가장 근접한 경우일 때의 레이블을 찾음으로써 전체 마크 중에서 위치인식부(110)의 마크만을 분리하여 검출할 수 있게 된다.That is, the mark of the
이를 수식을 이용하여 설명하면, 레이블 중 도 3의 A, B, C에 해당하는 레이블의 인덱스를 i, j, k라 정의할 때, 각 레이블 간 벡터가 이루는 내적의 유효한 최대 값을 δth라 하면, 내적 값이 해당 범위 내에 들어오는 인덱스들 중 그 크기의 차이가 최소인 인덱스를 아래의 식을 통하여 찾게 된다.When this is explained using an equation, when the indices of labels corresponding to A, B, and C of FIG. 3 are defined as i, j, and k, the maximum effective value of the dot product of the vectors between the labels is δ th . Then, among the indexes whose inner value is within the range, the index having the smallest difference in size is found through the following equation.
위 식을 통하여 마크의 존재와 위치를 인식했다면, 마크의 ID는 이들 위치 값의 합을 통한 위치 점을 계산하고, 그 위치에서 레이블의 존재를 검사함으로써 쉽게 얻을 수 있게 된다.If the existence and position of the mark are recognized through the above equation, the ID of the mark can be easily obtained by calculating the position point through the sum of these position values and checking the existence of the label at the position.
(c) 마지막으로, 상기 검출된 마크를 이용하여 이동로봇의 위치 정보(좌표와 방위)와 영역 정보를 검출하게 된다.(c) Finally, position information (coordinates and azimuths) and area information of the mobile robot are detected using the detected mark.
우선, 검출된 마크 중 영역인식부(120)에 해당되는 마크의 개수 및 위치에 따라 결정되는 ID를 신속하게 얻을 수 있으며, ID에 할당된 이동로봇의 영역 정보, 즉 이동로봇이 위치하는 개략적인 위치를 인식할 수 있게 된다.First, an ID determined according to the number and position of the marks corresponding to the
다음으로, 이동로봇의 상세 위치 정보 즉, 좌표와 방위는 위에서 검출된 위치인식부(110)를 이루는 3개의 마크(A, B, C)의 중심좌표를 이용하여 구할 수 있다.Next, detailed position information of the mobile robot, that is, coordinates and azimuths, may be obtained using the center coordinates of the three marks A, B, and C constituting the
본 발명의 일실시예에 의하면, 도 3에 도시된 3개의 마크(A, B 및 C) 각각의 중심좌표로부터 얻어지는 임의 한 점을 기준좌표로 하여 이동로봇의 좌표를 구할 수 있다. 이때 임의 한점은 3개 마크의 중심좌표로 얻어지는 무게중심을 이용할 수 있으며, 이 경우 3개 마크의 중심좌표에 대한 오차를 평균한 결과가 되므로 이로부터 얻어지는 이동로봇의 좌표에 대한 오차를 최소화할 수 있게 된다.According to one embodiment of the present invention, the coordinates of the mobile robot can be obtained by using any point obtained from the center coordinates of each of the three marks A, B, and C shown in FIG. 3 as a reference coordinate. At this time, any one point may use the center of gravity obtained by the center coordinates of the three marks, and in this case, the result of averaging the errors of the center coordinates of the three marks can be minimized. Will be.
그리고, 3개의 중심좌표로 얻을 수 있는 하나의 방향벡터(예컨대, B를 중심으로 A와 C까지의 벡터를 합한 벡터의 방향벡터)를 기준으로 하여 이동로봇의 방위를 구할 수 있다.The orientation of the mobile robot can be obtained based on one direction vector obtained by three center coordinates (for example, a direction vector of a vector of vectors A and C centered on B).
이동로봇의 좌표와 방위 정보를 모두 알 수 있는 벡터량을 캘리브레이션 수식을 이용하여 구할 수 있으며, 이에 관해서는 아래와 같은 여러 논문에 상세히 제시되어 있다.The amount of vector that can know both the coordinates and the bearing information of the mobile robot can be obtained by using the calibration formula, which is described in detail in the following papers.
[1] R. I. Hartley. An algorithm for self calibration from several views. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 908-912, Seattle, WA, June 1994. IEEE.[1] RI Hartley. An algorithm for self calibration from several views. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition , pages 908-912, Seattle, WA, June 1994. IEEE.
[2] D. Liebowitz and A. Zisserman. Metric rectification for perspective images of planes. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 482-488, Santa Barbara, California, June 1998. IEEE Computer Society.[2] D. Liebowitz and A. Zisserman. Metric rectification for perspective images of planes. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition , pages 482-488, Santa Barbara, California, June 1998. IEEE Computer Society.
캘리브레이션 수식은 아래의 식으로 표현된다.The calibration equation is represented by the following equation.
위 식을 이용하여 기준이 되는 로봇의 위치에 해당되는 투영된 픽셀 좌표를 , 회전행렬과 수평 이동 벡터를 각각 RO, t0라 하고, s는 임의의 스케일 값이고 A는 캘리브레이션 행렬이다. 그리고 로봇이 회전하고 이동한 위치에서의 픽셀 좌표를 , 회전한 각도 량에 해당하는 행렬을 R1, 수평 이동 벡터 량을 t1이라 하면 아래 식을 얻을 수 있다. Using the above equation, the projected pixel coordinates corresponding to the position of the robot The rotation matrix and the horizontal movement vector are denoted by R 0 , t 0 , s is an arbitrary scale value, and A is a calibration matrix. And then the pixel coordinates at the position If the matrix corresponding to the rotated angle is R 1 and the horizontal movement vector is t 1 , the following equation can be obtained.
위 수학식 3에서 좌표값 M을 구하고 구한 값을 수학식 4에 대입한다. 수학식 4에서 R1은 인식된 마크의 벡터 합을 통하여 계산할 수 있다. 결국 수학식 4에서 t1을 제외한 모든 값은 알고 있는 값이므로 이를 통하여 이동량 벡터 t1을 계산할 수 있다. 즉 아래의 식을 계산함으로서 로봇의 이동된 벡터량을 구할 수 있게 된다.Coordinate value M is obtained from Equation 3 above, and the calculated value is substituted into Equation 4. In Equation 4, R 1 may be calculated through a vector sum of recognized marks. After all, since all values except t 1 in Equation 4 are known, the movement amount vector t 1 can be calculated. That is, the calculated vector amount of the robot can be obtained by calculating the following equation.
이상에서 설명한 바와 같이, 위치인식부(110)의 검출된 3개의 마크와 캘리브레이션 수식을 이용한 벡터 연산을 통하여 이동로봇의 좌표와 방위를 동시에 알 수 있는 벡터량을 구할 수도 있으며, 이를 이용하여 저가의 마이크로 프로세서 구현이 가능하게 된다.As described above, the vector amount which can simultaneously know the coordinates and the orientation of the mobile robot can be obtained through vector calculation using the detected three marks of the
또한, 이동로봇의 개략적인 영역 정보와, 상세한 위치 정보(좌표와 방위) 코드 정보로 변환할 수 있으며, 변환된 코드 정보가 이동로봇에 전송되고, 그에 따라 이동로봇은 필요한 작동을 수행하게 된다.In addition, schematic area information of the mobile robot and detailed position information (coordinates and azimuth) can be converted into code information, and the converted code information is transmitted to the mobile robot, thereby performing the necessary operation.
상술한 바와 같이, 본 발명의 상세한 설명에서는 구체적인 실시 형태에 관해 설명하였으나, 이는 단지 예시적인 것이며 본 발명의 기술적 사상의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함은 물론이며, 본 발명에 개시된 내용과 동일한 기능을 하는 한 균등 수단으로 볼 수 있음이 자명하므로, 본 발명의 범위는 설명된 실시 형태에 국한되어 정해져서는 안되며 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.As described above, the detailed description of the present invention has been described with respect to specific embodiments, which are merely exemplary and various modifications are possible without departing from the scope of the technical idea of the present invention. Obviously, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims and the equivalents of the following claims. do.
상기와 같이 구성된 본 발명의 이동로봇의 위치 인식용 랜드마크와 이를 이용한 위치 인식 장치 및 방법에 의하면, 적외선 영상을 이용하여 로봇의 이동 공간의 조명에 구애를 받지 않고, 영상의 전처리 과정이 생략되어 이동로봇의 위치 갱신율이 향상될 뿐만 아니라 고속 이동(30cm/s이상)하는 로봇에 적용될 수 있다.According to the landmark for location recognition of the mobile robot of the present invention configured as described above, and the location recognition apparatus and method using the same, the preprocessing process of the image is omitted, regardless of the illumination of the moving space of the robot using an infrared image. Not only can the position update rate of the mobile robot be improved, but it can be applied to a robot moving at a high speed (30 cm / s or more).
또한, 3개의 마크로 구성된 위치인식부에 의하여 이동로봇의 정확한 위치 인식이 가능하며, 다수 개의 마크로 이루어진 영역인식부에 의하여 랜드마크에 ID를 부여함에 따라 복잡하거나 광활한 실내 공간에서도 이동로봇 적용이 가능하다는 장점이 있게 된다.In addition, it is possible to recognize the exact position of the mobile robot by the position recognition unit consisting of three marks, and mobile robots can be applied in complex or spacious indoor spaces by assigning IDs to landmarks by the area recognition unit consisting of a plurality of marks. There is an advantage.
Claims (20)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20050105403A KR100698534B1 (en) | 2005-11-04 | 2005-11-04 | Landmark for location recognition of mobile robot and location recognition device and method using same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20050105403A KR100698534B1 (en) | 2005-11-04 | 2005-11-04 | Landmark for location recognition of mobile robot and location recognition device and method using same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100698534B1 true KR100698534B1 (en) | 2007-03-22 |
Family
ID=39940629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR20050105403A KR100698534B1 (en) | 2005-11-04 | 2005-11-04 | Landmark for location recognition of mobile robot and location recognition device and method using same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100698534B1 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008111692A1 (en) * | 2007-03-13 | 2008-09-18 | Research Institute Of Industrial Science & Technology | Landmark for position determination of mobile robot and apparatus and method using it |
KR101105737B1 (en) | 2009-12-11 | 2012-01-17 | 충북대학교 산학협력단 | Apparatus and method for recognizing position of mobile robot |
KR101146119B1 (en) * | 2005-12-21 | 2012-05-16 | 재단법인 포항산업과학연구원 | Method and apparatus for determining positions of robot |
KR101379732B1 (en) * | 2012-04-09 | 2014-04-03 | 전자부품연구원 | Apparatus and method for estimating gondola robot's position |
KR101475826B1 (en) * | 2013-03-14 | 2014-12-30 | 인하대학교 산학협력단 | Leader-Follower Formation Device, Method and Mobile robot using Backstepping Method |
KR101742047B1 (en) * | 2016-12-31 | 2017-05-31 | 주식회사 한솔테크 | Inspecting system for mounting position of adaptor plate pin |
KR101850118B1 (en) * | 2016-08-09 | 2018-04-19 | 한국생산기술연구원 | Method and System for Calibration of Mobile Robot and Camera |
WO2019039726A1 (en) * | 2017-08-21 | 2019-02-28 | (주)유진로봇 | Artificial mark recognition device, artificial mark and moving object |
US10962647B2 (en) | 2016-11-30 | 2021-03-30 | Yujin Robot Co., Ltd. | Lidar apparatus based on time of flight and moving object |
US11579298B2 (en) | 2017-09-20 | 2023-02-14 | Yujin Robot Co., Ltd. | Hybrid sensor and compact Lidar sensor |
KR20230097453A (en) | 2021-12-24 | 2023-07-03 | 한국로봇융합연구원 | Apparatus and method for actively recognizing landmarks based on multiple degrees of freedom camera |
US11874399B2 (en) | 2018-05-16 | 2024-01-16 | Yujin Robot Co., Ltd. | 3D scanning LIDAR sensor |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01193903A (en) * | 1988-01-28 | 1989-08-03 | Toyota Autom Loom Works Ltd | Detection of movement abnormality in picture type unmanned vehicle |
JPH01243104A (en) * | 1988-03-24 | 1989-09-27 | Murata Mach Ltd | Mark identifying device in image pickup means |
JPH11272328A (en) | 1998-03-25 | 1999-10-08 | Nippon Signal Co Ltd:The | Color mark, moving robot and method for guiding moving robot |
KR20040071002A (en) * | 2003-02-06 | 2004-08-11 | 삼성광주전자 주식회사 | Location recognizing marks for a robot cleaner |
KR100483548B1 (en) | 2002-07-26 | 2005-04-15 | 삼성광주전자 주식회사 | Robot cleaner and system and method of controlling thereof |
-
2005
- 2005-11-04 KR KR20050105403A patent/KR100698534B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01193903A (en) * | 1988-01-28 | 1989-08-03 | Toyota Autom Loom Works Ltd | Detection of movement abnormality in picture type unmanned vehicle |
JPH01243104A (en) * | 1988-03-24 | 1989-09-27 | Murata Mach Ltd | Mark identifying device in image pickup means |
JPH11272328A (en) | 1998-03-25 | 1999-10-08 | Nippon Signal Co Ltd:The | Color mark, moving robot and method for guiding moving robot |
KR100483548B1 (en) | 2002-07-26 | 2005-04-15 | 삼성광주전자 주식회사 | Robot cleaner and system and method of controlling thereof |
KR20040071002A (en) * | 2003-02-06 | 2004-08-11 | 삼성광주전자 주식회사 | Location recognizing marks for a robot cleaner |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101146119B1 (en) * | 2005-12-21 | 2012-05-16 | 재단법인 포항산업과학연구원 | Method and apparatus for determining positions of robot |
US8368759B2 (en) | 2007-03-13 | 2013-02-05 | Research Institute Of Industrial Science & Technology | Landmark for position determination of mobile robot and apparatus and method using it |
WO2008111692A1 (en) * | 2007-03-13 | 2008-09-18 | Research Institute Of Industrial Science & Technology | Landmark for position determination of mobile robot and apparatus and method using it |
KR101105737B1 (en) | 2009-12-11 | 2012-01-17 | 충북대학교 산학협력단 | Apparatus and method for recognizing position of mobile robot |
KR101379732B1 (en) * | 2012-04-09 | 2014-04-03 | 전자부품연구원 | Apparatus and method for estimating gondola robot's position |
KR101475826B1 (en) * | 2013-03-14 | 2014-12-30 | 인하대학교 산학협력단 | Leader-Follower Formation Device, Method and Mobile robot using Backstepping Method |
KR101850118B1 (en) * | 2016-08-09 | 2018-04-19 | 한국생산기술연구원 | Method and System for Calibration of Mobile Robot and Camera |
US10962647B2 (en) | 2016-11-30 | 2021-03-30 | Yujin Robot Co., Ltd. | Lidar apparatus based on time of flight and moving object |
KR101742047B1 (en) * | 2016-12-31 | 2017-05-31 | 주식회사 한솔테크 | Inspecting system for mounting position of adaptor plate pin |
WO2019039726A1 (en) * | 2017-08-21 | 2019-02-28 | (주)유진로봇 | Artificial mark recognition device, artificial mark and moving object |
US11579298B2 (en) | 2017-09-20 | 2023-02-14 | Yujin Robot Co., Ltd. | Hybrid sensor and compact Lidar sensor |
US11874399B2 (en) | 2018-05-16 | 2024-01-16 | Yujin Robot Co., Ltd. | 3D scanning LIDAR sensor |
KR20230097453A (en) | 2021-12-24 | 2023-07-03 | 한국로봇융합연구원 | Apparatus and method for actively recognizing landmarks based on multiple degrees of freedom camera |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100698534B1 (en) | Landmark for location recognition of mobile robot and location recognition device and method using same | |
JP5043133B2 (en) | Land recognition landmark for mobile robot, and position recognition apparatus and method using the same | |
CN111989544B (en) | System and method for indoor vehicle navigation based on optical target | |
US7398928B2 (en) | Coded target and photogrammetry method using such targets | |
CN106468553B (en) | A kind of localization method of the mobile object based on road sign | |
CN108022264B (en) | Method and equipment for determining camera pose | |
US6724930B1 (en) | Three-dimensional position and orientation sensing system | |
ES2910068T3 (en) | Mobile and automated device for the detection and classification of damage to the bodywork of a vehicle | |
EP1969436B1 (en) | Mobile device tracking | |
CN106092086B (en) | A kind of quick, high robust robot indoor orientation method based on panoramic vision | |
US20160134860A1 (en) | Multiple template improved 3d modeling of imaged objects using camera position and pose to obtain accuracy | |
CN108022265B (en) | Method, equipment and system for determining pose of infrared camera | |
US8638988B2 (en) | Movement analysis and/or tracking system | |
US20160044301A1 (en) | 3d modeling of imaged objects using camera position and pose to obtain accuracy with reduced processing requirements | |
CN106092090A (en) | A kind of infrared road sign for indoor mobile robot location and using method thereof | |
US20080319704A1 (en) | Device and Method for Determining Spatial Co-Ordinates of an Object | |
Gschwandtner et al. | Infrared camera calibration for dense depth map construction | |
EP3069100B1 (en) | 3d mapping device | |
CN110174092B (en) | Dense cluster relative positioning method based on infrared coding target | |
US20090084855A1 (en) | Methods and Apparatus for Directing Bar Code Positioning for Imaging Scanning | |
US20160259034A1 (en) | Position estimation device and position estimation method | |
KR100698535B1 (en) | Position recognition device and method of mobile robot with tilt correction function | |
KR20110049567A (en) | Artificial landmark, appratus and method for navigation using artificial landmark and natural landmark | |
US10909713B2 (en) | System and method for item location, delineation, and measurement | |
US11441901B2 (en) | Optical surveying instrument |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130314 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20140312 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20150311 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20160127 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20170106 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20180228 Year of fee payment: 12 |