KR20120102998A - Positional recognition aparatus and method for autonomous mobile robot using for rfid tag and positional recognition system - Google Patents

Positional recognition aparatus and method for autonomous mobile robot using for rfid tag and positional recognition system Download PDF

Info

Publication number
KR20120102998A
KR20120102998A KR1020110020970A KR20110020970A KR20120102998A KR 20120102998 A KR20120102998 A KR 20120102998A KR 1020110020970 A KR1020110020970 A KR 1020110020970A KR 20110020970 A KR20110020970 A KR 20110020970A KR 20120102998 A KR20120102998 A KR 20120102998A
Authority
KR
South Korea
Prior art keywords
robot
rfid
tag
recognition
rfid tag
Prior art date
Application number
KR1020110020970A
Other languages
Korean (ko)
Inventor
정영수
이태근
장성훈
김운태
Original Assignee
주식회사 솔루봇
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 솔루봇 filed Critical 주식회사 솔루봇
Priority to KR1020110020970A priority Critical patent/KR20120102998A/en
Publication of KR20120102998A publication Critical patent/KR20120102998A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10009Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/067Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
    • G06K19/07Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
    • G06K19/0723Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips the record carrier comprising an arrangement for non-contact communication, e.g. wireless communication circuits on transponder cards, non-contact smart cards or RFIDs

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Toxicology (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE: An apparatus, a method and a system for recognizing the position of an autonomous moving robot are provided to control a route by using a sensor model of an RFID tag and a prediction model of a robot. CONSTITUTION: An RFID tag map is a data set storing information about tags arranged in a grid shape. The tag information is composed of specific IDs for distinguishing between the tags. An RFID reader is a sensor for sensing the tag. An actuator is drive unit for moving a robot. A particle filter employs a prediction model using the moving amount of the robot, and a sensor model of the recognized RFID sensor. [Reference numerals] (AA) RFID Tag map; (BB) Path data; (CC) Particle filter; (DD) Path following unit; (EE) RFID reader; (FF) Actuator

Description

RFID 태그를 이용한 이동 로봇의 자율 주행 위치 인식 장치, 방법 및 위치 인식 시스템{POSITIONAL RECOGNITION APARATUS AND METHOD FOR AUTONOMOUS MOBILE ROBOT USING FOR RFID TAG AND POSITIONAL RECOGNITION SYSTEM}POSITIONAL RECOGNITION APARATUS AND METHOD FOR AUTONOMOUS MOBILE ROBOT USING FOR RFID TAG AND POSITIONAL RECOGNITION SYSTEM}

본 발명은 RFID 태그를 이용한 이동 로봇의 자율 주행 위치 인식 장치, 방법 및 위치 인식 시스템에 관한 것이다.
The present invention relates to an autonomous driving position recognition apparatus, a method and a position recognition system of a mobile robot using an RFID tag.

지능형 로봇에서 스스로 목적지까지 장애물을 회피하면서 이동할 수 있는 자율주행 기능은 중요한 역할을 한다. 자율주행을 원활하게 수행하기 위해서는 위치인식 기술이 필수적이며, 이러한 이유로 다양한 위치인식 방법이 연구되고 제품으로 개발되었다.In an intelligent robot, autonomous driving, which can move while avoiding obstacles to its destination, plays an important role. In order to perform autonomous driving smoothly, location recognition technology is essential. For this reason, various location recognition methods have been studied and developed as products.

바퀴의 엔코더로부터 측정되는 오도메트리(Odometer)정보를 이용하는 Dead-reckoning 위치추정 방법은 저가이면서 높은 샘플링 속도를 가지지만 바퀴의 미끄러짐과 적분 오차 등으로 인해 시간이 지날수록 오차가 누적된다. 이런 누적 오차를 줄이기 위해서는 로봇의 절대 위치를 측정가능한 센서가 필요하다. 주로 레이저 스캐너를 이용한 맵 매칭기반의 위치인식 방법과 영상 기반의 랜드마크와 카메라를 이용하는 방법(StarGazer), 초음파 위성을 이용하는 방법(U-SAT)들이 연구되고 개발되었다.Dead-reckoning position estimation method using Odometer information measured from wheel encoder is low cost and high sampling rate but error accumulates over time due to wheel slip and integration error. To reduce this cumulative error, a sensor that can measure the absolute position of the robot is required. Map matching based location recognition method using laser scanner, image based landmark and camera using method (StarGazer) and ultrasonic satellite using method (U-SAT) have been studied and developed.

그러나 기존의 상용 제품인 StarGazer는 카메라 센서가 기울어지면 인식된 랜드마크의 오차가 생기므로 최종 인식된 위치 오차가 커지게 된다. 또한 랜드마크를 수신하는 카메라가 장애물로 인해 가려지면 위치를 인식하지 못하게 된다.However, StarGazer, a commercially available product, generates an error of a recognized landmark when the camera sensor is tilted, resulting in a large position error. In addition, if the camera receiving the landmark is obscured by an obstacle, the location is not recognized.

U-SAT 또한 천정에 장착되는 4개의 초음파 위성이 순차적으로 초음파를 발생하기 때문에 이동 하는 로봇에 도달하는 각 초음파들의 시간차로 인해 위치 오차가 증가하게 된다. 즉 로봇의 속도가 증가함에 따라 최종 인식된 위치의 오차는 증가하게 된다. 또한 StarGazer와 동일하게 초음파 위성들과 수신부 사이에 장애물이 존재하면 인식된 위치의 오차는 증가하게 된다.
Since U-SAT also has four ultrasonic satellites mounted on the ceiling sequentially, the positional error increases due to the time difference between the ultrasonic waves reaching the moving robot. That is, as the speed of the robot increases, the error of the final recognized position increases. Also, similar to StarGazer, if there is an obstacle between the ultrasonic satellites and the receiver, the error of the recognized position increases.

본 발명이 해결하려는 과제는 RFID 태그를 이용하여 현재 위치를 인식하고 경로를 추종하는 RFID 태그를 이용한 이동 로봇의 자율 주행 위치 인식 장치, 방법 및 위치 인식 시스템을 제공하는 데 있다.
An object of the present invention is to provide an autonomous driving position recognition apparatus, a method and a position recognition system of a mobile robot using an RFID tag that recognizes a current position using an RFID tag and follows a path.

본 발명의 일 측면에 따르면, 이동 로봇의 자율 주행 위치 인식 장치를 제공할 수 있다.
According to an aspect of the present invention, it is possible to provide an autonomous driving position recognition apparatus of a mobile robot.

본 발명의 실시예에 의하면, 파티클 필터를 이용하여 로봇의 현재 위치와 추정 위치 오차를 줄여 신뢰성 있는 위치 인식 성능이 보장된다.
According to the exemplary embodiment of the present invention, the particle position filter reduces the current position and the estimated position error of the robot, thereby ensuring reliable position recognition performance.

도 1은 본 발명의 일 실시 예에 따른 RFID 태그를 이용한 이동 로봇의 자율 주행 위치 인식 장치를 개략적으로 도시한 블록도.
도 2는 RFID 태그의 센서 모델을 도시한 그래프.
도 3은 맵상에 표현된 현재위치에서 목적지까지의 경로 데이터.
도 4는 이동 로봇의 기구할을도시한 그래프
도 5는 제어 루프를 이용한 경로 추정 결과를 도시한 도면.
도 6은 본 발명의 일 실시 예에 따른 이동 로봇의 자율 주행 방법을 도시한 흐름도.
도 7은 센서 모델의 그래프.
도 8은 일렬로 배치된 태그 띠를 도시한 도면,
도 9는 바닥에 도시한 태그 띠의 예시도.
도 10은 RFID 태그가 설치된 환경을 도시한 도면.
도 11내지 도 14는 로봇이 위치를 추정하는 과정을 도시한 도면들.
도 15는 로봇에 장착된 RFID 리더 및 안테나를 도시한 사진.
도 16은 바닥에 설치된 RFID 태그를 도시한 사진.
도 17은 로봇에 장착된 StarGazer와 U-SAT을 도시한 사진.
도 18은 천정에 설치된 초음파 위성 송신기를 도한 사진.
도 19는 천정에 설치된 StarGazer의 랜드마크를 도시한 사진.
도 20은 RFID 태그의 배치 형태와 로봇 이동 경로를 도시한 도면.
도 21은 RFID 위치인식의 추정된 위치와 실제 위치와의 거리 오차를 도시한 그래프.
도 22는 RFID 위치인식의 추정된 방향각도와 실제 위치의 방향각도에 대한 오차를 도시한 그래프.
도 23은 RFID, StarGazer, U-SAT 위치와 실제 위치 간의 거리 오차를 도시한 그래프.
도 24는 RFID, StarGazer, U-SAT의 방향과 실제 방향 간의 오차를 도시한 그래프.
1 is a block diagram schematically showing an autonomous driving position recognition apparatus of a mobile robot using an RFID tag according to an embodiment of the present invention.
2 is a graph illustrating a sensor model of an RFID tag.
3 is route data from a current position to a destination represented on a map.
Figure 4 is a graph showing the mechanism of the mobile robot
5 is a diagram illustrating a path estimation result using a control loop.
6 is a flowchart illustrating an autonomous driving method of a mobile robot according to an embodiment of the present invention.
7 is a graph of the sensor model.
8 is a diagram illustrating tag strips arranged in a line;
9 is an exemplary view of a tag strip shown at the bottom.
10 is a diagram illustrating an environment in which an RFID tag is installed.
11 to 14 are views illustrating a process of estimating a position by a robot.
15 is a photograph showing an RFID reader and an antenna mounted to a robot.
Figure 16 is a photograph showing an RFID tag installed on the floor.
17 is a photograph showing a StarGazer and a U-SAT mounted to a robot.
18 is a photograph illustrating an ultrasonic satellite transmitter installed on a ceiling.
19 is a photograph showing a landmark of StarGazer installed on the ceiling.
20 is a view showing an arrangement form of an RFID tag and a robot movement path.
21 is a graph showing the distance error between the estimated position and the actual position of the RFID position recognition.
Fig. 22 is a graph showing the error of the estimated direction angle of the RFID position recognition and the direction angle of the actual position.
23 is a graph showing the distance error between the RFID, StarGazer, U-SAT position and the actual position.
24 is a graph showing the error between the direction and the actual direction of the RFID, StarGazer, U-SAT.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention may be variously modified and have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail with reference to the accompanying drawings. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In addition, numerals (e.g., first, second, etc.) used in the description of the present invention are merely an identifier for distinguishing one component from another.

또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.Also, in this specification, when an element is referred to as being "connected" or "connected" with another element, the element may be directly connected or directly connected to the other element, It should be understood that, unless an opposite description is present, it may be connected or connected via another element in the middle.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예들에 따른 RFID 태그를 이용한 이동 로봇의 자율 주행 위치 인식 장치, 방법 및 위치 인식 시스템에 관하여 상세히 설명한다.
Hereinafter, an autonomous driving position recognition apparatus, a method and a position recognition system of a mobile robot using an RFID tag according to embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명이 일 실시 예에 따른 이동 로봇의 자율 주행 위치 인식 장치를 개략적으로 도시한 블록도이다.1 is a block diagram schematically illustrating an autonomous driving position recognition apparatus of a mobile robot according to an exemplary embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 이동 로봇의 자율 주행 위치 인식 장치는 RFID 태그 맵, 경로 데이터, 파티클 필터, 경로 추종부, RFID 리더 및 엑츄에이터를 포함할 수 있다.Referring to FIG. 1, an autonomous driving position recognition apparatus of a mobile robot according to an embodiment of the present invention may include an RFID tag map, route data, particle filters, a path follower, an RFID reader, and an actuator.

RFID 태그 맵, 경로 데이터, 파티클 필터, RFID 리더 및 엑츄에이터는 로봇의 위치 인식을 위한 구성이다.RFID tag maps, route data, particle filters, RFID readers and actuators are components for robot location recognition.

RFID Tag Map은 실제 환경에 격자 형태로 배치되어 있는 Tag들의 정보를 저장하고 있는 데이터 셋이다. Tag의 정보는 Tag들을 구별하기 위한 고유의 ID와 실제 환경에 배치되는 위치 x, y 값, 그리고 RFID 리더의 안테나 인식 반경 거리값으로 구성된다. RFID Reader는 Tag를 인식하기 위한 센서이고, Actuator는 로봇을 이동시키는 구동부이다.The RFID Tag Map is a data set that stores the information of the tags arranged in a grid in the real environment. The tag information consists of a unique ID for distinguishing tags, a position x, y value arranged in a real environment, and an antenna recognition radius distance value of an RFID reader. The RFID Reader is a sensor for recognizing a tag, and the actuator is a driving unit for moving the robot.

파티클 필터는 로봇의 이동량을 이용한 예측 모델과 인식된 RFID 태그의 센서 모델을 이용한다. 로봇의 이동량에 대한 Particle Fitler의 예측모델은 수학식 1과 같다.
The particle filter uses a predictive model using a robot movement amount and a sensor model of a recognized RFID tag. Particle Fitler's prediction model for the amount of movement of the robot is shown in Equation 1.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

Figure pat00003
Figure pat00003

Figure pat00004
Figure pat00004

Figure pat00005
Figure pat00005

수학식 1에서 시간 t에서 t+1로 변할 때 파티클들은 로봇이 이동량 과 정규분포에 의한 임의의 값에 이동오차를 곱한 값과 더해서 파티클들이 이동한다. 이 때 이동 오차는 로봇 바퀴의 마찰력과 기구의 오차로 인해 생기는 직진거리, 회전각도에 대한 오차 상수로써, 오차 상수가 커질수록 이동시 오차가 커지므로 파티클들은 더 많이 퍼지게 된다.When Equation 1 changes from time t to t + 1, the particles move in addition to the amount of movement error multiplied by the movement error to a random value obtained by the robot. At this time, the movement error is an error constant for the straight distance and the rotation angle caused by the frictional force of the robot wheel and the error of the mechanism. The larger the error constant, the larger the error during movement, so that the particles spread more.

다음으로 파티클 필터의 RFID 태그의 센서 모델은 수학식 2와 같다
Next, the sensor model of the particle filter RFID tag is shown in Equation 2.

[수학식 2]&Quot; (2) "

Figure pat00006
Figure pat00006

Figure pat00007
Figure pat00007

Figure pat00008

Figure pat00008

수학식 2에서 S는 RFID 태그의 인식 범위이며 는 맵상의 태그의 위치이고, 는 맵상의 어느 한 위치를 나타낸다. 따라서 RFID 태그의 인식 범위 안에 있는 위치에 대한 확률은 최대를 가지며 인식 범위의 2배에 있는 위치는 0의 확률을 가진다. 수학식 2를 그래프로 나타내면 도 2 같다.In Equation 2, S is the recognition range of the RFID tag, is the position of the tag on the map, and represents any position on the map. Therefore, the probability for the position within the recognition range of the RFID tag has a maximum and the position twice the recognition range has a probability of zero. Equation 2 is shown in a graph as shown in FIG.

위의 두 모델을 이용해 파티클 필터를 수행한다. 파티클 필터의 수행 과정은 초기화, 예측, 업데이트, 정규화, 리샘플링, 위치 추정이다.Particle filters are performed using the two models above. Particle filter execution is initialization, prediction, update, normalization, resampling, and position estimation.

먼저 Initialize는 로봇이 처음 인식하는 RFID 태그의 위치에서 파티클들을 생성한다. 생성되는 파티클들의 위치는 인식된 RFID 태그의 위치에서 인식 범위 안에 생성되며 각도는 임의의 값을 가진다. 두 번째로 Prediction은 로봇의 이동량을 측정하여 예측 모델을 이용해 파티클들의 다음 위치를 계산한다. 세 번째로 Update는 다음 인식된 RFID 태그에 대해 센서 모델을 이용해 각 파티클들의 확률을 계산한다. 이때 인식된 RFID 태그의 인식 범위 안에 있는 파티클들의 확률은 높고, 범위 밖에 있는 파티클들의 확률은 작아진다. 네 번째로 Normailze는 파티클들의 확률이 합쳐졌을 때 1이 되도록 계산한다. 다섯 번째로 Resampling은 최종 계산된 파티클들의 확률을 이용해 특정 확률값보다 작은 파티클들은 버리고 높은 확률을 가지는 파티클들만 남는다. 남은 파티클들에 대해 처음 생성된 파티클들의 개수에서 모자라는 만큼 다시 생성시킨다. 여섯 번째로 모든 파티클들에 대해 위치와 각도를 평균해서 최종 로봇의 위치를 추정 계산한다. 마지막으로 파티클 필터의 Prediction에서 Position Estimates까지 반복해서 로봇의 위치를 추정하게 된다.Initialize creates particles at the location of the RFID tag that the robot first recognizes. The position of the generated particles is generated within the recognition range at the position of the recognized RFID tag and the angle has an arbitrary value. Second, Prediction measures the amount of movement of the robot and uses the predictive model to calculate the next position of the particles. Third, Update calculates the probability of each particle using the sensor model for the next recognized RFID tag. At this time, the probability of particles in the recognition range of the recognized RFID tag is high, and the probability of particles outside the range is small. Fourth, Normailze calculates that the probability is 1 when the particles are combined. Fifth, Resampling uses the probability of the final calculated particles to discard particles smaller than a certain probability value, leaving only the particles with the highest probability. Regenerate as many as the first few particles for the remaining particles. Sixth, estimate the position of the final robot by averaging the position and angle for all particles. Finally, we estimate the position of the robot by repeating the particle filter's Prediction to Position Estimates.

경로 데이터, 경로 추종부 및 엑츄에이터는 경로를 추종하는 구성요소이다.The route data, route follower and actuator are components that follow the route.

경로 데이터는 이동 로봇이 현재 위치에서 최종 목적지 위치까지 지나가는 경로상의 중간 지점들에 대한 데이터 셋이다. 이 경로 데이터 셋은 사용자가 임의의 위치로 지정하거나 현재 위치에서 최종 목적지 위치 정보를 이용해 자동 생성될 수 있다. The route data is a data set of intermediate points on the route that the mobile robot passes from its current position to its final destination position. This route data set can be created automatically by the user by specifying any location or by using final destination location information from the current location.

경로 데이터 셋은 현재위치와 목적지 위치를 포함한 경로상의 위치 x, y, theta(방향) 및 로봇이 이동 속도까지 포함된다. The route data set includes positions x, y, theta (direction) on the route, including the current and destination positions, and the speed at which the robot moves.

경로 추종부는 현재 위치에서 다음에 도달해야 할 중간 지점을 경로 데이터로부터 가져와 로봇을 중간 지점으로 이동시키기 위한 전진속도, 회전속도를 계산하여 최종적으로 엑츄에이터로 전달한다. The path follower takes the intermediate point to be reached from the current position from the path data, calculates the forward speed and rotation speed for moving the robot to the intermediate point, and finally delivers it to the actuator.

이동 로봇의 구동방식에는 여러 가지가 있지만 본 연구에서는 두 바퀴의 차동형 구동방식을 사용하였다. 두 바퀴의 차동 구동형은 직진속도와 회전 속도를 좌표계 속도

Figure pat00009
로 나태낼 수 있다. There are many ways to drive a mobile robot, but in this study, we used a two-wheel differential drive. The two-wheel differential drive is the coordinate system speed and the linear speed
Figure pat00009
Can be represented.

수학식 3은 차동 구동형 이동 로봇의 기구학식을 나타낸다.
Equation 3 shows a kinematic equation of the differentially driven mobile robot.

[수학식 3]&Quot; (3) "

Figure pat00010

Figure pat00010

로봇의 현재 위치에서 다음 목적지에 대한 극좌표식은 수학식 4와 같다.
The polar coordinates of the next destination at the current position of the robot are shown in Equation 4.

[수학식 4]&Quot; (4) "

Figure pat00011
Figure pat00011

Figure pat00012
Figure pat00012

Figure pat00013

Figure pat00013

수학식 3과 수학식 4에 의해 수학식 5와 같이 나타낼 수 있다.
Equations 3 and 4 can be expressed as Equation 5.

[수학식 5][Equation 5]

Figure pat00014

Figure pat00014

경로 추종부에서 다음 목적지까지 로봇을 이동시키기 위한 제어 루프는 로봇의 전진속도와 회전 속도를 현재 위치에서 다음 목적지까지의 에러와 이득 상수로 표현할 수 있다. 수학식 6은 제어 루프식을 나타낸다.
The control loop for moving the robot from the path follower to the next destination can express the robot's forward and rotational speeds with error and gain constants from the current location to the next destination. Equation 6 shows a control loop equation.

[수학식 6]&Quot; (6) "

Figure pat00015

Figure pat00015

수학식 4와 수학식 6에 의해 다음과 같은 최종 제어루프 수학식 7을 구할 수 있다.
The following control loop equation (7) can be obtained from equations (4) and (6).

[수학식 7][Equation 7]

Figure pat00016
Figure pat00016

Figure pat00017
Figure pat00018
Figure pat00017
Figure pat00018

Figure pat00019

Figure pat00019

수학식 7에서

Figure pat00020
는 직진에 대한 이득 상수, 목적지 방향에 대한 이득 상수, 자세에 대한 이득 상수이다. 이득 상수는 시뮬레이션을 통해 최적의 값을 찾는다.In equation (7)
Figure pat00020
Is the gain constant for going straight, the gain constant for the destination direction, and the gain constant for attitude. The gain constant finds the optimal value through simulation.

경로 추종부는 제어 루프식을 이용해 최종 목적지까지 중간 목적지를 거치면서 곡선 주행을 한다. 도 5는 제어 루프식을 이용한 시뮬레이션의 결과이다.
The path follower curves through the intermediate destination to the final destination using a control loop. 5 is a result of simulation using a control loop equation.

도 6은 본 발명의 일 실시 예에 따른 이동 로봇의 자율 주행 방법을 도시한 흐름도이다.6 is a flowchart illustrating an autonomous driving method of a mobile robot according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시 예에 따른 이동 로봇의 자율 주행 방법은 초기화 단계, 각 파티클의 위치와 방향을 예상하는 단계, 각 파티클의 가중치를 업데이트 하는 단계, 가중치에 비례하는 새로운 파티클을 생성하는 단계 및 최종 로봇의 추정 위치를 계산하는 단계를 포함할 수 있다.Referring to FIG. 6, in the autonomous driving method of a mobile robot according to an exemplary embodiment of the present disclosure, an initialization step, an estimating position and direction of each particle, an update of a weight of each particle, a new particle proportional to the weight And generating the estimated position of the final robot.

여기서, 각 파티클의 위치와 방향을 예상하는 단계, 각 파티클의 가중치를 업데이트 하는 단계, 가중치에 비례하는 새로운 파티클을 생성하는 단계 및 최종 로봇의 추정 위치를 계산하는 단계는 반복될 수 있다.Here, the step of estimating the position and direction of each particle, updating the weight of each particle, generating a new particle proportional to the weight, and calculating the estimated position of the final robot may be repeated.

초기화 단계에서 로봇에 장착된 RFID 리더기에서 RFID 태그를 인식했을 때 최대 파티클의 수(M)만큼의 파티클을 생성한다. 각 파티클의 위치는 RFID 태그가 인식된 위치를 중심으로 인식 반경 내에서 랜덤 값을 지정하고 방향은 0도에서 360도 까지 랜덤 값을 지정한다.When the RFID reader mounted on the robot recognizes the RFID tag in the initialization step, particles as many as the maximum number of particles (M) are generated. The location of each particle specifies a random value within the recognition radius around the location where the RFID tag is recognized, and the direction specifies a random value from 0 degree to 360 degrees.

파티클의 위치를

Figure pat00021
로 표시하고 가중치를
Figure pat00022
로 표시할 때, M개의 파티클에 대한 집합은 수학식 8과 같이 표시된다.
To position the particles
Figure pat00021
And weight
Figure pat00022
When expressed as, the set of M particles is expressed as in Equation (8).

[수학식 8][Equation 8]

Figure pat00023

Figure pat00023

각 파티클들을 로봇의 이동량에 따라 이동한다. 이때 로봇의 이동 노이즈를 더해준다. 오도메트리 에러로부터 발생하는 이동 노이즈는 평균(

Figure pat00024
)과 이동량에 비례하는 표준편차(
Figure pat00025
)의 Gaussian 모델을 가지는데, 실제 로봇의 주행을 반복실험하여 계산한다.Each particle is moved according to the movement amount of the robot. At this time, the movement noise of the robot is added. Moving noise resulting from odometry errors is averaged (
Figure pat00024
) And the standard deviation (proportional to the amount of movement)
Figure pat00025
It has Gaussian model of), and it calculates by repeating experiment of actual robot's driving.

오른쪽 바퀴의 회전량이

Figure pat00026
이고 왼쪽 바퀴의 회전량이
Figure pat00027
이며,
Figure pat00028
은 바퀴의 반지름,
Figure pat00029
은 양쪽 바퀴간의 거리일 때, 로봇의 이동거리
Figure pat00030
와 회전각도
Figure pat00031
는 수학식 9와 같다.
The amount of rotation of the right wheel
Figure pat00026
And the amount of rotation of the left wheel
Figure pat00027
,
Figure pat00028
Silver radius of the wheel,
Figure pat00029
Is the moving distance of the robot when the distance between the wheels
Figure pat00030
And rotation angle
Figure pat00031
Is the same as Equation 9.

[수학식 9][Equation 9]

Figure pat00032

Figure pat00032

다음으로, 각 파티클의 위치와 방향을 예상하는 단계는 각각의 파티클들에 로봇의 이동거리와 회전각도 노이즈를 더한다. 이동거리에 대한 노이즈

Figure pat00033
와 회전각도에 대한 노이즈
Figure pat00034
은 평균 (
Figure pat00035
)과 표준편차 (
Figure pat00036
)를 가지는 정규분포로부터 무작위로 임의의 숫자를 선택한다.
Next, the step of estimating the position and direction of each particle adds the moving distance and rotation angle noise of the robot to each particle. Noise for travel
Figure pat00033
And noise for rotation angle
Figure pat00034
Is average (
Figure pat00035
) And standard deviation (
Figure pat00036
Select a random number from a normal distribution with).

[수학식 10]&Quot; (10) "

Figure pat00037

Figure pat00037

각 파티클

Figure pat00038
의 위치와 방향은 수학식 11과 같이 업데이트 된다.
Each particle
Figure pat00038
The position and direction of are updated as in Equation (11).

[수학식 11]&Quot; (11) "

Figure pat00039

Figure pat00039

다음으로, 각 파티클의 가중치를 업데이트 하는 단계는 각 파티클에 대하여 파티클의 위치

Figure pat00040
와 인식된 태그의 위치
Figure pat00041
간의 거리
Figure pat00042
를 수학식 12를 통해 계산한다.
Next, updating the weight of each particle is the position of the particle with respect to each particle.
Figure pat00040
And location of recognized tags
Figure pat00041
Distance between
Figure pat00042
Is calculated through Equation 12.

[수학식 12][Equation 12]

Figure pat00043

Figure pat00043

이어서, 수학식 13의 관계식으로부터 확률

Figure pat00044
를 계산한다. (
Figure pat00045
는 태그의 인식 반경)
Then, the probability from the relational expression
Figure pat00044
. (
Figure pat00045
Is the recognition radius of the tag)

[수학식 13]&Quot; (13) "



수학식 13은 파티클이 태그와 떨어진 거리에 따라 태그를 인식할 확률을 나타내는데, 그래프로 표시하면 도 7과 같다.Equation 13 shows the probability of recognizing the tag according to the distance away from the tag, as shown in FIG.

모든 파티클들의 가중치 합이 1이 되도록 각 파티클의 가중치를 수학식 14와 같이 업데이트 한다.
The weight of each particle is updated as shown in Equation 14 so that the sum of the weights of all particles is 1.

[수학식 14]&Quot; (14) "

Figure pat00047

Figure pat00047

이어서, 기존 파티클의 집합

Figure pat00048
에 대한 예측과 업데이트 과정이 끝나 새로운 상태인 수학식 15와 같이 파티클 집단이 정의된다.
Then, a set of existing particles
Figure pat00048
After the prediction and update process for, the particle group is defined as shown in Equation (15).

[수학식 15]&Quot; (15) "

Figure pat00049

Figure pat00049

다음으로, 가중치에 비례하는 새로운 파티클을 생성하는 단계는 각 파티클들의 가중치에 비례하는 새로운 파티클들을 생성한다. 즉, 가중치가 작은 파티클은 소멸하게 되고 가중치가 클수록 많은 새로운 파티클들을 생성한다. 새로운 파티클은 기존 파티클의 특성

Figure pat00050
을 그대로 물려받는다.Next, generating a new particle proportional to the weight generates new particles proportional to the weight of each particle. In other words, particles with lower weights are destroyed, and larger weights generate more new particles. New particles are the characteristics of existing particles
Figure pat00050
Take over as it is.

파티클 가 만들어내는 새로운 파티클의 수

Figure pat00051
은 수학식 16과 같이 계산한다.
Figure pat00052
는 실수를 정수로 변환하는 연산자다.
The number of new particles the particle generates
Figure pat00051
Is calculated as in equation (16).
Figure pat00052
Is an operator that converts a real number to an integer.

[수학식 16]&Quot; (16) "

Figure pat00053

Figure pat00053

마지막으로, 최종 로봇의 추정 위치를 계산하는 단계는 모든 파티클들의 가중치와 위치의 곱을 합하여 수학식 17과 같이 최종 로봇의 추정 위치

Figure pat00054
를 계산한다.
Finally, the step of calculating the estimated position of the final robot is to add the product of the weights and positions of all the particles, the estimated position of the final robot as shown in Equation 17
Figure pat00054
.

[수학식 17]&Quot; (17) "

Figure pat00055

Figure pat00055

이때 의 연산에 주의하여야 한다. 예를 들자면, 각도 -180과 180을 더하여 평균을 내면 0이지만, 실제로 평균은 180이 되어야 한다.

Figure pat00056
는 -180도 에서 +180도의 값을 가지므로 +영역에 있는 각도와 -영역에 있는 각도를 따로 계산하는데, -영역의 값을 기준으로 +영역의 값과 -영역의 값의 차를 더하여 평균을 계산한다.
Attention should be paid to the operation of. For example, the average of -180 and 180 plus the mean is 0, but the mean should actually be 180.
Figure pat00056
Since the value is between -180 and +180 degrees, the angle in the + area and the angle in the-area are calculated separately, and the average is obtained by adding the difference between the value of the + area and the-area based on the value of the-area. Calculate

본 발명의 실시 예에 따른 이동 로봇의 자율 주행 시스템은 도 6에 도시된 방법을 수행하며, 바닥에 설치된 RFID 태그를 인식하고, 바퀴의 엔코더로부터 이동량을 읽어와 Particle Filter로 두 위치 데이터를 정합 함으로 로봇의 위치인식을 수행한다. 이 시스템은 바닥에 RFID의 배치 방법과 배치 밀도를 다양하게 하여 각 공간에 따라 위치인식 정밀도를 조절할 수 있다. The autonomous driving system of the mobile robot according to an embodiment of the present invention performs the method shown in FIG. 6, recognizes an RFID tag installed on the floor, reads the movement amount from the encoder of the wheel, and matches the two position data with the particle filter. Perform robot position recognition. This system can vary the positioning method and density of RFID on the floor and adjust the position recognition accuracy according to each space.

이를 위하여, 이동 로봇의 자율 주행 위치 인식 장치 RFID 태그 맵, 경로 데이터, 파티클 필터, 경로 추종부, RFID 리더 및 인코더를 포함할 수 있다.To this end, the autonomous driving position recognition apparatus of the mobile robot may include an RFID tag map, route data, particle filter, route follower, RFID reader and encoder.

파티클 필터는 순차적인 Monte Carlo 알고리즘이다. 즉, 알고리즘의 확률분포를 파티클로 표현하는 것이다. RFID를 이용한 파티클 필터의 위치추정은 로봇의 오도메트리(Odometry)정보와 RFID 리더로부터 인식된 태그들의 위치 정보를 이용해 로봇의 위치를 추정한다. 파티클 필터 알고리즘은 RFID 태그만으로는 불가능한 로봇의 방향 인식과 RFID 태그의 인식 반경보다 정밀한 위치추정을 가능하도록 한다.Particle filters are a sequential Monte Carlo algorithm. In other words, the probability distribution of the algorithm is expressed as particles. The location estimation of the particle filter using RFID estimates the location of the robot using the information of the robot's odometry and the location information of the tags recognized by the RFID reader. The particle filter algorithm enables the robot's direction recognition and the position estimation more precisely than the recognition radius of the RFID tag.

본 발명의 실시 예에서 RFID 리더는 출력을 높이지 않고 인식 직경과 거리를 늘리기 위하여 안테나의 직경을 넓혀 사용한다. RFID 리더는 인식 거리와 직경은 최대 15cm 정도로 설계될 수 있으나, 이는 사용자가 다양하게 변경할 수 있다. In an embodiment of the present invention, the RFID reader widens the diameter of the antenna to increase the recognition diameter and distance without increasing the output. The RFID reader can be designed with a recognition distance and diameter of up to 15cm, but it can be changed by the user in various ways.

RFID 안테나의 경우, 안테나 선의 길이는 동일하지만 모양을 사각형 도는 원형으로 형성될 수 있다.In the case of an RFID antenna, the antenna lines may have the same length but may have a rectangular shape or a circular shape.

여기서, 인식 반경을 넓히기 위하여 RFID 리더를 두 개 이상 사용할 때, 간섭을 피하도록 각 안테나는 50cm(최소 30cm) 이상 떨어져 배치된다.Here, when using two or more RFID readers to increase the recognition radius, each antenna is disposed at least 50 cm (at least 30 cm) to avoid interference.

RFID 태그는 ISO 15693 (ISO18000-3 Mode1) 13.56MHz RFID 표준을 따르는 코인 타입을 사용한다.The RFID tag uses a coin type that conforms to the ISO 15693 (ISO18000-3 Mode1) 13.56 MHz RFID standard.

RFID 위치인식 시스템은 바닥에 RFID의 배치 방법과 배치 밀도를 다양하게 하여 각 공간에 따라 위치인식 정밀로들 조절할 수 있다. 배치 밀도에 대한 예를 들자면, 로봇이 작업 등의 이유로 위치인식 정밀도가 높아야 하는 지역에는 RFID 태그의 배치를 조밀하게 함으로 위치인식 정밀도를 높일 수 있고, 로봇이 다음 목적지로 이동하기 위해 지나가는 복도나 광장과 같은 지역에서는 정밀한 위치인식이 필요 없기 때문에 RFID 태그를 조밀하게 배치할 필요가 없다.The RFID positioning system can vary the positioning method and the density of the RFID on the floor and can precisely adjust the position recognition according to each space. As an example of batch density, in areas where the robot needs to have high positional accuracy due to work, etc., the positioning of the RFID tag can be densified to increase the positional accuracy and the corridor or square where the robot passes to move to the next destination. In areas such as this, there is no need for precise positioning, so there is no need to place RFID tags densely.

바닥에 RFID 태그의 설치를 편리하도록 하기 위하여 본 연구에서는 태그가 일정 간격으로 일렬로 배치된 띠를 제안한다.In order to facilitate the installation of RFID tags on the floor, this study proposes a strip of tags arranged in a line at regular intervals.

도 8에 도시된 바와 같이, 태그 띠에는 일정한 간격으로 RFID 태그가 장착되어있다. 띠는 두께가 얇고 약간의 폭이 있는 비닐 막으로 되어있으며 원통에 말아 둠으로 보관 및 취급이 용이하다. 또한 바닥에 설치 시에는 필요한 길이만큼 잘라서 사용 가능하다.As shown in Figure 8, the tag strip is mounted with RFID tags at regular intervals. The strip is made of a thin, slightly width vinyl film that is rolled into a cylinder for easy storage and handling. In addition, it can be cut to the required length when installed on the floor.

태그 띠에서 각 태그의 간격이 일정할 때, 처음 태그의 위치와 마지막 태그의 위치를 알면 나머지 태그의 위치를 계산 가능하다. 이 방법은 다수의 태그를 설치하는 경우, 일일이 모든 태그의 좌표를 입력하지 않고 직선 띠의 시작과 끝 태그 위치로 나머지 태그의 위치를 쉽게 계산할 수 있도록 한다.When the interval of each tag in the tag strip is constant, the position of the remaining tags can be calculated by knowing the position of the first tag and the position of the last tag. This method makes it easy to calculate the position of the rest of the tags by starting and ending tag positions without entering the coordinates of every tag.

태그의 시작 S와 끝 E의 좌표를 알고 태그가 설치된 개수 n을 알 때 다음과 같이 나머지 태그의 위치를 계산한다.When the coordinates of the start S and end E of the tag are known and the number n of tags installed is calculated, the positions of the remaining tags are calculated as follows.

시작점 S와 끝점 E를 지나는 직선의 방정식

Figure pat00057
은 다음과 같이 표현할 수 있다. (
Figure pat00058
일때)
Equation of a straight line through the starting point S and the end point E
Figure pat00057
Can be expressed as (
Figure pat00058
when)

[수학식 18]&Quot; (18) "

Figure pat00059

Figure pat00059

Figure pat00060
이며
Figure pat00061
일 때, 각 태그의 위치
Figure pat00062
는 수학식 19와 같이 계산가능하다.
Figure pat00060
And
Figure pat00061
When, position of each tag
Figure pat00062
Can be calculated as in Equation 19.

[수학식 19]&Quot; (19) "

Figure pat00063

Figure pat00063

띠에 설치된 태그는 바닥에 시공을 편리하게 하도록 할 뿐 디 자체가 로봇의 위치인식에 영향을 미치지는 않는다. 로봇의 위치인식은 바닥에 설치된 각각의 독립된 태그의 위치로부터 가능하다.The tag installed on the band makes the construction easier on the floor, and does not affect the position recognition of the robot itself. The position recognition of the robot is possible from the position of each independent tag installed on the floor.

하나의 띠를 표현하기 위한 데이터는 수학식 20과 같은 형식으로 파일에 저장된다.
Data for representing one band is stored in a file in a format as shown in Equation (20).

[수학식 20]&Quot; (20) "

Figure pat00064

Figure pat00064

Figure pat00065
는 시작 태그의 위치,
Figure pat00066
는 끝 태그의 위치,
Figure pat00067
은 태그의 개수,
Figure pat00068
는 태그의 개수만큼 존재하는 태그를 구별하는 유일한 식별값이다.
Figure pat00065
Is the location of the start tag,
Figure pat00066
Is the position of the end tag,
Figure pat00067
Is the number of tags,
Figure pat00068
Is a unique identification value that distinguishes tags that exist as many as the number of tags.

한 개 이상의 띠가 바닥에 설치된 경우, 이를 저장하는 파일에는 각각의 띠에 해당하는 데이터가 줄로 구분되어 저장된다. 위치 인식 장치는 이 파일을 읽어 각 태그의 위치를 계산하고 태그 맵을 생성한다. 예를 들면, 도 9와 같이 바닥에 태그 때가 설치된 것을 기초로 태그 맵을 생성한다.If more than one band is installed on the floor, the files that store them are stored in rows with data corresponding to each band. The location aware device reads this file to calculate the location of each tag and generates a tag map. For example, as illustrated in FIG. 9, a tag map is generated based on installation of a tag time on a floor.

띠는 로봇이 이동하는 경로를 따라 설치하는 것이 태그의 인식률을 높일 수 있다.The band can be installed along the path that the robot moves to increase the recognition rate of the tag.

RFID 위치인식 알고리즘을 구현한 응용프로그램은 실제 로봇에 연결하여 사용하거나 시뮬레이션 가능하도록 프로그램 하였다. 시뮬레이션을 위해 좌우 바퀴를 구동하는 가상의 모터를 구현하고 로봇의 오도메트리를 계산할 수 있도록 하였다.The application program that implements the RFID position recognition algorithm is programmed to be used or simulated by connecting to a real robot. For simulation, a virtual motor that drives left and right wheels is implemented and the robot's odometry can be calculated.

도 10은 RFID 태그가 설치된 환경을 도시한 도면으로, 태그가 설치된 바닥의 넓이는 5m x 5m이며 등간격으로 0.5m 마다 인식반경 0.09m인 태그를 총 121개 설치하였다. 도 10에서 가로와 세로 실선은 1m 간격으로 그은 선이다. 둥근 회색 원은 RFID 태그의 위치와 인식 반경을 표시한다. 이 원은 태그가 인식되었을 때는 붉은 색으로 변한다. 회색 로봇은 실제 로봇의 위치를 표시하고 갈색 로봇은 RFID 위치인식 알고리즘으로 추정한 위치를 표시한다. 파란색 점은 각 파티클의 위치를 표시한다.FIG. 10 is a view illustrating an environment in which an RFID tag is installed. A total of 121 tags having a width of 5m x 5m and a recognition radius of 0.09m every 0.5m are installed at equal intervals. In FIG. 10, the horizontal and vertical solid lines are lines drawn at intervals of 1 m. The round gray circle indicates the position and the recognition radius of the RFID tag. This circle turns red when the tag is recognized. The gray robots show the actual robot's position, and the brown robots show the position estimated by RFID positioning algorithm. Blue dots mark the location of each particle.

시뮬레이션에서 실제 로봇의 위치와 방향은 Dead-reckoning한 위치와 방향을 사용하였다.In the simulation, the position and orientation of the actual robot was used by the dead-reckoning position and orientation.

로봇이 위치를 추정하는 과정을 도 11 내지 도 14에서 보여주고 있다. 로봇이 첫 태그를 감지할 때까지는 로봇의 위치를 알 수 없다. 로봇이 첫 태그를 감지하면 도 11에서와 같이 태그의 인식 반경 내에서 무작위로 파티클을 생성한다. 도 12에서와 같이, 로봇이 다른 태그를 감지하기 전까지 방향을 알 수 없기 때문에 파티클은 원을 그리며 퍼져나간다. 도13에 도시된 바와 같이, 로봇이 두 번째 태그를 감지하면 태그의 인식 반경을 벗어난 파티클은 소멸되어 방향이 일치하는 파티클만 남게 된다. 도 14를 참조하면, 로봇이 이동할 때 다음 태그를 만나기 전까지 파티클은 로봇이 존재할 확률 분포에 따라 퍼지고 태그를 만나면 파티클은 다시 수렴하는 과정을 반복한다. 이때, 로봇의 위치추정 오차는 파티클이 퍼진 넓이와 비례하여 커지게 된다.The process of estimating the position of the robot is illustrated in FIGS. 11 to 14. The robot's position is unknown until the robot detects the first tag. When the robot detects the first tag, particles are randomly generated within the recognition radius of the tag as shown in FIG. 11. As shown in FIG. 12, the particles spread in a circle because the direction is unknown until the robot detects another tag. As shown in FIG. 13, when the robot detects the second tag, particles outside the recognition radius of the tag are destroyed so that only particles having the same direction remain. Referring to FIG. 14, when the robot moves, the particles spread out according to the probability distribution of the robots until the next tag is encountered, and when the tags are met, the particles repeat the convergence process again. At this time, the position estimation error of the robot increases in proportion to the area where the particles are spread.

시뮬레이션 과정에서 로봇은 조이스틱을 이용하여 수동으로 조작하여 이동하였다. 시뮬레이션이 진행되는 동안 로봇은 적절한 위치 추정을 하였으며, 로봇의 위치를 분실하거나 하는 경우는 없었다.During the simulation, the robot was moved manually by using a joystick. During the simulation, the robot made a proper position estimate and never lost the position of the robot.

RFID 위치인식 장치를 본 발명의 실시 예에 따른 로봇에 적용하여 실험하였다. RFID 위치인식 장치의 추정된 위치와 실제 위치간의 오차를 계산하기 위해, 로봇의 실제 위치를 측정하는데 3차원 위치인식 장비인 Laser Tracker를 사용하였다.The RFID position recognition device was applied to the robot according to an embodiment of the present invention and tested. In order to calculate the error between the estimated position and the actual position of the RFID positioning device, the laser tracker, a 3D positioning device, was used to measure the actual position of the robot.

도 15는 로봇의 베이스 프레임 밑면에 장착된 RFID 리더와 안테나 사진이다. RFID 안테나와 마루 바닥 면과의 높이는 3cm이다.15 is a photograph of an RFID reader and an antenna mounted on the bottom of the base frame of the robot. The height of the RFID antenna and the floor surface is 3cm.

실험 환경은 다음 도 16과 같이 2.4m x 2.4m 공간에 12cm 간격으로 RFID 태그가 바닥에 설치되어 있으며 나무 타일로 덮여있다.In the experimental environment, as shown in FIG. 16, RFID tags are installed on the floor at intervals of 12 cm in a 2.4 m x 2.4 m space and are covered with wooden tiles.

도 17은 기존의 상용 제품과 비교 실험하기 위해 가운데에 있는 것은 랜드마크와 카메라를 이용한 위치 시스템(StarGazer)이고, 양쪽에 하나씩 달려 있는 것은 초음파 위성 기반 위치 시스템(U-SAT)의 수신부이다. 그리고 가운데와 양쪽 가장자리에 장착되어 있는 회색의 작은 공모양은 로봇의 정밀한 위치를 측정하기 위한 3차원 위치인식 랜드 마크이다.FIG. 17 is a position system (StarGazer) using a landmark and a camera in the center for comparison experiments with existing commercial products, and a receiver of an ultrasonic satellite based position system (U-SAT), which is located at both sides. The small gray balls attached to the center and both edges are three-dimensional position recognition landmarks for precise positioning of the robot.

도 18은 천정에 장착되어 있는 초음파 위성 기반 위치 시스템의 송신부이다. 위치를 측정하고자 하는 공간의 4개의 모서리에 장착되어 순차적으로 초음파를 발생시켜 수신부까지 전달한다. 도 19는 천정에 장착되어 있는 StarGazer의 랜드마크다. StarGazer의 랜드마크는 위치 및 방향을 인식할 수 있는 표식과 랜드마크의 아이디를 구별할 수 있는 표식으로 구성되어 있다.18 is a transmitter of an ultrasonic satellite based positioning system mounted on the ceiling. It is mounted on four corners of the space to measure the position and generates ultrasonic waves sequentially and transmits them to the receiver. 19 is a landmark of a StarGazer mounted on the ceiling. The landmark of StarGazer consists of a marker that can recognize the location and direction and a marker that can distinguish the ID of the landmark.

RFID 태그는 2.4m x 2.4m 크기의 바닥에 12cm 간격으로 가로, 세로 20개씩 격자형으로 배치하였다. 2-Wheel Differential Wheel 방식의 모바일 로봇 하단의 구동축 중심의 위치에 RFID 리더와 안테나를 장착하였다. RFID 안테나와 지면과의 높이는 3cm이다.RFID tags were arranged in a grid of 20 horizontally and vertically spaced 12 cm apart on a 2.4m x 2.4m floor. The RFID reader and antenna are mounted at the center of the drive shaft at the bottom of the 2-Wheel Differential Wheel type mobile robot. The height of the RFID antenna and the ground is 3 cm.

개발된 RFID 위치인식 장치의 성능을 입증하기 위해 이동로봇에 적용하여 로봇의 실제위치와 RFID 기반 추정된 위치를 비교 실험하였고, 기존의 상용 위치인식 제품인 랜드마크와 카메라를 이용한 영상기반 위치인식 시스템(StarGazer)과 초음파 위성 기반 위치인식 시스템(U-SAT)과 비교 실험하였다.In order to prove the performance of the developed RFID positioning device, we applied the mobile robot to experiment and compared the actual location of the robot with the estimated location based on RFID, and image-based location recognition system using landmarks and cameras. StarGazer) and ultrasonic satellite based position recognition system (U-SAT).

로봇은 조이스틱을 이용하여 원을 그리며 이동하도록 조종되었다. RFID 위치인식 알고리즘을 수행하기 위한 파티클의 최대 개수는 1000개로 설정하였고, 수행 주기는 130ms로 설정하였다. RFID 위치인식 수행과 동시에 StarGazer 위치인식과 U-SAT 위치인식을 수행하였고, 3차원 위치인식 시스템에서 측정한 로봇 실제 위치와 비교하였다.The robot was manipulated to move in a circle using a joystick. The maximum number of particles for performing the RFID position recognition algorithm was set to 1000 and the execution period was set to 130ms. At the same time as RFID position recognition, StarGazer position recognition and U-SAT position recognition were performed and compared with actual robot position measured in 3D position recognition system.

도 20과 도 21은RFID 위치인식 장치의 추정된 위치와 실제 위치에 대한 거리와 방향 오차에 대한 그래프를 나타낸다.20 and 21 show graphs of distance and direction errors with respect to the estimated position and the actual position of the RFID position recognition device.

도 20과 도 21에서 보이는 봐와 같이 RFID 위치인식 장치의 추정 위치와 실제 위치와의 거리 오차는 0.04m 미만이고, 방향 오차는 3° 미만임을 볼 수가 있다.As shown in FIGS. 20 and 21, the distance error between the estimated position and the actual position of the RFID position recognition device is less than 0.04 m, and the direction error is less than 3 °.

RFID 위치인식 장치의 성능을 검증하기 위해 기존의 상용 위치인식 센서들과 성능을 비교 실험하였다. 도 22와 도 23은 RFID 위치인식 장치와 초음파 위성을 이용한 위치인식 장치(U-SAT), 랜드마크와 카메라를 이용한 위치인식 장치(Stargazer)의 위치 오차를 나타내고 있다.To verify the performance of the RFID positioning device, we compared the performance with the existing commercial positioning sensors. 22 and 23 illustrate positional errors of an RFID device, a U-SAT using an ultrasound satellite, and a Stargazer using a landmark and a camera.

도 22에서 보이는 봐와 같이 실제 위치와의 거리 오차는 RFID 위치인식 장치가 기존의 상용 위치인식 장치의 오차보다 작음을 볼 수 있다. As shown in FIG. 22, the distance error from the actual position may be smaller than that of the conventional commercial position recognition device.

도 23에서 보이는 봐와 같이 실제 방향과의 오차는 RFID 위치인식 장치가 기존의 상용 위치인식 장치의 오차보다 작음을 볼 수 있다. As shown in FIG. 23, the error with the actual direction may be smaller than that of the conventional commercial position recognition device.

표 1은 RFID 위치인식 장치와 초음파 위성을 이용한 위치인식 장치(U-SAT), 랜드마크와 카메라를 이용한 위치인식 장치(Stargazer)의 평균 거리와 방향 오차다.
Table 1 shows the average distance and the direction error of the RFID device, the U-SAT, the landmark and the camera, the Stargazer.

평균 거리 오차(m)Average distance error (m) 평균 방향 오차(°)Average direction error (°) RFID RFID 0.0180.018 1.2331.233 StarGazerStargazer 0.0530.053 4.8674.867 U-SATU-SAT 0.2350.235 23.74123.741

따라서 RFID 위치인식 장치는 기존의 상용 제품보다 위치와 방향 오차 모두 랜드마크와 카메라를 이용한 영상 기반의 위치인식 장치(StarGazer)보다 적으며 초음파 위성 위치인식 장치(U-SAT)보다 월등히 적음을 알 수 있다.Therefore, the RFID positioning device is less than the image based positioning device (StarGazer) using landmark and camera, and much less than the ultrasonic satellite positioning device (U-SAT). have.

RFID 위치인식 장치에서 추정된 로봇의 위치와 실제 위치(Laser Tracker에서 측정한 위치)와의 평균 거리 오차는 0.018m로 나타났고, 평균 방향 오차는 1.233°로 나타났다. 기존의 상용 제품인 StarGazer와 U-SAT와 비교했을 때 RFID 위치인식 장치의 오차가 가장 작게 나타남으로, RFID 위치인식 장치의 우수함을 입증하였다.The average distance error between the estimated position of the robot and the actual position (measured by the laser tracker) in the RFID positioning device was 0.018m, and the average direction error was 1.233 °. Compared with the existing commercial products StarGazer and U-SAT, the error of RFID positioning device is the smallest, which proves the superiority of RFID positioning device.

하지만 RFID 위치인식 장치는 초기 설치 비용이 많이 드는 점이 있다. 로봇이 이동하고자 하는 공간의 바닥에 RFID 태그를 설치해야 하기 때문에 태그를 얼마나 조밀하게 설치하느냐에 따라 비용이 달라진다. RFID positioning devices, however, have a high initial installation cost. Since the RFID tag must be installed at the bottom of the space the robot wants to move, the cost depends on how tightly the tag is installed.

RFID 위치인식 장치는 기존의 상용 제품보다 초기 설치 비용이 높지만 지면의 굴곡으로 인한 로봇의 기울어짐에 따른 오차와 로봇의 이동 속도에 따른 오차, 장애물로 가려짐에 대한 오차가 발생하지 않아 항상 신뢰성 있는 위치인식 성능을 보장하게 된다.
RFID positioning device has higher initial installation cost than existing commercial products, but it does not produce errors due to robot tilt due to ground curvature, errors due to robot's moving speed, and obstructions caused by obstacles. Positioning performance is guaranteed.

상기에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the following claims And changes may be made without departing from the spirit and scope of the invention.

Claims (1)

발명의 상세한 설명 및 도면에 의한 이동 로봇의 자율 주행 위치 인식 장치.

Autonomous running position recognition device of a mobile robot according to the detailed description and the drawings.

KR1020110020970A 2011-03-09 2011-03-09 Positional recognition aparatus and method for autonomous mobile robot using for rfid tag and positional recognition system KR20120102998A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110020970A KR20120102998A (en) 2011-03-09 2011-03-09 Positional recognition aparatus and method for autonomous mobile robot using for rfid tag and positional recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110020970A KR20120102998A (en) 2011-03-09 2011-03-09 Positional recognition aparatus and method for autonomous mobile robot using for rfid tag and positional recognition system

Publications (1)

Publication Number Publication Date
KR20120102998A true KR20120102998A (en) 2012-09-19

Family

ID=47111191

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110020970A KR20120102998A (en) 2011-03-09 2011-03-09 Positional recognition aparatus and method for autonomous mobile robot using for rfid tag and positional recognition system

Country Status (1)

Country Link
KR (1) KR20120102998A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102049760B1 (en) 2018-11-21 2019-11-28 한국항공대학교산학협력단 Apparatus and method of managing autonomous traveling vehicle and computer program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102049760B1 (en) 2018-11-21 2019-11-28 한국항공대학교산학협력단 Apparatus and method of managing autonomous traveling vehicle and computer program

Similar Documents

Publication Publication Date Title
CN110874100B (en) System and method for autonomous navigation using visual sparse maps
JP6759307B2 (en) Adaptive mapping using spatial aggregation of sensor data
CN108290294B (en) Mobile robot and control method thereof
CN104536445B (en) Mobile navigation method and system
US6836701B2 (en) Autonomous multi-platform robotic system
US20190121361A1 (en) Method for constructing a map while performing work
US6496755B2 (en) Autonomous multi-platform robot system
Maier et al. Real-time navigation in 3D environments based on depth camera data
TWI827649B (en) Apparatuses, systems and methods for vslam scale estimation
WO2023273311A1 (en) Method and apparatus for scale calibration and optimization of a monocular visual-inertial localization system
US11931900B2 (en) Method of predicting occupancy of unseen areas for path planning, associated device, and network training method
KR101106265B1 (en) Localization apparatus and method for mobile robot using rfid
JP2004133882A (en) Autonomous multi-platform robot system
KR20120102998A (en) Positional recognition aparatus and method for autonomous mobile robot using for rfid tag and positional recognition system
CN109389677B (en) Real-time building method, system, device and storage medium of house three-dimensional live-action map
WO2023273310A1 (en) Method and apparatus for optimization of a monocular visual-inertial localization system
Chang et al. Reconstruction of 3D contour with an active laser‐vision robotic system
Hwang et al. Robust 3D map building for a mobile robot moving on the floor
Wang et al. Mobile robot pose estimation using laser scan matching based on fourier transform
Hwang et al. 3D map building for a moving based on mobile robot
Nguyen et al. Vision-based qualitative path-following control of quadrotor aerial vehicle with speeded-up robust features
US11829154B1 (en) Systems and methods for robotic navigation, teaching and mapping
US20240118091A1 (en) Method for constructing a map while performing work
Tanaka Multiscan-based map optimizer for RFID map-building with low-accuracy measurements
Tubman Fusion-SLAM by combining RGB-D SLAM and Rat SLAM: a thesis presented in partial fulfilment of the requirements for the degree of Master of Engineering in Mechatronics at Massey University, Albany, New Zealand

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid