KR100590210B1 - Method for mobile robot localization and navigation using RFID, and System for thereof - Google Patents

Method for mobile robot localization and navigation using RFID, and System for thereof Download PDF

Info

Publication number
KR100590210B1
KR100590210B1 KR1020040103589A KR20040103589A KR100590210B1 KR 100590210 B1 KR100590210 B1 KR 100590210B1 KR 1020040103589 A KR1020040103589 A KR 1020040103589A KR 20040103589 A KR20040103589 A KR 20040103589A KR 100590210 B1 KR100590210 B1 KR 100590210B1
Authority
KR
South Korea
Prior art keywords
image
robot
led
mobile robot
rfid
Prior art date
Application number
KR1020040103589A
Other languages
Korean (ko)
Other versions
KR20060064908A (en
Inventor
유원필
채희성
한규서
소정
나상익
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020040103589A priority Critical patent/KR100590210B1/en
Publication of KR20060064908A publication Critical patent/KR20060064908A/en
Application granted granted Critical
Publication of KR100590210B1 publication Critical patent/KR100590210B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 이동로봇에 관한 것으로, 특히 능동형 표식점(active beacon)을 이용하는 실내 주행 이동 로봇(indoor mobile robot)의 위치 인식 및 주행 방법과 이를 적용한 이동로봇 시스템에 관한 것이다.The present invention relates to a mobile robot, and more particularly, to a location recognition and driving method of an indoor mobile robot using an active beacon and a mobile robot system using the same.

본 발명에 따른 위치 인식 및 주행 방법은 주행명령을 수신하면, 상기 주행명령에 따른 경로를 생성하는 제1단계; 특정 RFID태그를 발견하고, 상기 특정 RFID태그에 구비된 LED가 켜진 상태의 영상과 꺼진 상태의 영상을 획득하는 제2단계; 상기 LED가 켜진 상태의 영상과 꺼진 상태의 영상간의 차 영상을 이용하여 로봇의 위치인식 및 진행방향각을 결정하는 제3단계를 포함한다.According to an aspect of the present invention, there is provided a method for recognizing and driving a vehicle, the method comprising: generating a route according to the driving command when a driving command is received; A second step of discovering a specific RFID tag and acquiring an image of an LED on and an off state of the specific RFID tag; And determining a position recognition and a moving direction angle of the robot by using the difference image between the image of the LED on state and the image of the off state.

본 발명에서 다루는 로봇은 바퀴굴림 형태의 로봇을 포함하여 휴머노이드형 로봇까지 이동성을 가지는 임의의 형태의 로봇을 모두 포함한다.The robot covered by the present invention includes any type of robot having mobility up to a humanoid robot, including a wheeled robot.

이동로봇, 위치인식, RFID, 도킹 스테이션Mobile Robot, Position Recognition, RFID, Docking Station

Description

RFID 를 이용한 이동로봇 위치 인식 및 주행방법과, 이를 적용한 이동로봇 시스템{Method for mobile robot localization and navigation using RFID, and System for thereof} Mobile robot location recognition and driving method using RDF and mobile robot system using the same {Method for mobile robot localization and navigation using RFID, and System for             

도 1은 이동로봇의 좌표계와 전역 좌표계의 설정예를 보여주는 도면,1 is a view showing a setting example of the coordinate system and the global coordinate system of the mobile robot,

도 2는 RFID를 이용하는 시스템의 구성예를 보여주는 도면,2 is a view showing a configuration example of a system using RFID;

도 3은 LED가 내장된 RFID태그를 보여주는 도면,3 is a view showing an RFID tag with a built-in LED,

도 4는 이동로봇에 탑재되는 카메라의 좌표계 및 RFID태그간의 기하학적 관계를 보여주는 도면, 4 is a view showing the geometric relationship between the coordinate system and the RFID tag of the camera mounted on the mobile robot,

도 5는 본 발명의 실시예에 따른 이동로봇을 보여주며, 이동로봇에 탑재된 카메라 좌표계와 로봇 좌표계간의 관계를 도시한 도면,5 shows a mobile robot according to an embodiment of the present invention, and shows a relationship between a camera coordinate system and a robot coordinate system mounted on the mobile robot;

도 6은 본 발명의 실시예에 따른 로봇의 위치인식 과정을 보여주는 흐름도,6 is a flowchart showing a position recognition process of a robot according to an embodiment of the present invention;

도 7은 도 6에 도시된 과정에 의해 구해지는 방향각을 이용한 주행 방법을 도시한 도면,FIG. 7 is a diagram illustrating a driving method using a direction angle obtained by the process illustrated in FIG. 6;

도 8a 내지 도 8c는 본 발명의 실시예에 따라 차영상을 획득하기 위한 영상처리의 예를 보여주는 도면,8A to 8C illustrate an example of image processing for obtaining a difference image according to an embodiment of the present invention;

도 9는 본 발명의 다른 실시예에 따라 이동로봇이 도킹 스테이션으로 호밍하 기 위한 삼각측량의 예를 보여주는 도면이다.9 is a diagram showing an example of triangulation for homing a mobile robot to a docking station according to another embodiment of the present invention.

본 발명은 이동로봇에 관한 것으로, 특히 능동형 표식점(active beacon)을 이용하는 실내 주행 이동 로봇(indoor mobile robot)의 위치 인식 및 주행 방법과 이를 적용한 이동로봇 시스템에 관한 것이다. The present invention relates to a mobile robot, and more particularly, to a location recognition and driving method of an indoor mobile robot using an active beacon and a mobile robot system using the same.

일반적으로 자율적인 로봇 주행 (autonomous robot navigation)을 실현하기 위해서는 로봇의 동작 환경 내에서 로봇의 위치 정보를 즉각적으로 파악할 수 있는 측위 (localization) 방법, 이로부터 동작 환경 내에서의 이동 경로를 생성하고 해당 경로를 따라 로봇 플랫폼을 제어하는 guidance 방법, 그리고 로봇의 동작 환경에 대한 정보를 수집, 관리하는 환경지도 작성 (environment map building) 방법으로 구성된다.In general, in order to realize autonomous robot navigation, a localization method capable of immediately grasping the location information of the robot in the robot's operating environment, from which a movement path in the operating environment is generated and It consists of a guidance method for controlling the robot platform along the route and an environment map building method for collecting and managing information on the robot's operating environment.

우선, 상기 환경지도는 크게 metric map과 topological map으로 구분할 수 있으며 metric 경로 생성 방법의 경우 정량적으로 표현된 로봇 환경 데이터로부터 생성된 로봇 경로에 대한 기설정된 임의의 성능지수를 최적화하는 방식으로 로봇 경로를 선택하는 일련의 방법을 지칭한다. 대표적인 형태로 그리드 (grid) 구조를 가지는 실내 평면도 형태의 환경지도와 상기 환경지도 내에서 최적 경로 혹은 로봇 플랫폼의 기구학적 구조 (kinematic structure)를 고려한 최적 제어방식을 선택하 는 경우를 들 수 있다. First, the environmental map can be largely divided into a metric map and a topological map. In the case of the metric path generation method, the robot path is optimized by optimizing an arbitrary predetermined performance index for the robot path generated from the quantitatively expressed robot environment data. Refers to a series of methods to select. Representative examples include an environment map having a grid structure and an optimal control method in consideration of an optimal path or kinematic structure of the robot platform in the environment map.

반면, topological 경로 생성 방법의 경우 로봇 환경내의 특징적인 위치, 예를 들어, 가구나 가전 제품, 문 입구 등을 기준으로 각 특징점간의 공간적 관계 (spatial relationship)를 기술하는 그래프 (graph) 형태의 환경 지도를 작성하고 이로부터 예를 들어, "문을 지나 냉장고 옆으로 이동"과 같은 형태의 경로를 작성할 수 있다. On the other hand, in the case of the topological path generation method, a graph-type environmental map describing the spatial relationship between each feature point based on a characteristic position in the robot environment, for example, furniture, appliances, and door entrances, is used. From this, you can create a route, for example, "move past the door and next to the refrigerator."

전술한 바와 같이 주어진 경로를 따라 로봇이 주행하거나 새로이 경로를 작성하기 위해서는 로봇의 현재 위치에 대한 정보가 필수적이며 로봇은 자신의 위치에 대한 정보를 언제든지 확인할 수 있어야 한다. 이러한 목적으로 로봇의 동작 환경내에 인공 특징점 (artificial landmark)을 설치하거나 자연 특징점 (natural landmark)을 환경 내에서 추출하는 방식을 취하기도 사용하기도 하며, 능동 표식점과 같이 빛이나 RF 신호를 발사하여 해당 신호의 수신 방향 (direction of arrival)등을 측정하여 로봇의 위치를 파악하는 방법을 사용할 수 있다. As described above, in order for the robot to travel along a given route or to create a new route, information about the current position of the robot is essential, and the robot should be able to check information about its position at any time. For this purpose, artificial landmarks can be installed in the robot's operating environment, or natural landmarks can be extracted from the environment.They can emit light or RF signals like active markers. A method of determining the position of the robot can be used by measuring the direction of arrival of the signal.

로봇 측위 (localization) 방법에서 대상으로 하는 정보는 도 1에 예시한 바와 같이 로봇의 2차원 좌표값 (xR,yR) 및 로봇의 방향각, 즉 진행 방향 (heading direction)에 대한 정보(

Figure 112004058049745-pat00001
)이다. 상기 위치 정보는 도 1에 예시한 로봇 환경내에 설정된 임의의 전역 좌표계 (world coordinate frame)
Figure 112004058049745-pat00002
를 기준으로 정의된다.The information targeted by the robot localization method includes two-dimensional coordinate values (x R , y R ) of the robot and information about the robot's direction angle, that is, the heading direction, as illustrated in FIG. 1.
Figure 112004058049745-pat00001
)to be. The position information may be any world coordinate frame set in the robot environment illustrated in FIG. 1.
Figure 112004058049745-pat00002
It is defined based on.

로봇 측위 방법과 관련하여 대한민국 특허 (출원번호 10-2001-0059501)에서 는 인공 표식점(artificial landmark)을 영상처리 과정을 통해 발견하고 이로부터 로봇의 측위 정보를 계산하는 경우에 로봇 환경의 조도값 특히, 인공 표식점에 대한 조명 조도값을 일정하게 유지하기 위한 방법 및 장치에 대하여 기술하고 있다. 상기 선행 특허는 카메라를 이용한 인공 표식점 발견 단계에서 주변 조도값에 따라 영상 처리 결과가 매우 밀접한 영향을 받게 되므로 조도값이 기설정한 최저치보다 낮게 측정되거나 사용자가 임의로 조도값을 조정하는 경우에 인공 표식점 인근에 함께 설치된 발광부에 전원을 공급하는 등의 방법으로 인공 표식점이 항상 발견될 수 있도록 발명한 것이다.In relation to the robot positioning method, the Korean patent application (Application No. 10-2001-0059501) discloses an illuminance value of the robot environment when an artificial landmark is found through an image processing process and the positioning information of the robot is calculated therefrom. In particular, a method and apparatus for maintaining a constant illumination illuminance value for an artificial marker point are described. In the above patent, the result of the image processing is very closely influenced by the peripheral illumination value in the artificial marker point discovery step using the camera, so that when the illumination value is measured lower than the preset minimum value or the user arbitrarily adjusts the illumination value, It is invented so that an artificial marker point can always be found by supplying power to a light emitting unit installed near the marker point.

또한 대한민국 특허(출원번호: 10-2001-0059501)에서는 로봇의 위치정보를 계산하기 위해 천장에 설치된 인공표식점을 관측하기 위한 천장지향형(ceiling directed) 카메라와 전방의 장애물이나 사물을 인식하기 위한 전방지향형(forward looking) 카메라를 구분하여 설치하고 천장에서 발견된 인공표식점으로부터 로봇의 현재 위치를 계산하는 일련의 방법을 기술하고 있다. 또 다른 선행 특허로 대한민국 특허(출원번호:10-2002-0019039)에서는 고유의 위치정보를 내장한 다수개의 센서 셀을 로봇 환경내의 바닥면에 설치하고 로봇이 주행 중 RF(Radio Frequency) 신호를 송수신하여 로봇 플랫폼 하부에 설치된 센서 셀의 위치정보를 판독하여 로봇의 위치 정보를 추정하는 방식에 대해 기술하고 있다. In addition, the Republic of Korea patent (application number: 10-2001-0059501) is a ceiling-directed (ceiling directed) camera for observing artificial markers installed on the ceiling to calculate the position information of the robot and the front to recognize obstacles or objects in front It describes a series of methods for separating forward looking cameras and calculating the robot's current position from an artificial landmark found on the ceiling. In another prior patent, the Korean patent (application number: 10-2002-0019039) installs a plurality of sensor cells with unique location information on the floor in the robot environment, and sends and receives RF (Radio Frequency) signals while the robot is driving. It describes a method of estimating the position information of the robot by reading the position information of the sensor cell installed under the robot platform.

한편, 미국 공개특허(US2004/0158354, Lee et al.)에서 로봇의 전원 충전을 위한 도킹 스테이션(docking station)으로의 호밍(homing)을 위해 로봇과 도킹 스테이션간의 상대적인 거리와 방향각을 측정할 수 있는 초음파 측위 방법에 대하여 기술하고 있다. 상기 특허 또한 로봇 측위 방법의 범주에 속하는 것이나 로봇의 도킹 단계의 경우에 로봇 위치 정보 계산을 두 개의 초음파 센서를 이용하여 해결하는 방법에 대해 기술하고 있다. Meanwhile, in US Patent Application Publication (US2004 / 0158354, Lee et al.), The relative distance and direction angle between the robot and the docking station can be measured for homing to a docking station for charging the robot. Ultrasonic positioning methods are described. The patent also belongs to the scope of the robot positioning method, but describes a method of solving the robot position information calculation using two ultrasonic sensors in the case of the docking step of the robot.

최근 RFID(Radio Frequency IDentification)와 관련된 기술의 활발한 전개와 함께, RFID와 관련된 국제 표준화가 진행되고 있으며 특히, 물류 및 위치 인식 등의 분야에 활발히 적용되고 있다. 임의의 RFID 시스템은 도 2에 예시한 바와 같이 RF 신호를 발생하고 주변의 RFID 태그(tag)로부터 수신된 RF 신호를 해석하는 판독기(reader), RFID 판독기로부터 송신된 신호에 커플링(coupling)되어 자체 내장된 고유 식별번호를 송신하는 RFID 태그, 그리고 RFID 판독기에 장착되는 안테나로 구성된다. 그리고, RFID 판독기를 운용하는 컴퓨터는 자체 혹은 원격 서버와 연결되어 태그 정보에 기반한 다양한 서비스 즉, 물류 관리, 위치 확인 등의 서비스를 제공할 수 있다. RFID 시스템은 판독기 안테나의 감지 영역 (detection area)내에 위치한 RFID 태그만을 활성화시킬 수 있으며 이러한 이유로 특정 RFID 태그가 RFID 판독기 주변에 존재하는 지의 정보만을 제공할 수 있다.Recently, with the active development of technologies related to RFID (Radio Frequency IDentification), international standardization related to RFID is progressing, and in particular, it is actively applied to the fields of logistics and location recognition. Any RFID system is a reader that generates an RF signal and interprets an RF signal received from a nearby RFID tag, as illustrated in FIG. 2, coupled to a signal transmitted from the RFID reader. It consists of an RFID tag that transmits its own unique identification number and an antenna mounted on the RFID reader. The computer operating the RFID reader may be connected to itself or a remote server to provide various services based on tag information, that is, services such as logistics management and location checking. The RFID system can only activate RFID tags located within the detection area of the reader antenna and for this reason can only provide information on whether a particular RFID tag is present around the RFID reader.

RFID를 이용한 로봇 측위와 관련되는 미국 공개특허(US 2003/0236590, Park et al.)에서는 RFID 태그를 어레이 형태로 제작하여 로봇 환경내의 바닥면에 설치하고 로봇 플랫폼의 밑면(bottom surface)에 다수의 RFID 판독기를 장착하여 로봇이 진행하면서 감지되는 RFID 태그의 고유식별번호로부터 로봇의 현재 위치

Figure 112004058049745-pat00003
를 추정하는 방법에 대해 기술하고 있다. In US Patent Publication (US 2003/0236590, Park et al.) Related to robot positioning using RFID, RFID tags are manufactured in an array form and installed on the bottom surface of the robot environment, and a plurality of bottom surfaces of the robot platform are provided. Equipped with an RFID reader, the robot's current position from the unique identification number of the RFID tag detected as the robot proceeds.
Figure 112004058049745-pat00003
It describes how to estimate.

RFID를 이용한 다른 사례로, 일본 공개특허(P2004-230539A)에서는 RFID 태그 로부터 수신된 신호 강도를 직선을 이루지 않는 서로 다른 세 지점에서 삼각측량의 방법으로 해당 RFID 태그에 대한 상대적인 로봇 매니퓰레이터 (manipulator)의 위치와 자세를 추정하는 방법을 개시하고 있다. 또한 일본 공개특허(P2004-160630A)에서는 RFID 태그로부터 읽혀진 정보를 바탕으로 이에 상응하는 로봇 행동을 제어하는 방법을 개시하고 있다. 그리고 일본 공개특허 (P2004-216513A)에서는 RFID 태그를 부착한 다수의 사용자를 수신된 RFID를 이용하여 구분하고, 동시에 RFID 태그로부터의 신호 강도를 이용하여 가장 근접한 사용자와 로봇간의 커뮤니케이션을 하는 방법에 대해 기술하고 있다.As another example of using RFID, Japanese Laid Open Patent Application (P2004-230539A) discloses a robot manipulator relative to the RFID tag by triangulation at three different points that do not form a straight line. A method for estimating position and attitude is disclosed. In addition, Japanese Laid Open Patent Application (P2004-160630A) discloses a method of controlling a corresponding robot behavior based on information read from an RFID tag. In Japanese Patent Application Laid-Open (P2004-216513A), a method of distinguishing a plurality of users with an RFID tag by using a received RFID, and at the same time, using a signal strength from the RFID tag to communicate with the closest user and a robot It is describing.

또한, 선행논문 "D. Hanhel et al., "Mapping and localization with RFID technology, IEEE Int. conf. Robotics and Automation, pp. 1015-1020,2004"에서는 미리 구해진 로봇 환경지도내에 부착된 RFID 태그의 2차원 위치를 추정하고 지도상에 맵핑 (mapping)하는 방식으로 particle filtering의 방법을 적용한 사례를 보여준다. 선행논문 "T. Tsukiyama, "Global navigation system with RFID tag," Proc. SPIE, vol. 4573, pp. 256-264, 2002" 에서는 로봇 환경내에 부착된 RFID 태그에 대한 topological map을 구하고 이로부터 로봇 주행을 위한 경로를 계산하는 방법을 제시하였다. 여기서, 로봇의 방향각은 로봇에 탑재된 카메라로부터 벽면과 바닥면으로 이루어진 에지(edge) 성분의 방향을 추출하여 보정하고 있다. Also, the preceding paper "D. Hanhel et al.," Mapping and localization with RFID technology, IEEE Int. conf. Robotics and Automation, pp. 1015-1020,2004 "shows an example of applying the method of particle filtering by estimating the two-dimensional position of the RFID tag attached in the robot environment map obtained in advance and mapping it on the map. Tsukiyama, "Global navigation system with RFID tag," Proc. SPIE, vol. 4573, pp. 256-264, 2002 "proposed a method of obtaining a topological map of an RFID tag attached to a robot environment and calculating a route for robot travel from it. Here, the direction angle of the robot is determined by the wall surface from the camera mounted on the robot. The direction of the edge component of the bottom surface is extracted and corrected.

이 외, 선행논문 "V. Kulyukin et al, "RFID in robot-assisted indoor navigation for the visually impaired," IEEE Int. Conf. on Intelligent Robots and Systems, PP. 1979-1984, 2004" 에서는 로봇 환경내에 RFID 태그를 설치하고 로봇 경로를 지나야 할 RFID 시퀀스로 작성한 예를 보여준다. 여기서, 로봇의 진행 방향은 로봇에 탑재된 레이저 스캐너로부터 획득한 거리 정보로부터 potential field를 계산하여 결정하는 방법을 사용하였다. 또한, 선행 논문 "K. Yamano et al, "Self localization of mobile robots with RFID system by using support vector IEEE Int. Conf. on Intelligent Robots and Systems, pp. 3756-3761, 2004, "에서는 로봇의 정량적인 위치를 추정하기 위해 RFID 판독기에 의해 수신된 복수개의 RFID 태그 신호의 패턴을 support vector machine에 의해 분류하여 로봇의 정성적 위치를 추정하는 방식을 사용하였다. In addition, the preceding article "V. Kulyukin et al," RFID in robot-assisted indoor navigation for the visually impaired, "IEEE Int. Conf. On Intelligent Robots and Systems, PP. 1979-1984, 2004 The following example shows how to install a tag and write an RFID sequence that must pass through the robot path. Here, the moving direction of the robot was determined by calculating the potential field from distance information obtained from a laser scanner mounted on the robot. In addition, K. Yamano et al, "Self localization of mobile robots with RFID system by using support vector IEEE Int. Conf. on Intelligent Robots and Systems, pp. 3756-3761, 2004, "In order to estimate the quantitative position of the robot, a method of estimating the qualitative position of the robot by classifying patterns of a plurality of RFID tag signals received by the RFID reader by a support vector machine. .

전술한 바와 같이, 최근의 RFID기술을 이용한 로봇 측위 방법 및 이에 따른 로봇 주행 방법에서는 RFID 태그 신호로부터 로봇의 정성적 위치 를 판단하고 로봇의 방향각을 추정하기 위해 카메라 혹은 레이저 스캐너와 같은 이종 센서를 사용하고 있는 실정이다. 상기 방향각을 추정하는 방법은 해당 센서에 내재하는 물리적 한계 예를 들어, 카메라의 경우 제한된 시야각, 조도 변화에 따른 불확실성 및 레이저 스캐너의 경우 센서 자체의 높은 가격 등의 이유로 손쉽게 구현하기가 매우 어렵다. As described above, in the robot positioning method and the robot driving method using the recent RFID technology, a heterogeneous sensor such as a camera or a laser scanner is used to determine the qualitative position of the robot from the RFID tag signal and estimate the direction angle of the robot. I'm using it. The method of estimating the direction angle is difficult to implement easily due to physical limitations inherent in the sensor, for example, a limited viewing angle in the case of a camera, an uncertainty due to a change in illuminance, and a high price of the sensor itself in a laser scanner.

최근의 RFID 기술의 폭넓은 응용성으로 인하여 RFID 태그 및 판독기의 가격이 지속적으로 낮아질 것으로 예상된다. 현재 RFID 판독기를 내장한 휴대폰의 출시를 포함하여 다양한 RFID 응용 제품들이 출시되고 있고 이러한 경향에 힘입어 향후 가전 제품을 포함하여 가정내의 가구나 기타 다양한 소품들에도 RFID 태그가 부착되어 출시될 수 있을 것이다. 따라서 상기 RFID 기술의 접목으로 기존 로봇 센서의 한계점인 로봇 환경내의 사물인식 문제가 매우 단순하게 해결될 것으로 예상된다. 하지만, RFID 시스템의 특성상 RFID 태그에 대한 정성적인 위치 정보만을 제공할 수 있으므로 로봇 측위의 목적에 사용하기 위해서는 상기 정성적 위치 정보 외에 로봇의 방향각에 대한 정보를 구할 수 있는 수단이 필요하다.The widespread applicability of recent RFID technologies is expected to keep the prices of RFID tags and readers low. Various RFID applications are currently being released, including the launch of mobile phones with RFID readers, and with this trend, RFID tags will be attached to household furniture and other various items including home appliances. Therefore, the object recognition problem in the robot environment, which is a limitation of the existing robot sensor, is expected to be solved very simply by incorporating the RFID technology. However, due to the characteristics of the RFID system, only the qualitative position information of the RFID tag can be provided, and thus, a means for obtaining information on the direction angle of the robot in addition to the qualitative position information is required for the purpose of robot positioning.

따라서 본 발명의 목적은 상기와 같은 필요성에 의해 제안된 것으로, RFID를 이용한 로봇 측위 시스템에서, 로봇의 위치와 방향각에 대한 정보를 현 위치에서 즉각적으로 추정하도록 하여 이에 따른 경로 계획 및 로봇주행이 손쉽게 이루어질 수 있는 이동로봇 위치 인식 및 주행방법과 이를 이용한 이동로봇 시스템을 제공하는 것이다.
Therefore, the object of the present invention has been proposed by the necessity as described above, in the robot positioning system using RFID, it is possible to immediately estimate the information on the position and direction angle of the robot at the current position, and accordingly route planning and robot driving It is to provide a mobile robot position recognition and driving method that can be easily made and a mobile robot system using the same.

상술한 목적을 달성하기 위한 본 발명에 따른 이동로봇 시스템은,Mobile robot system according to the present invention for achieving the above object,

임의의 실내환경내의 소정 위치에 부착되며 LED를 가지는 RFID 태그와; RFID 판독기와, 카메라를 구비하며, 상기 RFID 판독기로 신호를 송출하여 상기 RFID태그에 구비된 LED를 온/오프시키며, 특정 RFID 태그에 구비된 LED가 켜진 상태의 제1영상과 LED가 꺼진 상태의 제2영상을 상기 카메라로 획득하고, 상기 획득된 제1영상 및 상기 제2영상의 차 영상을 이용하여 위치 인식 및 주행방법을 결정하는 이동로봇으로 구성된다.An RFID tag attached to a predetermined position in any indoor environment and having an LED; It has an RFID reader and a camera, and sends a signal to the RFID reader to turn on / off the LED provided in the RFID tag, the first image and the LED is turned off And a mobile robot configured to acquire a second image by the camera and determine a location recognition and driving method by using the obtained first image and the difference image of the second image.

상술한 목적을 달성하기 위한 본 발명에 따른 방법은,The method according to the present invention for achieving the above object,

주행명령을 수신하면, 상기 주행명령에 따른 경로를 생성하는 제1단계; 특정 RFID태그를 발견하고, 상기 특정 RFID태그에 구비된 LED가 켜진 상태의 영상과 꺼진 상태의 영상을 획득하는 제2단계; 상기 LED가 켜진 상태의 영상과 꺼진 상태의 영상간의 차 영상을 이용하여 로봇의 위치인식 및 진행방향각을 결정하는 제3단계;를 포함한다.Receiving a driving command, generating a route according to the driving command; A second step of discovering a specific RFID tag and acquiring an image of an LED on and an off state of the specific RFID tag; And determining a position recognition and a moving direction angle of the robot by using the difference image between the image of the LED on state and the image of the off state.

이하 본 발명의 바람직한 실시예의 상세한 설명이 첨부된 도면들을 참조하여 설명될 것이다. 하기에서 본 발명을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. DETAILED DESCRIPTION A detailed description of preferred embodiments of the present invention will now be described with reference to the accompanying drawings. In the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

본 발명이 적용되는 이동로봇 시스템은, 크게, 이동로봇과, 임의의 실내환경내의 소정 위치에 부착되며 LED를 가지는 다수의 RFID 태그와, 로봇의 충전 및 대기를 위해 자체에 LED를 내장하고 서로 일직선상에 놓여져 있지 않은 세 개 이상의 RFID태그가 부착된 도킹 스테이션(Docking Station)을 포함하여 구성된다. 상기 이동로봇은 후술하는 바와 같이, RFID판독기 및 안테나, 장애물 감지를 위한 센서부, 로봇의 방향각 측정을 위한 카메라, 로봇 플레폼으로 구성되며, 내부에 본 발명의 실시예에 따른 위치 인식 및 주행방법을 수행하기 위한 위치인식 및 주행 제어수단을 가지고 있다. 이하, 본 발명에 따른 이동로봇 시스템과 이동로봇의 위치 인식 및 주행 방법에 대하여 상세히 설명한다. The mobile robot system to which the present invention is applied is largely a mobile robot, a plurality of RFID tags attached to a predetermined position in an indoor environment, and having LEDs, and having LEDs embedded in themselves for charging and waiting for the robot and being aligned with each other. It comprises a docking station with three or more RFID tags attached to it that are not placed on it. As described below, the mobile robot includes an RFID reader and an antenna, a sensor unit for detecting an obstacle, a camera for measuring a direction angle of the robot, and a robot platform, and recognizes and travels therein according to an embodiment of the present invention. Location recognition and travel control means for carrying out the method. Hereinafter, the mobile robot system and the position recognition and driving method of the mobile robot according to the present invention will be described in detail.

RFID 태그의 전파 특성은 무지향성을 가지거나 매우 넓은 빔폭 (beam width) 을 가지는 경우가 대부분이다. 따라서, 로봇이 주행 중에 특정 RFID 태그를 발견하였다 하더라도 상기 RFID 태그에 대한 로봇의 상대적인 방향각을 알 수 없다. 이런 경우 로봇은 주어진 경로 시퀀스상의 다음 RFID 태그를 찾기 위해 임의의 방향으로 진행하여 처음으로 발견된 RFID 태그의 ID로부터 로봇의 진행 방향을 추정한 후에야 원래의 목적한 RFID 태그를 찾기 위한 방향을 추정할 수 있게 된다. The propagation characteristics of RFID tags are mostly omnidirectional or very wide beam widths. Therefore, even if the robot finds a specific RFID tag while driving, the relative direction angle of the robot with respect to the RFID tag is not known. In this case, the robot must proceed in any direction to find the next RFID tag on a given path sequence and estimate the direction of the robot from the ID of the first RFID tag found. It becomes possible.

상기 문제점을 해결하기 위해 본 발명에 따른 RFID를 이용한 로봇 위치 인식 및 주행방법에서는 도 3에 예시한 바와 같이 LED (Light Emitting Diode) 310이 내장된 RFID 태그 310를 이용한다. 상기 LED를 장착한 RFID 태그 310은 전술한 바와 같이, 실내환경의 임의의 위치에 배치된다. 이동 로봇은 임의의 RFID 태그로부터의 상대적인 로봇 방향각을 추정하기 위해 로봇에 장착된 카메라를 이용하여 LED 영상을 획득한 후 영상 처리 단계를 거쳐 로봇의 방향각을 추정하게 된다.In order to solve the above problems, the robot position recognition and driving method using RFID according to the present invention uses an RFID tag 310 having a built-in LED (Light Emitting Diode) 310 as illustrated in FIG. 3. As described above, the RFID tag 310 equipped with the LED is disposed at any position of the indoor environment. The mobile robot acquires an LED image using a camera mounted on the robot to estimate the relative robot direction angle from an arbitrary RFID tag, and then estimates the direction angle of the robot through an image processing step.

도 4는 LED가 내장된 RFID태그와 LED를 바라보는 이동로봇에 탑재된 카메라의 키하학적 관계를 보여주는 도면이다. 상기 도 4에서

Figure 112004058049745-pat00004
는 카메라 렌즈 중심에 설정된 카메라 좌표계를 나타내며,
Figure 112004058049745-pat00005
는 2차원 이미지 평면의 좌표계,
Figure 112004058049745-pat00006
는 RFID 태그에 장착한 LED 의 좌표값을 상기 카메라 좌표계에 대해 나타낸 것이다. 상기 도 4에서 2차원 이미지 평면상에 맺히는 LED의 픽셀 좌표값은
Figure 112004058049745-pat00007
로 나타내었다. 상기 도 4에서
Figure 112004058049745-pat00008
는 카메라 초점 거리,
Figure 112004058049745-pat00009
,
Figure 112004058049745-pat00010
는 각각 카메라 좌표계와 RFID 태그간의 고도각 (elevation angle), 방위각 (azimuth angle) 을 나타내며 각각의 각도는 하기 <수학식 1> 과 <수학식 2>를 이용하여 구해진다.4 is a diagram showing the key relationship between the RFID tag embedded with the LED and the camera mounted on the mobile robot looking at the LED. In FIG. 4 above
Figure 112004058049745-pat00004
Indicates the camera coordinate system set at the center of the camera lens.
Figure 112004058049745-pat00005
Is the coordinate system of the two-dimensional image plane,
Figure 112004058049745-pat00006
Denotes the coordinate value of the LED mounted on the RFID tag with respect to the camera coordinate system. In FIG. 4, the pixel coordinate values of the LED formed on the two-dimensional image plane are
Figure 112004058049745-pat00007
Represented by. In FIG. 4 above
Figure 112004058049745-pat00008
The camera focal length,
Figure 112004058049745-pat00009
,
Figure 112004058049745-pat00010
Represents an elevation angle and an azimuth angle between the camera coordinate system and the RFID tag, respectively, and the angles are obtained using Equations 1 and 2 below.

Figure 112005064220463-pat00046
Figure 112005064220463-pat00046

Figure 112005064220463-pat00047
Figure 112005064220463-pat00047

상기 <수학식 1> 과 <수학식 2>를 적용하기 위해 이동로봇에 탑재되는 카메라는 미리 캘리브레에션 되어 있어야 한다.In order to apply the above Equations 1 and 2, the camera mounted on the mobile robot must be calibrated in advance.

도 5는 본 발명의 실시예에 따른 이동로봇을 보여주며, 이동로봇에 탑재된 카메라 좌표계와 로봇 좌표계간의 관계를 도시한 도면이다. 5 shows a mobile robot according to an embodiment of the present invention, and shows a relationship between a camera coordinate system and a robot coordinate system mounted on the mobile robot.

상기 도 5를 참조하면, 본 발명의 실시예에 따른 이동로봇 로봇플랫폼 500, 카메라 520 및 본 발명에 따른 위치 인식 및 주행방법을 수행하기 위한 위치 인식 및 주행제어수단 510을 포함하여 구성된다. 또한 도면에 도시하지는 않았지만, RFID를 판독하거나, RF 신호를 발생하는 RFID판독기 및 안테나, 장애물 감지를 위한 센서부를 더 포함하여 구성된다. 이하, 설명의 편의를 위해 카메라 좌표계와 로봇 좌표계는 거리 H만큼 떨어져 있으면서 로봇의 회전축 yR과 카메라 좌표축 xR는 일치하는 것으로 가정한다. 따라서, 상기 <수학식 1>에 의해 구해진 RFID 태그와 카메라간의 상대적인 방위각 차이인

Figure 112004058049745-pat00013
만큼 로봇을 회전시켜 로봇의 진행 방향과 RFID 태그의 정면을 일치시킬 수 있다. Referring to FIG. 5, the mobile robot robot platform 500, the camera 520, and the location recognition and travel control means 510 for performing the location recognition and driving method according to the present invention are configured. In addition, although not shown in the drawings, the RFID reader or the RFID reader for generating an RF signal and the antenna, and further comprises a sensor for detecting the obstacle. Hereinafter, for convenience of explanation, it is assumed that the camera coordinate system and the robot coordinate system are spaced apart by the distance H while the rotation axis y R of the robot and the camera coordinate axis x R coincide. Therefore, the relative azimuth difference between the RFID tag and the camera obtained by Equation 1
Figure 112004058049745-pat00013
By rotating the robot as much as possible, the moving direction of the robot and the front of the RFID tag can be matched.

도 6은 본 발명의 실시예에 따른 로봇의 위치인식 과정을 보여주는 흐름도이고, 도 7은 상기 도 6에 도시된 과정에 의해 구해지는 방향각을 이요한 로봇의 주행 방법을 도시한 도면이다. 즉, 도 6의 과정은, 본 발명에 따른 RFID를 이용한 로봇위치 인식 방법을 이용하는 경우에 사용자나 로봇의 자체적인 주행 목적을 위해 현재 위치로부터 임의의 목적지까지 이동명령이 주어진 경우 현재 위치에서의 이동로봇의 방향각을 추정하는 과정을 보여주는 도면이다.6 is a flowchart illustrating a position recognition process of a robot according to an exemplary embodiment of the present invention, and FIG. 7 is a diagram illustrating a driving method of a robot using a direction angle obtained by the process illustrated in FIG. 6. That is, the process of Figure 6, in the case of using the robot position recognition method using the RFID according to the present invention when the movement command is given from the current position to any destination for its own driving purpose of the user or the robot moves at the current position A diagram showing a process of estimating the direction angle of a robot.

본 발명에 따른 이동로봇의 위치 인식 및 주행 방법은 주행명령을 수신하면, 상기 주행명령에 따른 경로를 생성하는 제1단계와, 특정 RFID태그를 발견하고, 상기 특정 RFID태그에 구비된 LED가 켜진 상태의 영상과 꺼진 상태의 영상을 획득하는 제2단계; 상기 LED가 켜진 상태의 영상과 꺼진 상태의 영상간의 차 영상을 이용하여 로봇의 위치인식 및 진행방향각을 결정하는 제3단계로 구성된다. 상기 도 6 및 도 7에서, S601내지 S602는 제1단계에 해당하고, S603 내지 S607은 제2단계에 해당하고, S608내지 S610은 제3단계에 해당한다. In the mobile robot according to the present invention, the method for recognizing a position and driving a vehicle may include generating a route according to the driving command, discovering a specific RFID tag, and turning on an LED included in the specific RFID tag. A second step of acquiring an image of the state and an image of the off state; And a third step of determining the position recognition and the moving direction angle of the robot by using the difference image between the image of the LED on and the image of the off state. 6 and 7, S601 to S602 correspond to a first step, S603 to S607 correspond to a second step, and S608 to S610 correspond to a third step.

이하 상기 도 6및 도 7을 참조하여 상세히 설명한다. 이하의 설명에 있어서, 이동로봇의 제어는 상기 위치인식 및 주행제어수단에 의해 제어된다.Hereinafter, a detailed description will be given with reference to FIGS. 6 and 7. In the following description, the control of the mobile robot is controlled by the position recognition and travel control means.

먼저 S601단계에서 주행명령 예를 들어, "거실에 놓여진 소파 옆으로 와"라는 명령이 주어지면 이동로봇은 미리 주어진 환경 지도상에서 소파에 최인접한 RFID 태그를 확인한다. 이 후, S602단계에서 주행경로를 생성하기 위해, 로봇에 탑재한 RFID 판독기를 통해 현재 위치에서 로봇에 최인접한 RFID 태그를 찾는다. 이 과정은 RFID 판독기로부터 송신되는 신호의 강도를 가장 약한 단계부터 차츰 증가시키면서 최초로 발견되는 RFID 태그를 최인접한 RFID 태그라고 인식한다. 만약 복수개의 RFID 태그가 발견되는 경우 임의로 하나를 선택한다. 도 7에 예시한 것처럼 도 6의 S602단계에서 구해진 현재 로봇의 위치에서 가장 가까이 위치한 RFID 태그가 RFID #1이고 목적지에서 최인접한 RFID 태그를 RFID #2라고 했을 때 미리 작성된 로봇 환경지도 내에서 RFID #1과 RFID #2간의 방향벡터

Figure 112004058049745-pat00014
를 계산한다. 이 때, RFID #1과 RFID #2의 전역 좌표값은 로봇 환경내에 임의로 설정한 전역 좌표계에 대해 표현된 값이 된다. First, in step S601, when a driving command is given, for example, "come to the sofa placed in the living room", the mobile robot checks the RFID tag closest to the sofa on a predetermined environment map. Thereafter, in step S602, the RFID tag mounted on the robot is used to find the RFID tag closest to the robot at the current location. This process recognizes the first RFID tag found as the nearest RFID tag while gradually increasing the strength of the signal transmitted from the RFID reader from the weakest step. If a plurality of RFID tags are found, one is arbitrarily selected. As illustrated in FIG. 7, when the RFID tag located closest to the current robot's position obtained in step S602 of FIG. 6 is RFID # 1 and the RFID tag closest to the destination is RFID # 2, the RFID # is created in the robot environment map prepared in advance. Direction vector between 1 and RFID # 2
Figure 112004058049745-pat00014
Calculate At this time, the global coordinate values of the RFID # 1 and the RFID # 2 are values expressed for the global coordinate system arbitrarily set in the robot environment.

상기 S601 및 S602단계를 거친 후, 로봇은 최인접한 RFID 태그, 예를 들어, RFID #1에 대한 상대적인 방향각을 계산한다. 발견된 RFID #1은 감지 영역내의 임의의 위치에 존재할 수 있으므로 카메라로 LED가 점등된 상태의 영상을 획득하기 위해 카메라가 로봇에 고정된 경우 로봇이 제자리에서 회전하되 각 회전시 얻어지는 영상간에 중첩 영역이 있도록 한다. 만약, 카메라 자체에 스캐닝 기능이 있는 경우 카메라를 회전시킬 수 있다.After the steps S601 and S602, the robot calculates a relative direction angle with respect to the nearest RFID tag, for example, RFID # 1. Since the detected RFID # 1 can exist at any position within the detection area, the robot rotates in place when the camera is fixed to the robot to acquire the image of the LED on with the camera, but the overlapping area between the images obtained at each rotation This should be. If the camera itself has a scanning function, the camera can be rotated.

S603단계에서, 이동로봇에 구비된 RFID 판독기에 의해 특정 RFID태그에 구비된 LED를 온시키고, S604단계에서, 상기 이동로봇에 구비된 카메라를 이용하여, LED가 켜진 상태의 제1영상을 획득한다. 이후, S605단계에서, 상기 이동로봇에 구비된 RFID 판독기에 의해 특정 RFID태그에 구비된 LED를 오프 시키고, S606단계에서, 상기 이동로봇에 구비된 카메라를 이용하여, LED가 꺼진 상태의 제2영상을 획 득한다. 다음에, S607단계에서, 상기 제1영상과 상기 제2영상의 차 영상을 획득한다. In step S603, the LED included in the specific RFID tag is turned on by the RFID reader included in the mobile robot, and in step S604, the first image of the LED is turned on by using the camera provided in the mobile robot. . Thereafter, in step S605, the LED included in the specific RFID tag is turned off by the RFID reader included in the mobile robot, and in step S606, the second image of the LED is turned off using the camera provided in the mobile robot. Acquire it. Next, in operation S607, a difference image between the first image and the second image is obtained.

즉, S603 내지 S605단계에서 로봇에 탑재된 RFID 판독기로 RF 신호를 송출한 후 영상을 획득하고 같은 자세에서 RF 신호 송출을 멈추어 같은 장면을 획득하도록 한다. 그리고, S607단계에서, 두 영상간의 차 영상 (difference image)을 획득한다. 도 8a는 상기 S603, S604단계를 거쳐 로봇의 현재 위치에서 LED가 카메라의 시야각에 함께 잡힌 영상을 나타낸다. 도 8b는 상기 S605, S606단계를 거쳐 로봇이 같은 지점에서 RF 신호 송출을 멈추어 상기 LED를 소등시키고 이 때의 상태를 로봇에 탑재된 카메라로 획득한 예이다. 이후, 상기 S607단계에서, 도 8a와 도 8b로부터 차 영상 (difference image)을 계산하면 도 8c와 같이 LED 영상의 위치를 손쉽게 확인할 수 있게 된다. 이 때, 상기 차 영상을 얻기 위한 관계식은

Figure 112004058049745-pat00015
크기의 영상을 제공하는 카메라의 경우 하기 <수학식 3>과 같이 표현할 수 있다.That is, after transmitting the RF signal to the RFID reader mounted on the robot in steps S603 to S605 to obtain an image and stop transmitting the RF signal in the same posture to obtain the same scene. In operation S607, a difference image between two images is acquired. 8A illustrates an image in which LEDs are held together at the viewing angle of the camera at the current position of the robot through steps S603 and S604. 8B illustrates an example in which the robot stops transmitting RF signals at the same point through steps S605 and S606 to turn off the LED and acquires a state at this time with a camera mounted on the robot. Subsequently, in step S607, when the difference image is calculated from FIGS. 8A and 8B, the position of the LED image can be easily identified as shown in FIG. 8C. At this time, the relation for obtaining the difference image is
Figure 112004058049745-pat00015
In the case of a camera providing an image of a size, it may be expressed as in Equation 3 below.

Figure 112004058049745-pat00016
Figure 112004058049745-pat00016

상기 <수학식 3>에서,

Figure 112004058049745-pat00017
는 상기 제1영상의 픽셀위치 (i,j)에서의 밝기값,
Figure 112004058049745-pat00018
는 상기 제2영상의 픽셀위치 (i,j)에서의 밝기값에 해당한다. 상기 <수학식 3>을 적용함에 있어 영상 잡음을 제거하거나 글레어(glare)에 의한 위치 계산시의 오차를 줄이기 위해 적절한 필터링 단계를 거칠 수 있다.In Equation 3,
Figure 112004058049745-pat00017
Is a brightness value at the pixel position (i, j) of the first image,
Figure 112004058049745-pat00018
Corresponds to a brightness value at the pixel position (i, j) of the second image. In applying Equation 3, an appropriate filtering step may be performed to remove image noise or reduce an error in calculating a position by a glare.

상기 도 6의 S608단계에서, 상기 제1영상과 상기 제2영상의 차영상에서, LED 영상이 발견되는지를 판단하고, 상기 차 영상에 LED 영상이 존재하지 않으면, 이동로봇 또는 카메라를 소정 각도 회전시킨 후, LED가 발견될 때까지 상기 S603 내지 S608단계를 반복하게 된다. In step S608 of FIG. 6, it is determined whether the LED image is found in the difference image between the first image and the second image, and if the LED image does not exist in the difference image, the mobile robot or the camera is rotated by a predetermined angle. After that, the steps S603 to S608 are repeated until the LED is found.

상기 S608단계에서, LED 영상의 위치는

Figure 112004058049745-pat00019
이미지를 몇 개의 패치형태의 영역으로 구분하고 각 영역의 밝기값을 단순 합한 후 미리 설정한 임계값 (threshold value) 이상인지를 조사한다. 만약 기설정한 임계값 이상인 경우 LED가 해당 영역에 존재하는 것으로 판단하고 원래의
Figure 112004058049745-pat00020
영상의 u, v가 증가하는 방향으로 스캔하는 등의 방식으로 간단히 검출할 수 있다. 상기 방식으로 LED 위치를 검출한 후 S610단계에서, <수학식 1>을 이용하여 로봇과 상기 RFID #1 태그간의 상대적인 방위각을 계산하게 된다.In step S608, the position of the LED image is
Figure 112004058049745-pat00019
The image is divided into several patch-shaped regions, and the brightness values of each region are simply summed, and then examined to see whether or not it is above a predetermined threshold value. If it is over the preset threshold, it is determined that the LED exists in the area and
Figure 112004058049745-pat00020
It can be detected simply by scanning in the direction of increasing u and v of the image. After detecting the LED position in the above manner, in step S610, the relative azimuth angle between the robot and the RFID # 1 tag is calculated using Equation (1).

한편, 도 7에 되시된 바와 같이 로봇이 RFID #1을 발견하고 상대적인 방위각 정보를 계산하더라도 로봇과 RFID #1의 실제 거리에 대한 정보는 알 수 없다. 즉, 로봇은 도 7에 도시된 것처럼

Figure 112004058049745-pat00021
방향을 따라 RFID #1이 감지되는 거리내의 무한개 지점에 위치할 수 있다. 따라서 현재 로봇 위치로부터 목적지 RFID #2까지의 직선 경로에 해당하는
Figure 112004058049745-pat00022
를 계산할 수 없게 된다. Meanwhile, as shown in FIG. 7, even when the robot discovers RFID # 1 and calculates relative azimuth information, information about the actual distance between the robot and RFID # 1 may not be known. That is, the robot is as shown in FIG.
Figure 112004058049745-pat00021
Along the direction, the RFID # 1 may be located at infinite points within the detected distance. Therefore, the straight path from the current robot position to the destination RFID # 2
Figure 112004058049745-pat00022
Cannot be calculated.

상기 문제를 해결하기 위해 본 발명에 따른 RFID를 이용한 로봇 위치 인식 및 주행방법에서는 미리 알고 있는 RFID #1로부터 목적지 RFID #2까지의 방향 벡터와 평행하도록 로봇을 구동한다. 이것은 도 7에서

Figure 112004058049745-pat00023
만큼 로봇을 회전시킨 후의 진 행 방향을 따라 로봇을 이동하는 것이 된다. 로봇은 상기 진행 방향을 따라 이동 중에 로봇에 탑재된 RFID 판독기를 이용하여 RFID #2를 계속 탐색하고 만약 도 7에 나타낸 바와 같이 로봇이
Figure 112004058049745-pat00024
위치에서 RFID #2가 응답하여 발견되는 경우 S603내지 S610단계를 반복하여 RFID #2로의 진행 방향을 새롭게 정한다.In order to solve the above problem, the robot position recognition and driving method using RFID according to the present invention drives the robot to be parallel to the direction vector from the known RFID # 1 to the destination RFID # 2. This is in Figure 7
Figure 112004058049745-pat00023
The robot is moved along the progress direction after the robot has been rotated. The robot continues to search RFID # 2 using the RFID reader mounted on the robot while moving along the traveling direction.
Figure 112004058049745-pat00024
If RFID # 2 is found in response to the location, steps S603 to S610 are repeated to newly determine the moving direction to RFID # 2.

상기 LED 영상을 획득하고 영상내의 픽셀 위치를 구하는 과정을 이동 중에 반복함으로써 로봇은 RFID #2 방향으로 로봇을 회전하면서 이동시키기 위한 방향각 정보를 획득하고 최종 지점인

Figure 112004058049745-pat00025
까지 도달하여 목적지에 도착하게 된다. 이 때, 로봇의 RFID #2로의 진행 방향은 LED 영상의 픽셀 위치를 특정 지점에 머무르도록 로봇을 제어함으로써 목적에 따라 정면을 취하거나 기타 다양한 각도로 진입할 수 있다.By repeating the process of acquiring the LED image and obtaining the pixel position in the image during the movement, the robot acquires the direction angle information for rotating the robot in the direction of RFID # 2,
Figure 112004058049745-pat00025
You will arrive at your destination. At this time, the direction of the robot's progression to RFID # 2 may control the robot to maintain the pixel position of the LED image at a specific point, so that the robot may take a front face or enter various other angles according to the purpose.

도 9는 본 발명에 다른 실시예에 따른 RFID를 이용한 로봇 위치 인식 및 주행방법을 보여주는 도면이다. 즉, 이동로봇이 자체 탑재한 배터리 충전 등의 목적으로 도킹 스테이션 (docking station)으로 호밍 (homing)하는 경우를 나타낸 것이다. 상기 도킹 스테이션에는 자체에 LED를 내장하고 일직선상에 놓여 있지 않은 세 개 이상의 RFID 태그를 부착하고 있다. 이 때, 각 LED의 좌표값은 도킹 스테이션내의 임의의 위치에 대해 표현하도록 한다. 9 is a view showing a robot position recognition and driving method using RFID according to another embodiment of the present invention. In other words, the mobile robot homing to the docking station (docking station) for the purpose of charging the battery mounted therein. The docking station is equipped with three or more RFID tags that have their own LEDs and are not in line. At this time, the coordinate value of each LED is to be expressed for any position in the docking station.

먼저, 로봇은 예를 들어 충전의 목적으로 도킹 스테이션으로 이동할 필요가 생기면 로봇에 탑재된 RFID 판독기로 도킹 스테이션에 부착된 RFID 태그 중 임의의 하나를 탐색한다. 해당 RFID 태그가 발견되면 현재 위치로부터 도킹 스테이션으로 호밍하기 위하여 세 개의 RFID 태그를 차례대로 호출하여 각각의 LED를 점등 및 소등한다. 이 때 로봇에 탑재된 카메라를 이용하여 각각의 LED의 점등 및 소등 상태의 장면을 획득하고 차 영상을 획득한 후 이로부터 LED 영상의 픽셀 위치를 계산한다. 상기 획득된 LED 영상의 픽셀위치로부터 상기 <수학식 1>을 이용하여 각 LED에 대한 로봇의 방향각을 계산한다. 이 때, 각 LED 영상을 얻는 것은 상기 RFID 태그를 동시에 탐색하는 등의 방법을 이용하여 세 개의 LED 영상을 한 장으로 획득할 수도 있다. 이 경우 한 장의 차 영상으로부터 각각의 LED 영상에 대한 로봇의 상대 방향각을 계산한다.First, the robot searches for any one of the RFID tags attached to the docking station with an RFID reader mounted on the robot if it needs to move to the docking station, for example for charging purposes. When the corresponding RFID tag is found, three LED tags are called in order to turn on and off each LED in order to homing from the current position to the docking station. At this time, the camera mounted on the robot is used to acquire the scenes of each LED on and off state, and after obtaining the difference image, the pixel position of the LED image is calculated therefrom. The direction angle of the robot for each LED is calculated by using Equation 1 from the pixel position of the obtained LED image. At this time, to obtain each LED image may be obtained three LED images by using a method such as searching the RFID tag at the same time. In this case, the relative direction angle of the robot for each LED image is calculated from one difference image.

도 9에서,

Figure 112004058049745-pat00026
는 각각 LED1, LED2, LED3로부터 측정된 로봇의 상대적인 방향각을 나타낸다. LED1, LED2, LED3는 도킹 스테이션내에 설정한 좌표계 {xD, yD}로부터 표현된 좌표값을 가지고 있으므로 로봇의 현재 위치 및 방향각은 삼각 측량 (triangulation)을 통해 도 9에 예시한 것처럼
Figure 112004058049745-pat00027
Figure 112004058049745-pat00028
로 표현된다. 따라서, 로봇이 도킹 스테이션으로 호밍시 상기
Figure 112004058049745-pat00029
만큼 회전을 한 후, |
Figure 112004058049745-pat00030
|의 거리를 진행하여 올바른 위치로 진입할 수 있다. In Figure 9,
Figure 112004058049745-pat00026
Are the relative orientation angles of the robot measured from LED1, LED2 and LED3, respectively. Since LED1, LED2, and LED3 have coordinate values expressed from the coordinate system {x D , y D } set in the docking station, the current position and orientation angle of the robot are as shown in FIG. 9 through triangulation.
Figure 112004058049745-pat00027
Wow
Figure 112004058049745-pat00028
It is expressed as Thus, when the robot homs to the docking station,
Figure 112004058049745-pat00029
After making enough turns, |
Figure 112004058049745-pat00030
You can enter the correct position by going through the distance of |

위에서 양호한 실시 예에 근거하여 이 발명을 설명하였지만, 이러한 실시 예는 이 발명을 제한하려는 것이 아니라 예시하려는 것이다. 이 발명이 속하는 분야의 숙련자에게는 이 발명의 기술사상을 벗어남이 없이 위 실시 예에 대한 다양한 변화나 변경 또는 조절이 가능함이 자명할 것이다. 그러므로, 이 발명의 보호범위 는 첨부된 청구범위 뿐만 아니라, 위와 같은 변화예나 변경예 또는 조절예를 모두 포함하는 것으로 해석되어야 할 것이다.While the invention has been described above based on the preferred embodiments thereof, these embodiments are intended to illustrate rather than limit the invention. It will be apparent to those skilled in the art that various changes, modifications, or adjustments to the above embodiments can be made without departing from the spirit of the invention. Therefore, the protection scope of the present invention should be construed to include not only the appended claims but also all of the above-described changes, modifications or adjustments.

상술한 바와 같이 본 발명은 실내에서 주행하는 이동로봇으로 하여금 인근의 RFID 태그를 발견하여 이로부터 로봇의 자세 정보를 획득하도록 함으로써 로봇 주행이 가능하도록 한다. RFID를 이용함으로써 초음파 센서, 레이저 스캐너, 카메라 등과 같은 기존의 로봇 센서만을 이용한 경우에 비해 매우 신뢰성 높은 로봇 주행을 구현할 수 있으며 로봇 측위 정보에 대한 매우 빠른 응답 속도를 가질 수 있다. As described above, the present invention enables the robot to travel by finding a nearby RFID tag and acquiring the attitude information of the robot from the robot. By using RFID, it is possible to realize highly reliable robot driving and to have a very fast response speed for robot positioning information, compared to the case of using only conventional robot sensors such as an ultrasonic sensor, a laser scanner, and a camera.

본 발명에 따른 RFID를 이용한 로봇 위치 인식 및 주행 방법은 RFID 태그의 절대 위치를 입력하는 단계에서 RFID 태그간의 실제 거리를 측정할 필요없이 RFID 태그간의 상대적인 방향각만을 입력하면 되므로 topological map 형태의 환경 지도를 구성하는 것이 매우 단순하다. In the robot position recognition and driving method using RFID according to the present invention, only the relative direction angle between RFID tags is input without the actual distance between the RFID tags in the step of inputting the absolute position of the RFID tags. It is very simple to construct.

따라서, 본 발명에 따른 RFID를 이용한 로봇 위치 인식 및 주행 방법은 RFID 태그를 실내 벽면이나 기타 지점에 부착함으로써 공장, 사무실을 포함하여 실내 가정 환경에까지 적용이 가능하며 RFID 시스템 설치를 위한 추가 공사가 필요치 않으므로 매우 경제적이다.이점이 있다. Therefore, the robot position recognition and driving method using RFID according to the present invention can be applied to indoor home environments including factories and offices by attaching RFID tags to indoor walls or other points, and additional construction for RFID system installation is required. So it's very economical.

Claims (10)

임의의 실내 환경에서 동작하는 RFID를 이용한 이동로봇 시스템으로서,A mobile robot system using RFID that operates in any indoor environment, 임의의 실내환경내의 소정 위치에 부착되며 LED를 가지는 RFID 태그와;An RFID tag attached to a predetermined position in any indoor environment and having an LED; RFID 판독기와, 카메라를 구비하며, 상기 RFID 판독기로 신호를 송출하여 상기 RFID태그에 구비된 LED를 온/오프시키며, 특정 RFID 태그에 구비된 LED가 켜진 상태의 제1영상과 LED가 꺼진 상태의 제2영상을 상기 카메라로 획득하고, 상기 획득된 제1영상 및 상기 제2영상의 차 영상을 이용하여 위치 인식 및 주행방법을 결정하는 이동로봇;을 포함하는 RFID를 이용한 이동로봇 시스템.It has an RFID reader and a camera, and sends a signal to the RFID reader to turn on / off the LED provided in the RFID tag, the first image and the LED is turned off And a mobile robot for acquiring a second image with the camera and determining a location recognition and driving method using the obtained first image and the difference image of the second image. 제1항에 있어서, The method of claim 1, 적어도 세개 이상의 LED를 가지는 RFID태그가 부착되며, 상기 RFID태그는 일직선상에 놓여져 있지 않은, 상기 이동로봇의 배터리 충전 및 호밍을 위한 도킹 스테이션을 더 포함하는 것을 특징으로 하는 이동로봇 시스템.And an RFID tag having at least three LEDs attached thereto, the RFID tag further comprising a docking station for battery charging and homing of the mobile robot. 제2항에 있어서, 상기 이동로봇은The method of claim 2, wherein the mobile robot 상기 RFID판독기를 통해 상기 도킹 스테이션에 부착된 RFID의 LED를 온시킨후, LED영상을 획득하고, 삼각측량방법을 이용하여 도킹스테이션의 홈 위치로 이동 하는 것을 특징으로 하는 이동로봇 시스템.And turning on the LED of the RFID attached to the docking station through the RFID reader, acquiring an LED image, and moving to a home position of the docking station using a triangulation method. 임의의 위치에 RFID태그가 부착된 실내환경에서, RFID를 이용하여 이동로봇의 위치 인식 및 주행방법으로서,In an indoor environment in which an RFID tag is attached at an arbitrary position, as a method for recognizing and traveling a mobile robot using RFID, 주행명령을 수신하면, 상기 주행명령에 따른 경로를 생성하는 제1단계;Receiving a driving command, generating a route according to the driving command; 특정 RFID태그를 발견하고, 상기 특정 RFID태그에 구비된 LED가 켜진 상태의 영상과 꺼진 상태의 영상을 획득하는 제2단계;A second step of discovering a specific RFID tag and acquiring an image of an LED on and an off state of the specific RFID tag; 상기 LED가 켜진 상태의 영상과 꺼진 상태의 영상간의 차 영상을 이용하여 로봇의 위치인식 및 진행방향각을 결정하는 제3단계;를 포함하는 이동로봇의 위치 인식 및 주행방법.And determining a position recognition and a moving direction angle of the robot by using a difference image between the image of the LED on and the image of the off state. 제4항에 있어서, 상기 RFID 태그에 구비된 LED는 이동로봇에 구비된 RFID 판독기에 의해 온/오프 됨을 특징으로 하는 이동로봇의 위치 인식 및 주행방법.The method of claim 4, wherein the LED provided in the RFID tag is turned on / off by an RFID reader provided in the mobile robot. 제4항에 있어서, 현재 위치의 RFID태그와 목적지의 RFID태그간의 방향에 평행하도록 이동로봇이 회전한 후, 목적지의 RFID태그를 발견할때까지 해당 RFID태그에 대한 RF신호를 송신하고, 해당 RFID태그가 발견되면, 그 지점에서 상기 제1단계 내지 상기 제3단계를 반복하여, 이동로봇의 진행방향각을 보정하는 것을 특징으로 하는 이동로봇의 위치 인식 및 주행방법.According to claim 4, After the mobile robot rotates to be parallel to the direction between the RFID tag of the current position and the RFID tag of the destination, and transmits an RF signal for the RFID tag until the RFID tag of the destination is found, If the tag is found, repeating the first step to the third step at the point, to correct the traveling direction angle of the mobile robot, characterized in that the location of the mobile robot. 제4항에 있어서, 제2단계는The method of claim 4, wherein the second step is 이동로봇에 구비된 RFID 판독기에 의해 특정 RFID태그에 구비된 LED를 온시키는 과정과,Turning on the LED included in the specific RFID tag by the RFID reader provided in the mobile robot; 상기 이동로봇에 구비된 카메라를 이용하여, LED가 켜진 상태의 제1영상을 획득하는 과정과,Acquiring a first image of a state where an LED is turned on by using a camera provided in the mobile robot; 상기 이동로봇에 구비된 RFID 판독기에 의해 특정 RFID태그에 구비된 LED를 오프 시키는 과정과,Turning off the LED provided in a specific RFID tag by an RFID reader provided in the mobile robot; 상기 이동로봇에 구비된 카메라를 이용하여, LED가 꺼진 상태의 제2영상을 획득하는 과정과,Acquiring a second image of a state where the LED is turned off by using a camera provided in the mobile robot; 상기 제1영상과 상기 제2영상의 차 영상을 획득하는 과정을 포함하여 구성되는 것을 특징으로 하는 이동로봇의 위치 인식 및 주행방법.And a step of acquiring the difference image between the first image and the second image. 제7항에 있어서, 상기 차 영상은 아래의 수학식The method of claim 7, wherein the difference image is represented by the following equation.
Figure 112004058049745-pat00031
Figure 112004058049745-pat00031
을 이용하여 계산되는 것을 특징으로 하는 이동로봇의 위치 인식 및 주행방법. 여기서,
Figure 112004058049745-pat00032
는 제1영상의 픽셀위치 (i,j)에서의 밝기값,
Figure 112004058049745-pat00033
는 제2영상의 픽셀위치 (i,j)에서의 밝기값.
Position recognition and driving method of a mobile robot, characterized in that calculated using. here,
Figure 112004058049745-pat00032
Is the brightness value at the pixel position (i, j) of the first image,
Figure 112004058049745-pat00033
Is a brightness value at pixel position (i, j) of the second image.
제4항 또는 제7항에 있어서, 제3단계는The method of claim 4 or 7, wherein the third step is 상기 LED가 켜진 상태의 영상과 꺼진 상태의 영상간의 차 영상에서 LED 영상이 존재하는지를 판단하는 과정과,Determining whether an LED image exists in the difference image between the image of the LED on state and the image of the off state; 상기 차 영상에 LED 영상이 존재하지 않으면, 이동로봇 또는 카메라를 소정 각도 회전시켜, 상기 제2단계로 되돌아 가는 과정을 포함하여 구성되는 것을 특징으로 하는 이동로봇의 위치 인식 및 주행방법.If the LED image does not exist in the car image, the step of rotating the mobile robot or the camera by a predetermined angle, comprising the step of returning to the second step comprises the step of recognizing and driving the mobile robot. 제9항에 있어서, 상기 차 영상에 LED 영상이 존재하면, 영상내의 LED 위치를 계산하고, 하기 수학식 10. The method of claim 9, wherein if the LED image is present in the difference image, the position of the LED in the image is calculated,
Figure 112005064220463-pat00048
Figure 112005064220463-pat00048
을 이용하여 이동로봇과 특정 RFID태그간의 상대적인 방위각을 구하는 과정을 포함하여 구성되는 것을 특징으로 하는 이동로봇의 위치 인식 및 주행방법.A method of recognizing and driving a mobile robot, the method comprising: calculating a relative azimuth angle between the mobile robot and a specific RFID tag by using a.
KR1020040103589A 2004-12-09 2004-12-09 Method for mobile robot localization and navigation using RFID, and System for thereof KR100590210B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040103589A KR100590210B1 (en) 2004-12-09 2004-12-09 Method for mobile robot localization and navigation using RFID, and System for thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040103589A KR100590210B1 (en) 2004-12-09 2004-12-09 Method for mobile robot localization and navigation using RFID, and System for thereof

Publications (2)

Publication Number Publication Date
KR20060064908A KR20060064908A (en) 2006-06-14
KR100590210B1 true KR100590210B1 (en) 2006-06-19

Family

ID=37160277

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040103589A KR100590210B1 (en) 2004-12-09 2004-12-09 Method for mobile robot localization and navigation using RFID, and System for thereof

Country Status (1)

Country Link
KR (1) KR100590210B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101356644B1 (en) * 2009-02-25 2014-02-04 삼성전자주식회사 System for localization and method thereof
CN103550883A (en) * 2013-11-04 2014-02-05 国家电网公司 Fire-fighting robot for transformer substation

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2625885C (en) * 2005-10-14 2016-09-13 Aethon, Inc. Robotic ordering and delivery system software and methods
KR100853185B1 (en) * 2006-11-08 2008-08-20 한국전자통신연구원 Object recognition and localization method using both vision information and wireless sensor network and apparatus using the same
KR100834987B1 (en) * 2006-11-30 2008-06-03 광운대학교 산학협력단 Coordinate confirmation system for indoor navigation
KR100884904B1 (en) * 2007-09-12 2009-02-19 아주대학교산학협력단 Method for self localization using parallel projection model
CN109915211A (en) * 2019-04-10 2019-06-21 山东省交通规划设计院 A kind of vcehicular tunnel inspection and dynamic pipe cultivating one robot and its method
CN114089731A (en) * 2020-08-07 2022-02-25 宝时得科技(中国)有限公司 Outdoor robot access channel control method and device and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10289015A (en) 1997-04-16 1998-10-27 Nippon Steel Corp Data transmitter-receiver and system therefor
JP2003228420A (en) 2002-02-01 2003-08-15 Pegasus Net Kk Management system for robot position information by saw-id tag
KR20030080436A (en) * 2002-04-08 2003-10-17 삼성전자주식회사 Localization apparatus and method of mobile robot
KR20030095492A (en) * 2002-06-12 2003-12-24 삼성전자주식회사 Localization apparatus and method for mobile robot
KR20050063461A (en) * 2003-12-22 2005-06-28 재단법인 포항산업과학연구원 Method of local mapping for indoor moving robot by rfid and system thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10289015A (en) 1997-04-16 1998-10-27 Nippon Steel Corp Data transmitter-receiver and system therefor
JP2003228420A (en) 2002-02-01 2003-08-15 Pegasus Net Kk Management system for robot position information by saw-id tag
KR20030080436A (en) * 2002-04-08 2003-10-17 삼성전자주식회사 Localization apparatus and method of mobile robot
KR20030095492A (en) * 2002-06-12 2003-12-24 삼성전자주식회사 Localization apparatus and method for mobile robot
KR20050063461A (en) * 2003-12-22 2005-06-28 재단법인 포항산업과학연구원 Method of local mapping for indoor moving robot by rfid and system thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101356644B1 (en) * 2009-02-25 2014-02-04 삼성전자주식회사 System for localization and method thereof
CN103550883A (en) * 2013-11-04 2014-02-05 国家电网公司 Fire-fighting robot for transformer substation

Also Published As

Publication number Publication date
KR20060064908A (en) 2006-06-14

Similar Documents

Publication Publication Date Title
US6496755B2 (en) Autonomous multi-platform robot system
US7054716B2 (en) Sentry robot system
Park et al. Autonomous mobile robot navigation using passive RFID in indoor environment
EP2776216B1 (en) Robot apparautus and control method for resuming operation following a pause.
JP4241673B2 (en) Mobile path generation device
Se et al. Local and global localization for mobile robots using visual landmarks
CA2428360C (en) Autonomous multi-platform robotic system
Schneegans et al. Using RFID Snapshots for Mobile Robot Self-Localization.
US20070013510A1 (en) Position management system and position management program
US20110144850A1 (en) Moving apparatus, moving method of moving apparatus, and movement control program of moving apparatus
KR20180070932A (en) A movable object and a method for controlling the same
KR101341204B1 (en) Device and method for estimating location of mobile robot using raiser scanner and structure
KR100581086B1 (en) Method and apparatus for mobile robot localization using led of rfid tag
Vasquez et al. Sensor fusion for tour-guide robot localization
KR100590210B1 (en) Method for mobile robot localization and navigation using RFID, and System for thereof
Alves et al. Cost-effective indoor localization for autonomous robots using kinect and wifi sensors
Jäger et al. Efficient navigation based on the Landmark-Tree map and the Z∞ algorithm using an omnidirectional camera
Glas et al. Simultaneous people tracking and robot localization in dynamic social spaces
Noaman et al. Landmarks exploration algorithm for mobile robot indoor localization using VISION sensor
Kim et al. Indoor localization using laser scanner and vision marker for intelligent robot
Jia et al. Robot localization in indoor environments using radio frequency identification technology and stereo vision
Li et al. CAD-vision-range-based self-localization for mobile robot using one landmark
Leven et al. Perception-based motion planning for indoor exploration
Jia et al. Obstacle recognition for a service mobile robot based on RFID with multi-antenna and stereo vision
WO2024043831A1 (en) Mobile robot initialization in a building based on a building information model (bim) of the building

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110531

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee