KR20130014105A - User following robot - Google Patents
User following robot Download PDFInfo
- Publication number
- KR20130014105A KR20130014105A KR1020110076034A KR20110076034A KR20130014105A KR 20130014105 A KR20130014105 A KR 20130014105A KR 1020110076034 A KR1020110076034 A KR 1020110076034A KR 20110076034 A KR20110076034 A KR 20110076034A KR 20130014105 A KR20130014105 A KR 20130014105A
- Authority
- KR
- South Korea
- Prior art keywords
- tracking
- robot
- following
- wireless
- geomagnetic
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 11
- 238000004891 communication Methods 0.000 claims abstract description 9
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000000926 separation method Methods 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims 1
- 238000005516 engineering process Methods 0.000 description 5
- 238000004140 cleaning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000036632 reaction speed Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/006—Controls for manipulators by means of a wireless system for controlling one or several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
본 발명은 추종 로봇에 관한 것으로서, 상세하게는 인체와 같은 이동객체를 거리를 두고 추종할 수 있도록 된 추종로봇에 관한 것이다.The present invention relates to a following robot, and more particularly, to a following robot that can follow a moving object such as a human body at a distance.
일반적으로, 자율주행 로봇은 본체 내에 전원 및 센서가 탑재되어 외부로부터 신호와 전원의 공급 없이도 자율적으로 이동이 가능한 로봇을 말한다. 이러한 자율주행 로봇은 일정 공간의 지도 정보를 내장하고 있으며, 일정 공간을 자유롭게 이동하기 위하여 현재 자기 위치를 파악한 후 목적지까지의 이동 경로를 설정하여 센서를 통해 감지되는 장애물을 피해 설정된 목적지로 이동한다.In general, an autonomous robot refers to a robot that is equipped with a power source and a sensor in the main body so that the robot can move autonomously without supplying signals and power from the outside. Such autonomous robots have map information of a certain space, and in order to move freely in a certain space, the current self position is detected and then a moving path to the destination is set to move to a set destination avoiding obstacles detected by the sensor.
자율주행 로봇은 실내의 청소를 위한 청소용 로봇 및 외부의 침입자로부터 집안의 경비를 담당하는 보안용 로봇 등 그 응용 범위가 확대되고 있는 추세이다.Self-driving robots are increasingly being used for applications such as cleaning robots for indoor cleaning and security robots for home security from outside intruders.
한편, 사용자 추종기술은 사용자와의 인터랙션과 주행기술이 결합된 것으로서 사용자 입장에서 다양한 서비스를 받을수 있어서 매우 편리하다. 예를 들어서 길을 알려주거나 물건을 들고 따라오는 등의 일을 시킬 수 있다.On the other hand, the user tracking technology is a combination of the interaction with the user and driving technology is very convenient to receive a variety of services from the user's point of view. For example, you can give them directions or carry something with you.
이를 구현하기 위한 종래의 기술은 대부분 매우 고가의 레이저 스캐너와 영상처리를 이용하는 기술로서, 상용화 측면에서 매우 불리하다는 문제점이 있다.Conventional technology for implementing this is a technology that uses a very expensive laser scanner and image processing, there is a problem that is very disadvantageous in terms of commercialization.
즉, 일반적으로 영상을 이용한 사람 인식 기술은 구성 비용을 증가시키고 복잡한 영상 인식 알고리즘을 이용해야 하며, 또한 영상을 이용한 방법은 사람의 뒤를 보고 추종해야 하는 로봇 시스템에서는 거리, 각도 측정 및 사람의 형상을 인식하는데 어려움이 있다는 문제점이 있다.That is, in general, image recognition technology needs to increase the construction cost and use complex image recognition algorithms. In addition, the image-based method uses distance, angle measurement and human shape in a robot system that needs to be followed and followed. There is a problem that it is difficult to recognize.
또한, 추종하고 있던 사람이 로봇의 인지 범위를 벗어나더라도 사람의 위치를 추정할 수 있어야 하는 어려움이 있으며, 정밀한 스캐너를 통해서 위치와 거리를 보정할 수 있기는 하지만 비용측면에서 상용화는 어렵다는 문제점이 있다.In addition, even if the following person is out of the robot's recognition range, there is a difficulty in estimating the position of the person, and although the position and distance can be corrected through a precise scanner, it is difficult to commercialize in terms of cost. .
본 발명은 상기와 같은 문제점을 개선하기 위하여 창안된 것으로서, 구조가 단순하면서도 추종 정밀도를 향상시킬 수 있는 추종로봇을 제공하는데 그 목적이 있다.The present invention was devised to improve the above problems, and an object thereof is to provide a following robot which is simple in structure and can improve tracking accuracy.
상기의 목적을 달성하기 위하여 본 발명에 따른 추종로봇은 이동객체에 장착되며 지그비 통신방식으로 무선 추종 신호를 주기적으로 출력하는 객체 단말기와; 자율운동할 수 있으며, 상기 객체 단말기에서 송출되는 무선 추종신호를 수신하고, 수신된 상기 무선추종신호의 세기정보를 이용하여 상기 이동 객체를 추종하는 로봇 본체;를 구비한다.In order to achieve the above object, a tracking robot according to the present invention includes: an object terminal mounted on a mobile object and periodically outputting a wireless tracking signal in a Zigbee communication method; And a robot body capable of autonomous movement, receiving a wireless following signal transmitted from the object terminal, and following the moving object using intensity information of the received wireless following signal.
바람직하게는 상기 로봇 본체는 상기 객체 단말기로부터 송출되는 상기 무선추종신호를 수신하는 수신부와; 제어신호에 따라 상기 로봇본체가 이동하도록 자율운동할 수 있는 주행부를 구동하는 추종구동부와; 상기 수신부를 통해 수신된 상기 무선추종신호의 세기를 이용하여 상기 객체 단말기를 착용한 이동객체와의 이격거리 및 방향을 산출하여 상기 이동객체를 추종하도록 상기 추종 구동부를 제어하는 추종제어부;를 구비한다.Preferably, the robot body includes a receiving unit for receiving the radio tracking signal transmitted from the object terminal; A follower driving unit which drives a driving unit capable of autonomous movement so that the robot body moves according to a control signal; And a tracking controller configured to control the tracking driver to follow the mobile object by calculating a separation distance and a direction from a mobile object wearing the object terminal using the strength of the wireless tracking signal received through the receiver. .
또한, 상기 로봇 본체에는 상기 객체 단말기를 착용한 이동객체를 검출하기 위해 장착된 초음파 센서;를 더 구비하고, 상기 추종제어부는 상기 수신부를 통해 수신된 상기 무선추종신호의 세기를 이용하여 상기 추종 구동부를 제어하고, 상기 이동객체와의 이격거리가 설정된 미소거리내에 진입된 것으로 판단되면 상기 초음파 센서의 출력정보를 이용하여 상기 이동객체를 추종하도록 상기 추종구동부를 제어한다.The robot body may further include an ultrasonic sensor mounted to detect a moving object wearing the object terminal, and the tracking controller may be configured to use the tracking driver by using the strength of the wireless tracking signal received through the receiver. The controller controls the tracking driver to follow the moving object by using the output information of the ultrasonic sensor when it is determined that the separation distance with the moving object is within the set minute distance.
더욱 바람직하게는 상기 객체 단말기는 인체에 착용되는 모자에 장착되어 있으며, 지자기 정보를 검출하는 제1지자기 센서와; 상기 제1지자기 센서로부터 검출된 지자기 정보를 상기 무선추종신호에 포함시켜 송신부를 통해 무선 송출하도록 처리하는 객체 제어부;를 구비하고, 상기 로봇본체는 지자기 정보를 검출하는 제2지자기 센서;를 더 구비하고, 상기 추종 제어부는 상기 수신부를 통해 수신된 상기 무선추종신호에 포함된 상기 객체 단말기의 지자기 정보와 상기 제2지자기 센서의 지자기정보를 이용하여 상기 객체 단말기의 이동 방향을 판단하여 상기 추종구동부를 제어한다.More preferably, the object terminal is mounted on a hat worn on the human body, and comprises: a first geomagnetic sensor for detecting geomagnetic information; And an object controller for including the geomagnetic information detected from the first geomagnetic sensor in the wireless tracking signal to wirelessly transmit the data through the transmitter. The robot body further includes a second geomagnetic sensor for detecting geomagnetic information. The tracking controller determines the moving direction of the object terminal by using geomagnetic information of the object terminal and geomagnetic information of the second geomagnetic sensor included in the wireless tracking signal received through the receiver. To control.
상기 추종 제어부는 상기 수신부를 통해 수신된 상기 무선추종신호의 세기에 대해 주기적으로 검출된 데이터들에 대해 지수이동 평균 산출방식에 의해 상기 이동객체와의 거리를 산출하는 것이 바람직하다.The tracking control unit may calculate a distance from the moving object by an exponential moving average calculation method on data periodically detected with respect to the strength of the wireless tracking signal received through the reception unit.
본 발명에 따른 추종 로봇에 의하면, 근거리 무선통신방식인 지그비 통신방식에 의한 수신 신호세기로 추종하되 짧은 거리에서는 초음파 센서를 이용하여 추종함으로써 추종 정밀도를 높일 수 있고 구조가 간단한 장점을 제공한다.According to the tracking robot according to the present invention, while following the received signal strength according to the Zigbee communication method, which is a short-range wireless communication method, the tracking accuracy can be increased by following an ultrasonic sensor at a short distance, thereby providing a simple structure.
도 1은 본 발명의 실시 예에 따른 추종 로봇을 나타내 보인 사시도이고,
도 2는 도 1의 추종 로봇의 제어계통에 대한 블록도이다.1 is a perspective view showing a tracking robot according to an embodiment of the present invention,
FIG. 2 is a block diagram of a control system of the following robot of FIG. 1.
이하, 첨부된 도면을 참조하면서 본 발명의 바람직한 실시 예에 따른 추종 로봇을 더욱 상세하게 설명한다.Hereinafter, a tracking robot according to a preferred embodiment of the present invention will be described in more detail with reference to the accompanying drawings.
도 1은 본 발명의 실시 예에 따른 추종 로봇을 나타내 보인 사시도이고, 도 2는 도 1의 추종 로봇의 제어계통에 대한 블록도이다.1 is a perspective view illustrating a following robot according to an exemplary embodiment of the present invention, and FIG. 2 is a block diagram of a control system of the following robot of FIG. 1.
도 1 및 도 2를 참조하면, 추종 로봇은 객체 단말기(110)와 로봇 본체(200)를 구비한다.1 and 2, the follower robot includes an
객체 단말기(110)는 이동객체로 적용된 인체(10)에 착용되는 모자(20)에 장착되어 있고, 지그비(ZigBee) 통신방식으로 무선 추종 신호를 주기적으로 출력한다.The
객체 단말기(110)는 제1지자기센서(120), 송신부(130), 객체 제어부(140) 및 객체 조작부(150)를 구비한다.The
제1지자기 센서(120)는 객체 단말기(110)가 장착된 인체(110)의 현 위치에 대한 방향정보인 지자기 정보를 검출하여 객체 제어부(140)에 제공한다.The first
송신부(130)는 객체 제어부(140)에 제어되어 안테나(132)를 통해 지그비(ZigBee) 통신방식으로 무선 추종 신호를 주기적으로 출력한다.The
객체 조작부(150)는 로봇 본체(200)가 이동객체인 인체(10)를 추종하도록 자동추종모드를 설정하는 로자동추종 버튼, 추종을 중지하고 대기하는 스탠바이버튼 등 지원되는 기능을 설정할 수 있는 버튼들이 마련되어 있다.The
객체 제어부(140)는 자동 추종모드인 경우 제1지자기 센서(120)로부터 검출된 지자기 정보를 무선추종신호에 포함시켜 송신부(130)를 통해 주기적으로 무선 송출하도록 처리한다.In the automatic tracking mode, the
로봇 본체(200)는 자율주행할 수 있도록 되어 있고, 객체 단말기(110)에서 지그비 통신방식으로 무선으로 송출되는 무선 추종신호를 수신하고, 수신된 무선추종신호의 세기정보를 이용하여 이동 객체로 적용된 인체(10)를 추종한다.The
로봇 본체(200)는 주행부(210), 추종 구동부(220), 수신부(230), 초음파센서(240), 제2지자기센서(250), 추종조작부(260) 및 추종제어부(270)를 구비한다.The
주행부(210)는 로봇본체(200)를 이동시킬 수 있도록 되어 있고, 도시된 예에서는 바퀴(211)가 적용되었다.The
도시된 예와 다르게, 바퀴(211) 이외에도 캐터필러 또는 관절운동에 의해 이동할 수 있는 구조 등 주행부는 다양한 구조로 형성될 수 있음은 물론이다.Unlike the illustrated example, in addition to the
추종 구동부(220)는 추종 제어부(270)의 제어신호에 따라 로봇본체가 목표하는 방향으로 이동하도록 자율운동할 수 있도록 된 주행부(210)를 구동한다.The following
수신부(230)는 객체 단말기(110)로부터 송출된 무선추종신호를 되어 안테나(232)를 통해 수신하여 추종 제어부(270)에 제공한다.The
여기서 수신부(230)에 적용되는 안테나(232)는 복수개가 적용될 수 있음은 물론이다.Herein, a plurality of
초음파 센서(240)는 추종 제어부(270)에 제어되어 객체 단말기(110)를 착용한 이동객체인 인체(10)에 초음파를 송출하고, 반사된 신호를 검출하여 추종 제어부(270)에 제공한다.The
초음파 센서(240)는 다수개가 마련될 수 있음은 물론이다.Of course, a plurality of
제2지자기센서(250)는 로봇본체(200)에 장착되어 현 위치에 대한 방향정보인 지자기 정보를 검출하여 추종 제어부(270)에 제공한다.The second
추종 조작부(260)는 로봇 본체(200)의 기동 및 정지를 조작하거나 지원되는 기능 예를 들면 이동객체와의 이격거리 유지 간격 등을 조작할 수 있도록 키가 마련될 수 있다.The
추종 제어부(270)는 수신부(230)를 통해 수신된 무선추종신호의 세기를 이용하여 객체 단말기(110)를 착용한 이동객체와의 이격거리 및 방향을 산출하여 이동객체를 추종하도록 추종 구동부(220)를 제어한다.The
여기서 추종 제어부(270) 내에는 무선추종신호의 세기값에 대응한 이격거리가 기록된 룩업테이블 또는 산출식이 내장되어 있다.Here, the
또한, 추종제어부(270)는 수신부(230)를 통해 수신된 무선 추종신호의 세기로부터 판단된 이동객체와의 이격거리가 설정된 미소거리 예를 들면 2미터 이상인 경우에는 수신부를 통해 수신된 무선추종신호의 세기를 이용하여 추종 구동부를 제어하고, 이동객체와의 이격거리가 설정된 미소거리 이내에 진입된 것으로 판단되면 초음파 센서(240)의 출력정보를 이용하여 이동객체를 추종하도록 추종구동부(220)를 제어한다.In addition, the
여기서, 추종 제어부(270)는 설정된 이동 객체와의 유지 최소거리 예를 들면 1미터에 도달하면 1미터를 계속 유지하면서 추종하도록 제어한다. Here, the
또한, 추종 제어부(270) 수신부(230)를 통해 수신된 무선추종신호에 포함된 객체 단말기(110)의 지자기 정보와 제2지자기 센서(250)의 지자기정보를 이용하여 객체 단말기(110)의 이동 방향을 판단하여 추종구동부(220)를 제어한다.In addition, the movement of the
바람직하게는 추종 제어부(270)는 수신부(230)를 통해 수신된 무선추종신호의 세기로부터 주기적으로 검출되어 산출된 이동객체와의 이격거리에 대한 데이터들에 대해 지수이동 평균 산출방식에 의해 이동객체와의 거리를 산출한다.Preferably, the
여기서, 지수이동 평균 산출방식은 아래의 수학식1과 같다.Here, the exponential moving average calculation method is as shown in Equation 1 below.
여기서, EMAt은 지수이동 평균거리값, xt는 t시간에 수신된 수신세기에 대해 산출된 거리데이터, α는 0에서 1사이의 값을 갖는 평활상수이다.Here, EMAt is the exponential moving average distance value, xt is the distance data calculated for the received strength at time t, and α is a smoothing constant having a value between 0 and 1.
또한, 또한, MAt는 데이터 개수 N개에 대한 이동평균으로 아래의 수학식 2와 같다.In addition, MAt is a moving average for N data numbers, which is represented by Equation 2 below.
여기서, 지수이동 평균의 초기값인 EMAt0는 이전 데이터의 평균값 또는 x0를 적용하면된다. Here, EMAt 0, which is the initial value of the exponential moving average, may be applied to the average value of previous data or x 0 .
이러한 지수이동 평균산출방식에 의해 이동객체와의 거리를 산출하면 평활상수(α)의 값에 따라 가중치의 감소추이가 변화하며, 이로 인해 실효 데이터 개수와 반응속도가 결정된다. When the distance from the moving object is calculated by the exponential moving average calculation method, the decreasing trend of the weight changes according to the value of the smoothing constant α, thereby determining the number of effective data and the reaction speed.
바람직하게는 평활상수(α)는 취하는 데이터 개수(N)와 아래의 수학식 3의 관계를 만족하도록 적용한다.Preferably, the smoothing constant α is applied to satisfy the relationship between the number N of data to be taken and Equation 3 below.
바람직하게는 평활상수의 값은 0.004 내지 0.014를 적용한다.Preferably, the value of the smoothing constant is applied to 0.004 to 0.014.
이러한 지수이동 평균산출방식에 의해 이동객체와의 거리를 추종하면 거리측정 오차를 더욱 줄일 수 있다.By following the distance with the moving object by the exponential moving average calculation method, the distance measurement error can be further reduced.
110: 객체 단말기 200: 로봇 본체110: object terminal 200: robot body
Claims (5)
자율운동할 수 있으며, 상기 객체 단말기에서 송출되는 무선 추종신호를 수신하고, 수신된 상기 무선추종신호의 세기정보를 이용하여 상기 이동 객체를 추종하는 로봇 본체;를 구비하는 것을 특징으로 하는 추종로봇.An object terminal mounted to the mobile object and periodically outputting a wireless following signal in a Zigbee communication method;
And a robot body capable of autonomous movement, receiving a wireless following signal transmitted from the object terminal, and following the moving object by using the received strength information of the wireless following signal.
상기 객체 단말기로부터 송출되는 상기 무선추종신호를 수신하는 수신부와;
제어신호에 따라 상기 로봇본체가 이동하도록 자율운동할 수 있는 주행부를 구동하는 추종구동부와;
상기 수신부를 통해 수신된 상기 무선추종신호의 세기를 이용하여 상기 객체 단말기를 착용한 이동객체와의 이격거리 및 방향을 산출하여 상기 이동객체를 추종하도록 상기 추종 구동부를 제어하는 추종제어부;를 구비하는 것을 특징으로 하는 추종로봇.The method of claim 1, wherein the robot body
A receiving unit which receives the radio tracking signal transmitted from the object terminal;
A follower driving unit which drives a driving unit capable of autonomous movement so that the robot body moves according to a control signal;
A tracking controller configured to control the tracking driver to follow the mobile object by calculating a distance and a direction from the mobile object wearing the object terminal using the strength of the wireless tracking signal received through the receiver; Follow robot, characterized in that.
상기 객체 단말기를 착용한 이동객체를 검출하기 위해 장착된 초음파 센서;를 더 구비하고,
상기 추종제어부는 상기 수신부를 통해 수신된 상기 무선추종신호의 세기를 이용하여 상기 추종 구동부를 제어하고, 상기 이동객체와의 이격거리가 설정된 미소거리내에 진입된 것으로 판단되면 상기 초음파 센서의 출력정보를 이용하여 상기 이동객체를 추종하도록 상기 추종구동부를 제어하는 것을 특징으로 하는 추종로봇.According to claim 2, wherein the robot body
And an ultrasonic sensor mounted to detect a moving object wearing the object terminal.
The tracking controller controls the tracking driver by using the strength of the wireless tracking signal received through the reception unit, and when it is determined that the separation distance with the moving object is within a set small distance, output information of the ultrasonic sensor. The following robot, characterized in that for controlling the following driving unit to follow the moving object.
상기 제1지자기 센서로부터 검출된 지자기 정보를 상기 무선추종신호에 포함시켜 송신부를 통해 무선 송출하도록 처리하는 객체 제어부;를 구비하고,
상기 로봇본체는
지자기 정보를 검출하는 제2지자기 센서;를 더 구비하고,
상기 추종 제어부는 상기 수신부를 통해 수신된 상기 무선추종신호에 포함된 상기 객체 단말기의 지자기 정보와 상기 제2지자기 센서의 지자기정보를 이용하여 상기 객체 단말기의 이동 방향을 판단하여 상기 추종구동부를 제어하는 것을 특징으로 하는 추종 로봇.The apparatus of claim 3, wherein the object terminal comprises: a first geomagnetic sensor mounted on a hat worn on a human body and detecting geomagnetic information;
And an object controller configured to include the geomagnetic information detected by the first geomagnetic sensor in the radio tracking signal and to perform radio transmission through a transmitter.
The robot body is
And a second geomagnetic sensor for detecting geomagnetic information.
The tracking controller determines the moving direction of the object terminal by using the geomagnetic information of the object terminal and the geomagnetic information of the second geomagnetic sensor included in the wireless tracking signal received through the receiver to control the tracking driver. Follower robot, characterized in that.
상기 수신부를 통해 수신된 상기 무선추종신호의 세기에 대해 주기적으로 검출된 데이터들에 대해 지수이동 평균 산출방식에 의해 상기 이동객체와의 거리를 산출하고, 상기 지수이동 평균 산출방식에 의해 산출되는 지수이동 평균거리값(EMAt)은
이고, 여기서 xt는 t시간에 수신된 수신세기에 대해 산출된 거리데이터,
MAt는 데이터 개수 N개에 대한 이동평균으로 아래와 같고,
평활상수인 α는 0.004 내지 0.014를 적용하는 것을 특징으로 하는 추종로봇.The method of claim 4, wherein the following control unit
An index calculated by the exponential moving average calculation method with respect to the data periodically detected with respect to the strength of the radio tracking signal received through the receiving unit by the exponential moving average calculation method, the exponent calculated by the exponential moving average calculation method Moving average distance value (EMAt)
Where xt is the distance data calculated for the received strength at time t,
MAt is the moving average for N data numbers.
A smoothing constant α is a tracking robot, characterized in that applying 0.004 to 0.014.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110076034A KR101303911B1 (en) | 2011-07-29 | 2011-07-29 | user following robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110076034A KR101303911B1 (en) | 2011-07-29 | 2011-07-29 | user following robot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130014105A true KR20130014105A (en) | 2013-02-07 |
KR101303911B1 KR101303911B1 (en) | 2013-09-05 |
Family
ID=47894427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110076034A KR101303911B1 (en) | 2011-07-29 | 2011-07-29 | user following robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101303911B1 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200015879A (en) * | 2018-08-05 | 2020-02-13 | 엘지전자 주식회사 | A moving robot and a controlling method for the same |
WO2021002499A1 (en) * | 2019-07-02 | 2021-01-07 | 엘지전자 주식회사 | Method for tracking user location by using swarm robots, tag device, and robot implementing same |
WO2021153880A1 (en) * | 2020-01-30 | 2021-08-05 | 엘지전자 주식회사 | Mobile robot system, and method for generating boundary information of mobile robot system |
US11178811B2 (en) | 2018-08-03 | 2021-11-23 | Lg Electronics Inc. | Lawn mower robot, system of lawn mower robot and control method of lawn mower robot system |
US11266067B2 (en) | 2018-08-03 | 2022-03-08 | Lg Electronics Inc. | Moving robot, method for controlling moving robot, and moving robot system |
KR20220063618A (en) * | 2020-11-10 | 2022-05-17 | 주식회사 에이치엔이 | Autonomous Transport Vehicle |
US11561275B2 (en) | 2018-08-03 | 2023-01-24 | Lg Electronics Inc. | Moving robot, method for controlling the same, and terminal |
US20230032490A1 (en) * | 2017-12-27 | 2023-02-02 | Stmicroelectronics, Inc. | Robotic device with time-of-flight proximity sensing system |
US11960278B2 (en) | 2018-08-05 | 2024-04-16 | Lg Electronics Inc. | Moving robot and controlling method thereof |
US11989017B2 (en) | 2018-08-05 | 2024-05-21 | Lg Electronics Inc. | Station apparatus and moving robot system |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101657663B1 (en) * | 2014-07-10 | 2016-09-19 | 전북대학교산학협력단 | Transfer robot system for agricultural application |
KR101643751B1 (en) * | 2014-11-26 | 2016-07-28 | 김기형 | Robot with object tracking function |
KR101849344B1 (en) * | 2016-01-26 | 2018-04-16 | (주)유프랜드 | worker following automatic guided vehicle |
KR101937689B1 (en) * | 2017-11-24 | 2019-04-11 | (주)유프랜드 | Worker-following Control Algorithm Applied Moving Device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100443953B1 (en) | 2002-05-27 | 2004-08-11 | 주식회사유진로보틱스 | Apparatus and method for estimating the relative position by radio frequency |
FR2910974B1 (en) * | 2006-12-27 | 2010-01-01 | Pascal Benoudiz | SYSTEM FOR LOCATING AN OBJECT OR PERSON |
KR20090120133A (en) * | 2008-05-19 | 2009-11-24 | 계명대학교 산학협력단 | Method of detecting position of zigbee tag and system therefor |
KR101060988B1 (en) * | 2009-01-23 | 2011-09-01 | 성균관대학교산학협력단 | Apparatus and method for tracking moving objects using intelligent signal strength of Zigbee |
-
2011
- 2011-07-29 KR KR1020110076034A patent/KR101303911B1/en active IP Right Grant
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230032490A1 (en) * | 2017-12-27 | 2023-02-02 | Stmicroelectronics, Inc. | Robotic device with time-of-flight proximity sensing system |
US11178811B2 (en) | 2018-08-03 | 2021-11-23 | Lg Electronics Inc. | Lawn mower robot, system of lawn mower robot and control method of lawn mower robot system |
US11266067B2 (en) | 2018-08-03 | 2022-03-08 | Lg Electronics Inc. | Moving robot, method for controlling moving robot, and moving robot system |
US11561275B2 (en) | 2018-08-03 | 2023-01-24 | Lg Electronics Inc. | Moving robot, method for controlling the same, and terminal |
KR20200015879A (en) * | 2018-08-05 | 2020-02-13 | 엘지전자 주식회사 | A moving robot and a controlling method for the same |
WO2020032412A1 (en) * | 2018-08-05 | 2020-02-13 | Lg Electronics Inc. | Moving robot and following setting method thereof |
US11960278B2 (en) | 2018-08-05 | 2024-04-16 | Lg Electronics Inc. | Moving robot and controlling method thereof |
US11989017B2 (en) | 2018-08-05 | 2024-05-21 | Lg Electronics Inc. | Station apparatus and moving robot system |
WO2021002499A1 (en) * | 2019-07-02 | 2021-01-07 | 엘지전자 주식회사 | Method for tracking user location by using swarm robots, tag device, and robot implementing same |
US11565415B2 (en) | 2019-07-02 | 2023-01-31 | Lg Electronics Inc. | Method of tracking user position using crowd robot, tag device, and robot implementing thereof |
WO2021153880A1 (en) * | 2020-01-30 | 2021-08-05 | 엘지전자 주식회사 | Mobile robot system, and method for generating boundary information of mobile robot system |
KR20220063618A (en) * | 2020-11-10 | 2022-05-17 | 주식회사 에이치엔이 | Autonomous Transport Vehicle |
Also Published As
Publication number | Publication date |
---|---|
KR101303911B1 (en) | 2013-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101303911B1 (en) | user following robot | |
KR100561855B1 (en) | Robot localization system | |
CN108226862B (en) | Portable device, beacon and navigation system | |
US9520731B2 (en) | Control method for cleaning robots | |
US8660736B2 (en) | Autonomous mobile device and method for navigating the same to a base station | |
KR100988736B1 (en) | Home network system and method for moving the shortest path of autonomous mobile robot | |
KR101849344B1 (en) | worker following automatic guided vehicle | |
KR20150047893A (en) | Cleaning robot | |
KR101893374B1 (en) | A stick for the blind | |
KR100845531B1 (en) | Docking system for self-charge of a mobile robot using anisotropic ultrasonic sensors | |
CN104020446B (en) | A kind of intellectual nursing bed middle Camera calibration system and positioning navigation method | |
JP2007213180A (en) | Movable body system | |
WO2020037584A1 (en) | Sectional type automatic charging docking method and mobile device and charging station | |
KR100616774B1 (en) | Localization system and method for mobile object using wireless communication | |
KR20060111167A (en) | Positioning deduction method | |
KR101094465B1 (en) | Method and apparatus for simultaneously manipulating multiple moving objects, and recording medium containing computer readable programs performing the same | |
KR100845528B1 (en) | Self-charge docking system and obstacle avoidance of a robot using anisotropic ultrasonic sensors | |
KR100443953B1 (en) | Apparatus and method for estimating the relative position by radio frequency | |
KR101165969B1 (en) | Position measuring device having distance and angle measuring function | |
KR100542896B1 (en) | Method of local mapping for indoor moving robot by RFID and system thereof | |
CN107831759B (en) | Transport system with automatic binding function | |
KR101937689B1 (en) | Worker-following Control Algorithm Applied Moving Device | |
EP3326604B1 (en) | Spatial detection device | |
KR20230077410A (en) | Docking system and docking method using the docking system | |
KR101929114B1 (en) | Method for controlling remote based motion recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160609 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20190829 Year of fee payment: 7 |