KR102381958B1 - Following robot system - Google Patents

Following robot system Download PDF

Info

Publication number
KR102381958B1
KR102381958B1 KR1020200064218A KR20200064218A KR102381958B1 KR 102381958 B1 KR102381958 B1 KR 102381958B1 KR 1020200064218 A KR1020200064218 A KR 1020200064218A KR 20200064218 A KR20200064218 A KR 20200064218A KR 102381958 B1 KR102381958 B1 KR 102381958B1
Authority
KR
South Korea
Prior art keywords
tag
data
calculation step
data obtained
driving
Prior art date
Application number
KR1020200064218A
Other languages
Korean (ko)
Other versions
KR20210147259A (en
Inventor
조경식
이동현
Original Assignee
에이지로보틱스(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이지로보틱스(주) filed Critical 에이지로보틱스(주)
Priority to KR1020200064218A priority Critical patent/KR102381958B1/en
Publication of KR20210147259A publication Critical patent/KR20210147259A/en
Application granted granted Critical
Publication of KR102381958B1 publication Critical patent/KR102381958B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion

Abstract

본 발명은 추종 로봇 시스템에 관한 것이다.
본 발명에 의한 추종 로봇 시스템은, 외형을 이룸과 더불어 상부에는 물건의 적재가 가능한 몸체와, 상기 몸체의 일측에 구비되며 몸체가 이송될 수 있도록 하는 구동부와, 상기 몸체의 일측에 구비되며 구동부의 제어를 위한 데이터를 수집하는 센서부와, 상기 센서부를 통해 얻어진 데이터를 이용하여 구동부를 제어하는 제어 시스템을 포함하여 구성되며, 상기 센서부는 사용자가 착용할 수 있는 의류 형태 또는 사용자의 의류에 부착 가능한 형태로 이루어지며 특정 정보가 내장되어 있는 태그와, 상기 몸체의 일측에 구비되어 전방을 촬영하며 상기 태그의 정보를 인식함으로써 태그가 위치된 방향을 인식하는 카메라와, 상기 몸체의 일측에 구비되며 레이저 펄스를 발생하고 반사되는 레이저 펄스에 의해 여타 물체와의 거리를 측정하는 라이다 센서와, 상기 몸체의 일측에 구비되며 초음파를 발생하고 반사되는 초음파에 의해 여타 물체와의 거리를 측정하는 초음파 센서를 포함하여 구성된다.
이와 같은 본 발명에 의하면, 제1 위치 산출 단계와 제2 위치 산출 단계를 통해 얻어진 태그의 위치 데이터를 한번 더 융합함으로써 보다 정밀도 높은 추종 데이터를 얻을 수 있다는 장점이 있다.
The present invention relates to a follower robot system.
The following robot system according to the present invention has an external shape and a body on which objects can be loaded; It is configured to include a sensor unit that collects data for control, and a control system that controls the driving unit using the data obtained through the sensor unit, wherein the sensor unit is in the form of clothing worn by the user or attachable to the user's clothing. A tag in the form of a tag having specific information embedded therein, a camera provided on one side of the body to photograph the front and recognizing the direction in which the tag is located by recognizing the information of the tag, and a laser provided on one side of the body A LiDAR sensor that generates a pulse and measures a distance to another object by a reflected laser pulse, and an ultrasonic sensor that is provided on one side of the body and generates an ultrasonic wave and measures a distance to another object by the reflected ultrasonic wave consists of including
According to the present invention as described above, there is an advantage in that more accurate tracking data can be obtained by fusing the tag position data obtained through the first position calculation step and the second position calculation step once more.

Description

추종 로봇 시스템{Following robot system}Following robot system

본 발명은 추종 로봇 시스템에 관한 것으로, 보다 상세하게는 센서부를 이루는 복수개의 센서를 통해 추종 데이터를 얻고, 이를 이용하여 정밀도 높은 복합 항법을 제공함으로써 사용자를 추종할 수 있도록 하는 추종 로봇 시스템에 관한 것이다.The present invention relates to a tracking robot system, and more particularly, to a tracking robot system that can follow a user by obtaining tracking data through a plurality of sensors constituting a sensor unit and using the data to provide a high-precision complex navigation. .

일반적으로 추종 로봇은, 센서를 이용하여 사용자 또는 특정 사물을 추종하도록 구성된 장치이다.In general, a tracking robot is a device configured to follow a user or a specific object using a sensor.

상기한 추종 로봇은, 다양한 형태로 이루어질 수 있으나 통상 사용자 또는 특정 사물을 추종하여 영상을 촬영하거나 일을 보조하는 등의 역할을 한다.The following robot may be formed in various forms, but it usually follows a user or a specific object to take an image or assist in work.

이러한 추종 로봇은, 추종 데이터를 얻기 위한 센서와, 추종 데이터를 통해 이동하는 바퀴 등을 포함하여 구성된다.The following robot is configured to include a sensor for obtaining tracking data, a wheel that moves through the tracking data, and the like.

이와 관련하여 한국 등록 특허 제10-1726696호에서는, 이동 대상에 장착되는 제1 카메라와, 이동 로봇에 장착되는 제2 카메라를 포함하고, 상기 제1 카메라와 제2 카메라를 통해 이동 대상의 추종 경로를 산출함으로써 이동 대상을 추종하는 이동 대상을 이동 로봇이 추종하는 추종 시스템이 개시된다.In this regard, Korean Patent Registration No. 10-1726696 discloses a first camera mounted on a moving object and a second camera mounted on a mobile robot, and a tracking path of the moving object through the first camera and the second camera. A tracking system is disclosed in which a mobile robot follows a moving target that follows the moving target by calculating .

그러나, 이러한 종래의 기술에 따른 이동 대상을 이동 로봇이 추종하는 추종 시스템은 제1 카메라와 제2 카메라를 통해 얻어지는 일방향 데이터를 통해 이동 대상을 추종함으로써 오류 발생에 취약한 단점이 있었던 것이다.However, the following system in which a moving robot follows a moving object according to the prior art has a disadvantage in that it is vulnerable to errors by following the moving object through unidirectional data obtained through the first camera and the second camera.

더불어, 특정 상황에서 제1 카메라 또는 제2 카메라 중 어느 하나가 제 기능을 못할 경우가 발생하게 되면 추종 데이터를 얻기 어려워진다는 단점이 있었다.In addition, if any one of the first camera or the second camera does not function properly in a specific situation, there is a disadvantage in that it becomes difficult to obtain tracking data.

한국 등록 특허 제10-1726696호Korean Registered Patent No. 10-1726696

따라서, 본 발명의 목적은 상기한 바와 같이 종래 기술의 문제점을 해결하기 위해 안출된 것으로, 센서부를 이루는 복수개의 센서를 통해 추종 데이터를 얻고, 이를 이용하여 정밀도 높은 복합 항법을 제공함으로써 사용자를 추종할 수 있도록 하는 추종 로봇 시스템을 제공하는 것이다.Accordingly, an object of the present invention is to be devised to solve the problems of the prior art as described above, and to follow the user by obtaining tracking data through a plurality of sensors constituting the sensor unit, and using this to provide a high-precision complex navigation. It is to provide a follower robot system that enables

상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 외형을 이룸과 더불어 상부에는 물건의 적재가 가능한 몸체와, 상기 몸체의 일측에 구비되며 몸체가 이송될 수 있도록 하는 구동부와, 상기 몸체의 일측에 구비되며 구동부의 제어를 위한 데이터를 수집하는 센서부와, 상기 센서부를 통해 얻어진 데이터를 이용하여 구동부를 제어하는 제어 시스템을 포함하여 구성되며, 상기 센서부는 사용자가 착용할 수 있는 의류 형태 또는 사용자의 의류에 부착 가능한 형태로 이루어지며 특정 정보가 내장되어 있는 태그와, 상기 몸체의 일측에 구비되어 전방을 촬영하며, 상기 태그의 정보를 인식함으로써 태그가 위치된 방향을 인식하는 카메라와, 상기 몸체의 일측에 구비되며 레이저 펄스를 발생하고 반사되는 레이저 펄스에 의해 여타 물체와의 거리를 측정하는 라이다 센서와, 상기 몸체의 일측에 구비되며 초음파를 발생하고 반사되는 초음파에 의해 여타 물체와의 거리를 측정하는 초음파 센서를 포함하여 구성됨을 특징으로 한다.According to a feature of the present invention for achieving the object as described above, the body has an external shape and the upper part of which can be loaded, a driving unit provided on one side of the body to allow the body to be transported, and the body; It is provided on one side of the unit and is configured to include a sensor unit for collecting data for controlling the driving unit, and a control system for controlling the driving unit using the data obtained through the sensor unit, wherein the sensor unit is a clothing type that a user can wear. or a tag attached to the user's clothing and containing specific information, a camera provided on one side of the body to photograph the front, and recognizing the direction in which the tag is located by recognizing the information of the tag; A lidar sensor provided on one side of the body that generates a laser pulse and measures a distance to another object by a reflected laser pulse, is provided on one side of the body and generates an ultrasonic wave and communicates with another object by the reflected ultrasonic wave It is characterized in that it is configured to include an ultrasonic sensor for measuring the distance of.

상기 제어 시스템은, 상기 카메라가 태그를 인식함으로써 태그의 방향 데이터를 얻는 태그 인식 단계와, 상기 라이다 센서가 레이저 펄스를 발생함으로써 주변 사물과의 거리 데이터를 얻는 라이다 인식 단계와, 상기 초음파 센서가 초음파를 발생함으로써 주변 사물과의 거리 데이터를 얻는 초음파 인식 단계를 포함하여 구성됨을 특징으로 한다.The control system may include: a tag recognition step in which the camera recognizes the tag to obtain direction data of the tag; a lidar recognition step in which the lidar sensor generates a laser pulse to obtain distance data to a nearby object; and the ultrasonic sensor is configured to include an ultrasonic recognition step of obtaining distance data to a surrounding object by generating ultrasonic waves.

상기 제어 시스템은, 상기 태그 인식 단계를 통해 얻어진 태그의 방향 데이터와 상기 라이다 인식 단계를 통해 얻어진 거리 데이터를 융합함으로써 태그의 위치 데이터를 산출하는 제1 위치 산출 단계와, 상기 태그 인식 단계를 통해 얻어진 태그의 방향 데이터와 상기 초음파 인식 단계를 통해 얻어진 거리 데이터를 융합함으로써 태그의 위치 데이터를 산출하는 제2 위치 산출 단계와, 상기 제1 위치 산출 단계와 제2 위치 산출 단계를 통해 얻어진 태그의 위치 데이터를 융합함으로써 태그 추종 데이터를 산출하는 추종 데이터 산출 단계와, 상기 추종 데이터 산출 단계를 통해 얻어진 추종 데이터를 이용하여 구동부를 구동하는 구동 단계를 더 포함하여 구성됨을 특징으로 한다.The control system includes a first position calculation step of calculating the position data of the tag by fusing the direction data of the tag obtained through the tag recognition step and the distance data obtained through the lidar recognition step, and the tag recognition step. A second position calculation step of calculating tag position data by fusing the obtained tag direction data and the distance data obtained through the ultrasonic recognition step, and the tag position obtained through the first position calculation step and the second position calculation step It is characterized in that it further comprises a tracking data calculation step of calculating tag tracking data by fusing data, and a driving step of driving a driving unit using the tracking data obtained through the tracking data calculation step.

상기 구동 단계는, 상기 추종 데이터 산출 단계를 통해 얻어진 추종 데이터를 이용하여 태그가 몸체의 좌측 또는 우측 방향에 위치될 경우 구동부를 이루는 두개의 모터 중 어느 하나의 모터만 구동함으로써 회전 이동하도록 프로그래밍 됨을 특징으로 하는 한다.In the driving step, when the tag is positioned on the left or right side of the body using the tracking data obtained through the tracking data calculation step, the driving step is programmed to rotate by driving only one of the two motors constituting the driving unit. to do with

상기 구동 단계는, 상기 추종 데이터 산출 단계를 통해 얻어진 추종 데이터를 이용하여 태그를 제외한 장애물을 감지하고, 감지된 장애물을 회피하며 태그를 추종할 수 있도록 프로그래밍 됨을 특징으로 한다.The driving step may be programmed to detect an obstacle excluding the tag using the tracking data obtained through the tracking data calculation step, avoid the detected obstacle, and follow the tag.

본 발명에 의한 추종 로봇 시스템은 다음과 같은 효과가 있다.The following robot system according to the present invention has the following effects.

본 발명에서는 카메라와 라이다 센서와 초음파 센서가 구비되고, 이들을 통해 얻어진 데이터를 처리함으로써 보다 정밀도 높은 위치 데이터를 얻을 수 있다는 장점이 있다.In the present invention, a camera, a lidar sensor, and an ultrasonic sensor are provided, and there is an advantage in that position data with higher precision can be obtained by processing the data obtained through them.

본 발명에서는 제1 위치 산출 단계와 제2 위치 산출 단계를 통해 얻어진 태그의 위치 데이터를 한번 더 융합함으로써 보다 정밀도 높은 추종 데이터를 얻을 수 있다는 장점이 있다.In the present invention, there is an advantage that more accurate tracking data can be obtained by fusing the tag position data obtained through the first position calculation step and the second position calculation step once more.

본 발명에서는 제1 후방 바퀴 및 제2 후방 바퀴에 제1 모터 및 제2 모터가 각각 구비됨에 따라 제1 모터 또는 제2 모터 중 어느 하나만 구동시킴으로써 회전 이동 가능하다는 장점이 있다.In the present invention, as the first motor and the second motor are respectively provided on the first rear wheel and the second rear wheel, there is an advantage that rotational movement is possible by driving either the first motor or the second motor.

도 1은 본 발명에 의한 추종 로봇 시스템의 바람직한 실시예의 구성을 보인 측면도
도 2는 본 발명에 의한 추종 로봇 시스템의 바람직한 실시예의 구성을 보인 상부 사시도
도 3은 본 발명에 의한 추종 로봇 시스템의 바람직한 실시예의 구성을 보인 저부 사시도
도 4는 본 발명에 의한 추종 로봇 시스템의 바람직한 실시예를 구성하는 제어 시스템의 흐름을 보인 흐름도
1 is a side view showing the configuration of a preferred embodiment of the following robot system according to the present invention;
2 is an upper perspective view showing the configuration of a preferred embodiment of the following robot system according to the present invention;
3 is a bottom perspective view showing the configuration of a preferred embodiment of the following robot system according to the present invention;
4 is a flowchart showing the flow of a control system constituting a preferred embodiment of the following robot system according to the present invention;

이하 본 발명에 의한 추종 로봇 시스템에 대한 바람직한 실시예를 도면을 참조하여 설명한다. Hereinafter, a preferred embodiment of the following robot system according to the present invention will be described with reference to the drawings.

도 1 내지 도 에는 도시된 바와 같이, 본 발명에 의한 추종 로봇 시스템의 일 실시예가 도시되어 있다. 즉, 도 1에는 본 발명에 의한 추종 로봇 시스템의 바람직한 실시예의 구성을 보인 측면도가 도시되어 있고, 도 2에는 본 발명에 의한 추종 로봇 시스템의 바람직한 실시예의 구성을 보인 상부 사시도가 도시되어 있으며, 도 3에는 본 발명에 의한 추종 로봇 시스템의 바람직한 실시예의 구성을 보인 저부 사시도가 도시되어 있고, 도 4에는 본 발명에 의한 추종 로봇 시스템의 바람직한 실시예를 구성하는 제어 시스템의 흐름을 보인 흐름도가 도시되어 있다.1 to FIG. 1, an embodiment of the following robot system according to the present invention is shown as shown. That is, FIG. 1 is a side view showing the configuration of a preferred embodiment of the following robot system according to the present invention, and FIG. 2 is an upper perspective view showing the configuration of a preferred embodiment of the following robot system according to the present invention, FIG. 3 is a bottom perspective view showing the configuration of a preferred embodiment of the following robot system according to the present invention, and FIG. 4 is a flowchart showing the flow of the control system constituting the preferred embodiment of the following robot system according to the present invention. there is.

이들 도면에 도시된 바와 같이, 본 발명에 의한 추종 로봇 시스템은, 외형을 이룸과 더불어 상부에는 물건의 적재가 가능한 몸체(100)와, 상기 몸체의 일측에 구비되며 몸체가 이송될 수 있도록 하는 구동부(200)와, 상기 몸체의 일측에 구비되며 구동부의 제어를 위한 데이터를 수집하는 센서부(300)와, 상기 센서부를 통해 얻어진 데이터를 이용하여 구동부를 제어하는 제어 시스템(400)을 포함하여 구성되며, 상기 센서부(300)는 사용자가 착용할 수 있는 의류 형태 또는 사용자의 의류에 부착 가능한 형태로 이루어지며 특정 정보가 내장되어 있는 태그(310)와, 상기 몸체(100)의 일측에 구비되어 전방을 촬영하며 상기 태그(310)의 정보를 인식함으로써 태그(310)가 위치된 방향을 인식하는 카메라(320)와, 상기 몸체(100)의 일측에 구비되며 레이저 펄스를 발생하고 반사되는 레이저 펄스에 의해 여타 물체와의 거리를 측정하는 라이다 센서(330)와, 상기 몸체(100)의 일측에 구비되며 초음파를 발생하고 반사되는 초음파에 의해 여타 물체와의 거리를 측정하는 초음파 센서(340) 등을 포함하여 된다. As shown in these drawings, the following robot system according to the present invention has a body 100 that forms an outer shape and can load objects on the upper portion, and a driving unit provided on one side of the body and allowing the body to be transported. (200), a sensor unit 300 provided on one side of the body to collect data for controlling the driving unit, and a control system 400 for controlling the driving unit using the data obtained through the sensor unit. The sensor unit 300 is provided in a form of clothing that a user can wear or a form that can be attached to the user's clothing, and a tag 310 having specific information embedded therein, and provided on one side of the body 100 . A camera 320 for recognizing the direction in which the tag 310 is located by photographing the front and recognizing the information of the tag 310, and a laser pulse provided on one side of the body 100 to generate and reflect a laser pulse The lidar sensor 330 for measuring the distance to other objects by the ultrasonic sensor 330, which is provided on one side of the body 100, generates ultrasonic waves, and measures the distance to other objects by the reflected ultrasonic waves 340 including etc.

상기 몸체(100)는, 육면체와 유사한 형상으로 이루어지며, 상부에는 다양한 물건의 적재가 가능하며, 상부를 제외한 부분에는 다양한 부품이 장착되기 위한 것이다.The body 100 is made of a shape similar to a hexahedron, and various objects can be loaded on the upper part, and various parts are mounted on the part except for the upper part.

그리고, 상기 몸체(100)의 하부에는 구동부(200)가 구비된다.In addition, a driving unit 200 is provided at a lower portion of the body 100 .

상기 구동부(200)는, 상기 몸체(100)를 지면으로 이격되도록 함과 더불어 이동시키기 위한 것으로, 센서부(300)와 제어 시스템(400)을 통해 얻어진 추종 데이터를 통하여 몸체(100)가 태그(310)를 추종할 수 있도록 하는 것이다.The driving unit 200 is for moving the body 100 to be spaced apart from the ground, and the body 100 is tagged ( 310) to follow.

이러한, 구동부(200)는 몸체(100)의 일측에 구비되며 몸체(100)를 일측으로 이동시키는 제1 후방 바퀴(210) 및 제2 후방 바퀴(220)와, 몸체(100)의 일측에 구비되며 제1 후방 바퀴(210) 및 제2 후방 바퀴(220)에 동력을 제공하는 제1 모터(211) 및 제2 모터(221)와, 몸체(100)의 일측에 구비되며 제1 후방 바퀴(210) 및 제2 후방 바퀴(220)와 함께 몸체(100)가 균형을 이룰 수 있도록 하는 전방 바퀴(230) 등을 포함하여 구성된다.The driving unit 200 is provided on one side of the body 100 and includes a first rear wheel 210 and a second rear wheel 220 for moving the body 100 to one side, and provided on one side of the body 100 . and a first motor 211 and a second motor 221 for providing power to the first rear wheel 210 and the second rear wheel 220, and a first rear wheel ( 210) and the second rear wheel 220 together with the body 100 is configured to include a front wheel 230, etc. to be balanced.

상기 제1 후방 바퀴(210) 및 제2 후방 바퀴(220)는, 몸체(100)를 이송시키기 위한 것으로, 몸체(100)의 후방측 하부에 구비된다.The first rear wheel 210 and the second rear wheel 220 are for transporting the body 100 , and are provided at the lower rear side of the body 100 .

이러한, 제1 후방 바퀴(210) 및 제2 후방 바퀴(220)는 각각 제1 모터(211)와 제2 모터(221)가 구비됨으로써 제1 모터(211)와 제2 모터(221)가 함께 구동될 경우 직진 이송 가능하며, 제1 모터(211) 또는 제2 모터(221) 중 어느 하나만 구동될 경우 좌회전 또는 우회전이 가능하게 구비되는 것이다.The first rear wheel 210 and the second rear wheel 220 are provided with a first motor 211 and a second motor 221 , respectively, so that the first motor 211 and the second motor 221 are provided together. When driven, it is possible to move in a straight line, and when either one of the first motor 211 or the second motor 221 is driven, left or right rotation is possible.

그리고, 상기 전방 바퀴(230)는 몸체(100)의 전방측 하부에 구비되는 것으로, 제1 후방 바퀴(210) 및 제2 후방 바퀴(220)와 함께 몸체(100)가 균형을 이룰 수 있도록 하는 것이다.In addition, the front wheel 230 is provided at the lower front side of the body 100, so that the body 100 can be balanced together with the first rear wheel 210 and the second rear wheel 220. will be.

이러한, 전방 바퀴(230)는 본 발명에 의한 추종 로봇 시스템에서는 하나의 바퀴로 구성됨을 예로 하였으나, 두개로 이루어지는 것도 가능할 것이다.Although the front wheel 230 is configured as one wheel in the following robot system according to the present invention as an example, it may be made of two.

이와 같은 몸체(100)의 전방측에는 카메라(320)가 구비된다.A camera 320 is provided on the front side of the body 100 as described above.

상기 카메라(320)는, 몸체(100)의 전방측에 구비되어 전방을 촬영함으로써 태그(310)의 방향을 계속적으로 인식하기 위한 것이다.The camera 320 is provided on the front side of the body 100 to continuously recognize the direction of the tag 310 by photographing the front.

이러한, 카메라(320)는 몸체(100)의 전방측을 촬영하여 태그(310)의 방향을 인식할 뿐만 아니라, 깊이 센서 또는 RGB 센서 등이 더 포함되어 깊이 또는 색상을 인식할 수도 있을 것이다.The camera 320 not only recognizes the direction of the tag 310 by photographing the front side of the body 100, but also includes a depth sensor or RGB sensor to recognize depth or color.

한편, 태그(310)는 사용자가 착용할 수 있는 의류 형태 또는 의류에 부착 가능한 형태로 이루어지는 것으로, 특정 정보를 내장하고 있어 인식되는 대상의 역할을 하는 것이다.On the other hand, the tag 310 is made in the form of clothes that the user can wear or can be attached to the clothes, and has built-in specific information to serve as a recognized target.

즉, 카메라(320)는 전방을 촬영하고, 촬영된 영상을 기준으로 특정 위치에 태그(310)가 있음을 인지함으로써 카메라를 기준으로 태그(310)의 방향을 인지하게 되는 것이다.That is, the camera 320 captures the front and recognizes the direction of the tag 310 with respect to the camera by recognizing that the tag 310 is located at a specific location based on the captured image.

그리고, 몸체(100)의 전방측에는 라이다 센서(330)가 구비된다.In addition, the lidar sensor 330 is provided on the front side of the body 100 .

상기 라이다 센서(330)는, 몸체(100)의 전방측에 구비되어 레이저 펄스를 발생시킴으로써 여타 물체와의 거리를 인식하기 위한 것이다.The lidar sensor 330 is provided on the front side of the body 100 to generate a laser pulse to recognize a distance from another object.

여기서, 라이다 센서(330)는 몸체(100)의 전방측에 구비되어 전방으로 약 170°의 범위를 가지며 레이저 펄스를 발생시키고, 여타 물체에 의해 반사되어 회수되는 레이저 펄스를 통해 여타 물체와 라이다 센서(330) 간의 거리를 측정하는 것이다.Here, the lidar sensor 330 is provided on the front side of the body 100, has a range of about 170° forward, and generates a laser pulse, which is reflected and recovered by other objects through a laser pulse that is reflected and recovered from other objects. This is to measure the distance between the sensors 330 .

또한, 몸체(100)의 측면부에는 초음파 센서(340)가 구비된다.In addition, an ultrasonic sensor 340 is provided on the side portion of the body 100 .

상기 초음파 센서(340)는, 몸체의 측면부에 복수개로 구비되어 초음파를 발생시킴으로써 여타 물체와의 거리를 인식하기 위한 것이다.The ultrasonic sensor 340 is provided in plurality on the side surface of the body to generate ultrasonic waves to recognize a distance from other objects.

여기서, 초음파 센서(340)는 몸체(100)의 측면부, 즉 상면 또는 하면을 제외한 전후좌우면에 구비됨으로써 전후좌우에 위치된 여타 물체와 각각의 초음파 센서(340) 간의 거리를 측정하는 것이다.Here, the ultrasonic sensor 340 is provided on the side surface of the body 100, ie, on the front, rear, left, and right surfaces except for the upper surface or the lower surface, thereby measuring the distance between the ultrasonic sensors 340 and other objects positioned on the front, rear, left, and right sides.

더불어, 몸체(100)의 하부에는 전원부(110)가 구비된다.In addition, a power supply unit 110 is provided at the lower portion of the body 100 .

상기 전원부(110)는, 센서부(300) 및 제어 시스템(400)과 구동부(200)에 전원을 인가하기 위한 것으로, 배터리에 해당되는 것이다.The power supply unit 110 is for applying power to the sensor unit 300 , the control system 400 , and the driving unit 200 , and corresponds to a battery.

한편, 몸체(100)의 전방부에는 제어 시스템(400)이 구비된다.On the other hand, the front part of the body 100 is provided with a control system (400).

상기 제어 시스템(400)은, 육면체와 유사한 형상으로 이루어지며, 센서부(300)를 통해 얻어진 정보를 처리함으로써 구동부(200)를 제어하는 것이다.The control system 400 has a shape similar to a hexahedron, and controls the driving unit 200 by processing information obtained through the sensor unit 300 .

이러한, 상기 제어 시스템(400)은 상기 카메라가 태그를 인식함으로써 태그의 방향 데이터를 얻는 태그 인식 단계(S11)와, 상기 라이다 센서가 레이저 펄스를 발생함으로써 주변 사물과의 거리 데이터를 얻는 라이다 인식 단계(S12)와, 상기 초음파 센서가 초음파를 발생함으로써 주변 사물과의 거리 데이터를 얻는 초음파 인식 단계(S13) 등을 포함하여 구성된다.In the control system 400, the tag recognition step (S11) of obtaining the direction data of the tag by the camera recognizing the tag, and the lidar obtaining distance data to the surrounding object by the lidar sensor generating a laser pulse It is configured to include a recognition step (S12) and an ultrasonic recognition step (S13) of obtaining distance data from a surrounding object by the ultrasonic sensor generating ultrasonic waves.

상기 태그 인식 단계(S11)는, 카메라(320)를 통해 전방을 촬영하고, 카메라(320)를 통해 촬영된 영상에서 태그(310)를 인식하여 카메라(320)를 기준으로 태그(310)의 방향 데이터를 얻는 것이다.In the tag recognition step (S11), the front is photographed through the camera 320, the tag 310 is recognized in the image photographed through the camera 320, and the direction of the tag 310 with respect to the camera 320 is to get data.

이러한, 태그 인식 단계(S11)는 카메라(320)가 넓은 범위의 촬영을 위해 화각이 넓은 광각 렌즈가 적용됨에 따라 광각 렌즈 중심에서 멀어질수록 영상의 왜곡이 발생할 수 있으므로 이를 보정해주는 것이다.In the tag recognition step (S11), since the camera 320 uses a wide-angle lens with a wide angle of view for shooting in a wide range, image distortion may occur as it moves away from the center of the wide-angle lens, and thus corrects this.

이와 같은, 태그 인식 단계(S11)는 실시간으로 계속해서 수행됨이 바람직하다.As such, the tag recognition step S11 is preferably continuously performed in real time.

상기 라이다 인식 단계(S12)는, 라이다 센서(330)를 통해 레이저 펄스를 발생하고, 반사되는 레이저 펄스를 통해 라이다 센서(330)의 인식 범위 내에 존재하는 여타 물체와 라이다 센서(330) 간의 거리를 측정함으로써 주변 사물과의 거리 데이터를 얻는 것이다.In the lidar recognition step ( S12 ), a laser pulse is generated through the lidar sensor 330 , and other objects existing within the recognition range of the lidar sensor 330 and the lidar sensor 330 through the reflected laser pulse ) to obtain distance data from surrounding objects by measuring the distance between them.

이러한, 라이다 인식 단계(S12)는 실시간으로 계속해서 수행됨이 바람직하다.This lidar recognition step (S12) is preferably continuously performed in real time.

상기 초음파 인식 단계(S13)는, 초음파 센서(340)를 통해 초음파를 발생하고, 반사되는 초음파를 통해 각각의 초음파 센서(340)의 인식 범위 내에 존재하는 여타 물체와 각각의 초음파 센서(340) 간의 거리를 측정함으로써 주변 사물과의 거리 데이터를 얻는 것이다.In the ultrasonic recognition step (S13), an ultrasonic wave is generated through the ultrasonic sensor 340, and an ultrasonic wave is reflected between the ultrasonic sensor 340 and other objects existing within the recognition range of each ultrasonic sensor 340. By measuring the distance, it is to obtain distance data from surrounding objects.

이러한, 초음파 인식 단계(S13)는 실시간으로 계속해서 수행됨이 바람직하다.This ultrasonic recognition step (S13) is preferably continuously performed in real time.

더불어, 상기 제어 시스템(400)은 상기 태그 인식 단계(S11)를 통해 얻어진 태그(310)의 방향 데이터와, 상기 라이다 인식 단계(S12)를 통해 얻어진 거리 데이터를 융합함으로써 태그(310)의 위치 데이터를 산출하는 제1 위치 산출 단계(S21)와, 상기 태그 인식 단계(S11)를 통해 얻어진 태그의 방향 데이터와, 상기 초음파 인식 단계(S13)를 통해 얻어진 거리 데이터를 융합함으로써 태그(310)의 위치 데이터를 산출하는 제2 위치 산출 단계(S22)와, 상기 제1 위치 산출 단계(S21)와 제2 위치 산출 단계(S22)를 통해 얻어진 태그(310)의 위치 데이터를 융합함으로써 태그 추종 데이터를 산출하는 추종 데이터 산출 단계(S30)와, 상기 추종 데이터 산출 단계(S30)를 통해 얻어진 추종 데이터를 이용하여 구동부(200)를 구동하는 구동 단계(S40) 등을 더 포함하여 구성된다.In addition, the control system 400 fuses the direction data of the tag 310 obtained through the tag recognition step S11 and the distance data obtained through the lidar recognition step S12 to fuse the position of the tag 310 . By fusing the tag direction data obtained through the first position calculation step S21 of calculating data, the tag recognizing step S11, and the distance data obtained through the ultrasonic recognizing step S13, the tag 310 is The tag tracking data is obtained by fusing the position data of the tag 310 obtained through the second position calculation step (S22) of calculating the position data, and the first position calculation step (S21) and the second position calculation step (S22). It is configured to further include a following data calculation step ( S30 ) of calculating the tracking data, and a driving step ( S40 ) of driving the driving unit 200 using the tracking data obtained through the tracking data calculation step ( S30 ).

상기 제1 위치 산출 단계(S21)는, 태그 인식 단계(S11)를 통해 얻어진 태그(310)의 방향 데이터와, 라이다 인식 단계(S12)를 통해 얻어진 거리 데이터를 융합함으로써 태그(310)의 위치 데이터를 얻는 것이다.The first position calculation step S21 is performed by fusing the direction data of the tag 310 obtained through the tag recognizing step S11 and the distance data obtained through the lidar recognizing step S12 to fuse the position of the tag 310 to get data.

이러한, 제1 위치 산출 단계(S21)는 태그 인식 단계(S11)를 통해 얻어진 데이터와, 라이다 인식 단계(S12)를 통해 얻어진 데이터의 기준점이 다르므로 이를 보정함과 더불어 라이다 인식 단계(S12)는 주변 사물과의 거리를 모두 측정함에 따라 태그(310)를 포함한 주변 사물 전체와의 거리를 측정하게 되고, 태그 인식 단계(S11)를 통해 얻어진 데이터와 융합됨으로써 비로소 태그(310)의 위치 데이터를 얻게 되는 것이다.In the first position calculation step S21, since the reference points of the data obtained through the tag recognition step S11 and the data obtained through the lidar recognition step S12 are different, this is corrected and the lidar recognition step S12 ) is to measure the distance to all surrounding objects including the tag 310 as all distances to the surrounding objects are measured, and the position data of the tag 310 is only fused with the data obtained through the tag recognition step S11. will get

이처럼, 제1 위치 산출 단계(S21)를 통해 얻어진 태그(310)의 위치 데이터는 카메라(320) 또는 라이다 센서(330)를 기준으로 태그(310)의 방향 및 거리를 포함하는 것이다.As such, the location data of the tag 310 obtained through the first location calculation step S21 includes the direction and distance of the tag 310 with respect to the camera 320 or the lidar sensor 330 .

상기 제2 위치 산출 단계(S22)는, 태그 인식 단계(S11)를 통해 얻어진 태그(310)의 방향 데이터와, 초음파 인식 단계(S13)를 통해 얻어진 거리 데이터를 융합함으로써 태그(310)의 위치 데이터를 얻는 것이다.The second position calculation step S22 is performed by fusing the direction data of the tag 310 obtained through the tag recognizing step S11 and the distance data obtained through the ultrasonic recognizing step S13 by fusing the location data of the tag 310 will get

이러한, 제2 위치 산출 단계(S22)는 태그 인식 단계(S11)를 통해 얻어진 데이터와, 초음파 인식 단계(S13)를 통해 얻어진 데이터의 기준점이 다르므로 이를 보정함과 더불어 초음파 인식 단계(S13)는 주변 사물과의 거리를 모두 측정함에 따라 태그(310)를 포함한 주변 사물 전체와의 거리를 측정하게 되고, 태그 인식 단계(S11)를 통해 얻어진 데이터와 융합됨으로써 비로소 태그(310)의 위치 데이터를 얻게 되는 것이다.In this second position calculation step (S22), since the reference points of the data obtained through the tag recognition step (S11) and the data obtained through the ultrasonic recognition step (S13) are different, the reference point is corrected and the ultrasonic recognition step (S13) is As all the distances to the surrounding objects are measured, the distance to all surrounding objects including the tag 310 is measured, and only by fusion with the data obtained through the tag recognition step S11, the location data of the tag 310 is obtained. will become

이처럼, 제2 위치 산출 단계(S22)를 통해 얻어진 태그(310)의 위치 데이터는 카메라(320) 또는 초음파 센서(340)를 기준으로 태그(310)의 방향 및 거리를 포함하는 것이다.As such, the position data of the tag 310 obtained through the second position calculation step S22 includes the direction and distance of the tag 310 with respect to the camera 320 or the ultrasonic sensor 340 .

상기 추종 데이터 산출 단계(S30)는, 제1 위치 산출 단계(S21)와 제2 위치 산출 단계(S22)를 통해 얻어진 태그(310)의 위치 데이터를 융합함으로써 구동부(200)를 제어하는 추종 데이터를 얻는 것이다.The tracking data calculation step (S30) is performed by fusing the location data of the tag 310 obtained through the first location calculation step (S21) and the second location calculation step (S22) to obtain tracking data for controlling the driving unit 200 . will get

이러한, 추종 데이터 산출 단계(S30)는 제1 위치 산출 단계(S21)와 제2 위치 산출 단계(S22)를 통해 얻어진 데이터를 융합하여 추종 데이터를 얻는 것으로, 추종 데이터의 정확도는 크게 상승되는 것이다.In the following data calculation step S30 , the following data is obtained by fusing the data obtained through the first location calculation step S21 and the second location calculation step S22 , and the accuracy of the tracking data is greatly increased.

즉, 제1 위치 산출 단계(S21) 또는 제2 위치 산출 단계(S22)를 통해 얻어진 태그(310)의 위치 데이터만으로도 태그(310)를 추종하도록 할 수는 있으나, 특정 상황에서의 센서 인식 오류 및 보다 정밀도 높은 추종 제어를 위하여 제1 위치 산출 단계(S21)와 제2 위치 산출 단계(S22)를 통해 얻어진 데이터를 융합하는 추종 데이터 산출 단계(S30)를 거쳐 추종 데이터를 얻도록 하는 것이다.That is, it is possible to follow the tag 310 only with the position data of the tag 310 obtained through the first position calculation step S21 or the second position calculation step S22, but sensor recognition error and For more precise tracking control, tracking data is obtained through a tracking data calculation step (S30) of fusing the data obtained through the first location calculation step (S21) and the second location calculation step (S22).

상기 구동 단계(S40)는, 상기 추종 데이터 산출 단계(S30)를 통해 얻어진 추종 데이터를 이용하여 구동부(200)를 구동하는 것이다.In the driving step ( S40 ), the driving unit 200 is driven using the tracking data obtained through the tracking data calculation step ( S30 ).

이 때, 몸체(100)는 태그(310)와 일정 거리를 유지한 상태로 추종함이 바람직할 것이다.At this time, it may be preferable that the body 100 follows the tag 310 while maintaining a predetermined distance.

상기한 바와 같은, 제1 위치 산출 단계(S21) 및 제2 위치 산출 단계(S22)와 추종 데이터 산출 단계(S30) 및 구동 단계(S40)는 실시간으로 계속해서 수행되어 태그(310)를 추종함이 바람직하다.As described above, the first position calculation step (S21) and the second position calculation step (S22), the tracking data calculation step (S30), and the driving step (S40) are continuously performed in real time to follow the tag 310 This is preferable.

한편, 상기 구동 단계(S40)는 상기 추종 데이터 산출 단계(S30)를 통해 얻어진 추종 데이터를 이용하여 태그(310)가 몸체의 좌측 또는 우측 방향에 위치될 경우 구동부를 이루는 두개의 모터 중 어느 하나의 모터만 구동함으로써 회전 이동하도록 프로그래밍 된다.Meanwhile, in the driving step (S40), when the tag 310 is positioned in the left or right direction of the body using the tracking data obtained through the tracking data calculating step (S30), any one of the two motors constituting the driving unit It is programmed to rotate by driving only the motor.

즉, 구동 단계(S40)는 추종 데이터 산출 단계(S30)를 통해 몸체(100)가 태그(310)를 추종함에 있어서 몸체(100)를 기준으로 태그(310)가 좌측 또는 우측 방향에 위치될 경우 제1 모터(211)를 구동함으로써 제1 후방 바퀴(210)를 회전시키거나 제2 모터(221)를 구동함으로써 제2 후방 바퀴(220)를 회전시켜 좌회전 또는 우회전이 가능하고, 이를 통해 몸체(100)는 태그(310)와 수직되게 배치되어 태그(310)를 추종할 수 있도록 함이 바람직하다.That is, in the driving step (S40), when the body 100 follows the tag 310 through the tracking data calculation step (S30), the tag 310 is located in the left or right direction with respect to the body 100 By driving the first motor 211, the first rear wheel 210 is rotated or the second rear wheel 220 is rotated by driving the second motor 221 to rotate left or right, and through this, the body ( 100 is preferably disposed perpendicular to the tag 310 so as to follow the tag 310 .

더불어, 상기 구동 단계(S40)는 상기 추종 데이터 산출 단계(S30)를 통해 얻어진 추종 데이터를 이용하여 태그(310)를 제외한 장애물을 감지하고, 감지된 장애물을 회피하며 태그(310)를 추종할 수 있도록 프로그래밍 된다.In addition, the driving step (S40) can detect obstacles other than the tag 310 using the tracking data obtained through the tracking data calculation step (S30), avoid the detected obstacle, and follow the tag 310 is programmed to

즉, 구동 단계(S40)는 몸체(100)가 태그(310)를 추종하는 과정에서 태그(310)를 제외한 장애물의 감지가 병행되며, 이를 통해 장애물은 회피하면서 태그(310)를 추종할 수 있도록 하는 것이다.That is, in the driving step (S40), in the process of the body 100 following the tag 310, the detection of obstacles other than the tag 310 is parallel, and through this, the obstacle is avoided and the tag 310 can be followed. will do

이와 같은 구성을 가지는 추종 로봇 시스템은, 센서부(300) 및 제어 시스템(400)이 계속해서 데이터를 수집 및 처리함으로써 태그(310)를 추종하게 되는 것이다.In the following robot system having such a configuration, the sensor unit 300 and the control system 400 follow the tag 310 by continuously collecting and processing data.

즉, 본 발명에 의한 추종 로봇 시스템에서는 카메라와 라이다 센서와 초음파 센서가 구비되고, 이들을 통해 얻어진 데이터를 처리함으로써 보다 정밀도 높은 위치 데이터를 얻을 수 있게 되는 것이다.That is, in the tracking robot system according to the present invention, a camera, a lidar sensor, and an ultrasonic sensor are provided, and by processing the data obtained through these, it is possible to obtain higher precision position data.

또한, 본 발명에 의한 추종 로봇 시스템에서는 제1 위치 산출 단계와 제2 위치 산출 단계를 통해 얻어진 태그의 위치 데이터를 한번 더 융합함으로써 보다 정밀도 높은 추종 데이터를 얻을 수 있게 되는 것이다.In addition, in the tracking robot system according to the present invention, more accurate tracking data can be obtained by fusing the tag position data obtained through the first position calculation step and the second position calculation step once more.

더불어, 본 발명에 의한 추종 로봇 시스템에서는 제1 후방 바퀴 및 제2 후방 바퀴에 제1 모터 및 제2 모터가 각각 구비됨에 따라 제1 모터 또는 제2 모터 중 어느 하나만 구동시킴으로써 회전 이동 가능하게 되는 것이다.In addition, in the following robot system according to the present invention, as the first motor and the second motor are respectively provided on the first rear wheel and the second rear wheel, rotational movement is possible by driving either the first motor or the second motor. .

이러한 본 발명의 범위는 상기에서 예시한 실시예에 한정되지 않고, 상기와 같은 기술 범위 안에서 당 업계의 통상의 기술자에게 있어서는 본 발명을 기초로 하는 다른 많은 변형이 가능할 것이다.The scope of the present invention is not limited to the embodiments illustrated above, and many other modifications based on the present invention will be possible for those skilled in the art within the technical scope as described above.

100. 몸체 110. 전원부
200. 구동부 210. 제1 후방 바퀴
211. 제1 모터 220. 제2 후방 바퀴
221. 제2 모터 230. 전방 바퀴
300. 센서부 310. 태그
320. 카메라 330. 라이다 센서
340. 초음파 센서 400. 제어 시스템
S11. 태그 인식 단계 S12. 라이다 인식 단계
S13. 초음파 인식 단계 S21. 제1 위치 산출 단계
S22. 제2 위치 산출 단계 S30. 추종 데이터 산출 단계
S40. 구동 단계
100. Body 110. Power part
200. Drive 210. First rear wheel
211. 1st motor 220. 2nd rear wheel
221. 2nd motor 230. Front wheel
300. Sensor 310. Tag
320. Camera 330. LiDAR sensor
340. Ultrasonic sensor 400. Control system
S11. Tag recognition step S12. lidar recognition stage
S13. Ultrasound recognition step S21. first position calculation step
S22. Second position calculation step S30. Follow-up data calculation step
S40. driving stage

Claims (5)

외형을 이룸과 더불어 상부에는 물건의 적재가 가능한 몸체;
상기 몸체의 일측에 구비되며, 몸체가 이송될 수 있도록 하는 구동부;
상기 몸체의 일측에 구비되며, 구동부의 제어를 위한 데이터를 수집하는 센서부;
상기 센서부를 통해 얻어진 데이터를 이용하여 구동부를 제어하는 제어 시스템;을 포함하여 구성되며,
상기 센서부는,
사용자가 착용할 수 있는 의류 형태 또는 사용자의 의류에 부착 가능한 형태로 이루어지며, 특정 정보가 내장되어 있는 태그;
상기 몸체의 일측에 구비되어 전방을 촬영하며, 상기 태그의 정보를 인식함으로써 태그가 위치된 방향을 인식하는 카메라;
상기 몸체의 일측에 구비되며, 레이저 펄스를 발생하고 반사되는 레이저 펄스에 의해 여타 물체와의 거리를 측정하는 라이다 센서;
상기 몸체의 일측에 구비되며, 초음파를 발생하고 반사되는 초음파에 의해 여타 물체와의 거리를 측정하는 초음파 센서;를 포함하여 구성되며,
상기 제어 시스템은,
상기 카메라가 태그를 인식함으로써 태그의 방향 데이터를 얻는 태그 인식 단계;
상기 라이다 센서가 레이저 펄스를 발생함으로써 주변 사물과의 거리 데이터를 얻는 라이다 인식 단계;
상기 초음파 센서가 초음파를 발생함으로써 주변 사물과의 거리 데이터를 얻는 초음파 인식 단계;
상기 태그 인식 단계를 통해 얻어진 태그의 방향 데이터와, 상기 라이다 인식 단계를 통해 얻어진 거리 데이터를 융합함으로써 태그의 위치 데이터를 산출하는 제1 위치 산출 단계;
상기 태그 인식 단계를 통해 얻어진 태그의 방향 데이터와, 상기 초음파 인식 단계를 통해 얻어진 거리 데이터를 융합함으로써 태그의 위치 데이터를 산출하는 제2 위치 산출 단계;
상기 제1 위치 산출 단계와 제2 위치 산출 단계를 통해 얻어진 태그의 위치 데이터를 융합함으로써 태그 추종 데이터를 산출하는 추종 데이터 산출 단계;
상기 추종 데이터 산출 단계를 통해 얻어진 추종 데이터를 이용하여 구동부를 구동하는 구동 단계;를 포함하여 구성되고,
상기 구동 단계는,
상기 추종 데이터 산출 단계를 통해 얻어진 추종 데이터를 이용하여 태그를 제외한 장애물을 감지하고, 감지된 장애물을 회피하며 태그를 추종할 수 있도록 프로그래밍 됨과 더불어 상기 추종 데이터 산출 단계를 통해 얻어진 추종 데이터를 이용하여 태그가 몸체의 좌측 또는 우측 방향에 위치될 경우 구동부를 이루는 두개의 모터 중 어느 하나의 모터만 구동함으로써 회전 이동하도록 프로그래밍 됨을 특징으로 하는 추종 로봇 시스템.
In addition to achieving the appearance, the upper body can be loaded with things;
a driving unit provided on one side of the body and allowing the body to be transported;
a sensor unit provided on one side of the body and collecting data for controlling the driving unit;
and a control system for controlling the driving unit using the data obtained through the sensor unit; and
The sensor unit,
a tag that is made in the form of clothing that the user can wear or that can be attached to the user's clothing, and has specific information embedded therein;
a camera provided on one side of the body to photograph the front, and recognizing a direction in which the tag is located by recognizing information on the tag;
a lidar sensor provided on one side of the body, generating a laser pulse and measuring a distance to another object by a reflected laser pulse;
An ultrasonic sensor provided on one side of the body, generating ultrasonic waves and measuring the distance to other objects by reflected ultrasonic waves;
The control system is
a tag recognition step of obtaining, by the camera, direction data of the tag by recognizing the tag;
a lidar recognition step in which the lidar sensor generates a laser pulse to obtain distance data from a surrounding object;
an ultrasonic recognition step of obtaining distance data from a surrounding object by the ultrasonic sensor generating ultrasonic waves;
a first position calculation step of calculating tag position data by fusing the tag direction data obtained through the tag recognition step and the distance data obtained through the lidar recognition step;
a second position calculation step of calculating tag position data by fusing the tag direction data obtained through the tag recognition step and the distance data obtained through the ultrasonic recognition step;
a tracking data calculation step of calculating tag tracking data by fusing the tag location data obtained through the first location calculation step and the second location calculation step;
and a driving step of driving the driving unit using the tracking data obtained through the tracking data calculation step;
The driving step is
The tag is programmed to detect obstacles other than the tag using the tracking data obtained through the tracking data calculation step, avoid the detected obstacle, and follow the tag, and use the tracking data obtained through the tracking data calculation step The following robot system, characterized in that it is programmed to rotate and move by driving only one of the two motors constituting the driving part when it is positioned on the left or right side of the body.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020200064218A 2020-05-28 2020-05-28 Following robot system KR102381958B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200064218A KR102381958B1 (en) 2020-05-28 2020-05-28 Following robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200064218A KR102381958B1 (en) 2020-05-28 2020-05-28 Following robot system

Publications (2)

Publication Number Publication Date
KR20210147259A KR20210147259A (en) 2021-12-07
KR102381958B1 true KR102381958B1 (en) 2022-04-01

Family

ID=78868335

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200064218A KR102381958B1 (en) 2020-05-28 2020-05-28 Following robot system

Country Status (1)

Country Link
KR (1) KR102381958B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240020288A (en) * 2022-08-03 2024-02-15 국립부경대학교 산학협력단 Motion recognition-based autonomous driving robot control systems and autonomous driving robot contol method using the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101486308B1 (en) * 2013-08-20 2015-02-04 인하대학교 산학협력단 Tracking moving objects for mobile robots control devices, methods, and its robot
KR101840814B1 (en) * 2017-01-11 2018-03-21 호남대학교 산학협력단 worker following transporter
KR102067603B1 (en) * 2018-05-04 2020-01-17 엘지전자 주식회사 A plurality of robot cleaner and a controlling method for the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101726696B1 (en) 2015-08-26 2017-04-13 한화테크윈 주식회사 Following system wherein moving robot follows moving object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101486308B1 (en) * 2013-08-20 2015-02-04 인하대학교 산학협력단 Tracking moving objects for mobile robots control devices, methods, and its robot
KR101840814B1 (en) * 2017-01-11 2018-03-21 호남대학교 산학협력단 worker following transporter
KR102067603B1 (en) * 2018-05-04 2020-01-17 엘지전자 주식회사 A plurality of robot cleaner and a controlling method for the same

Also Published As

Publication number Publication date
KR20210147259A (en) 2021-12-07

Similar Documents

Publication Publication Date Title
May et al. Robust 3D-mapping with time-of-flight cameras
US20210254308A1 (en) Construction machine with measuring system and construction site measuring system
Chong et al. Sensor technologies and simultaneous localization and mapping (SLAM)
JP5290324B2 (en) Method and system for accurately positioning at least one object in a final pose in space
JP6533619B2 (en) Sensor calibration system
NL1024426C2 (en) Method for detecting a locator mark for a robot cleaner and a robot cleaner using the method.
WO2019128070A1 (en) Target tracking method and apparatus, mobile device and storage medium
JP5310285B2 (en) Self-position estimation apparatus and self-position estimation method
EP1190818A2 (en) Position-orientation recognition device
CN104380137A (en) Method and handheld distance measurement device for indirect distance measurement by means of image-assisted angle determination function
WO2019012770A1 (en) Imaging device and monitoring device
SE522383C2 (en) Mobile robot and course adjustment procedure for the same with a position recognition device that senses base marker in the ceiling.
SE526955C2 (en) Mobile robot and system and procedure for compensation of route deviations
JP2009096335A (en) Legged robot
JP2007199965A (en) Autonomous mobile device
JP2011145924A (en) Moving device and method
KR102381958B1 (en) Following robot system
JP4476468B2 (en) Legged mobile robot
CN112669354A (en) Multi-camera motion state estimation method based on vehicle incomplete constraint
JP2018185203A (en) Mobile robot
Povendhan et al. Multi-sensor fusion incorporating adaptive transformation for reconfigurable pavement sweeping robot
JP4005679B2 (en) Ambient environment recognition device for autonomous vehicles
CN112148005A (en) Robot edge control method based on line laser
JP2006252349A (en) Mobile robot
Lu Vision-enhanced lidar odometry and mapping

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant