KR102381958B1 - Following robot system - Google Patents
Following robot system Download PDFInfo
- Publication number
- KR102381958B1 KR102381958B1 KR1020200064218A KR20200064218A KR102381958B1 KR 102381958 B1 KR102381958 B1 KR 102381958B1 KR 1020200064218 A KR1020200064218 A KR 1020200064218A KR 20200064218 A KR20200064218 A KR 20200064218A KR 102381958 B1 KR102381958 B1 KR 102381958B1
- Authority
- KR
- South Korea
- Prior art keywords
- tag
- data
- calculation step
- data obtained
- driving
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1633—Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1684—Tracking a line or surface by means of sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
Abstract
본 발명은 추종 로봇 시스템에 관한 것이다.
본 발명에 의한 추종 로봇 시스템은, 외형을 이룸과 더불어 상부에는 물건의 적재가 가능한 몸체와, 상기 몸체의 일측에 구비되며 몸체가 이송될 수 있도록 하는 구동부와, 상기 몸체의 일측에 구비되며 구동부의 제어를 위한 데이터를 수집하는 센서부와, 상기 센서부를 통해 얻어진 데이터를 이용하여 구동부를 제어하는 제어 시스템을 포함하여 구성되며, 상기 센서부는 사용자가 착용할 수 있는 의류 형태 또는 사용자의 의류에 부착 가능한 형태로 이루어지며 특정 정보가 내장되어 있는 태그와, 상기 몸체의 일측에 구비되어 전방을 촬영하며 상기 태그의 정보를 인식함으로써 태그가 위치된 방향을 인식하는 카메라와, 상기 몸체의 일측에 구비되며 레이저 펄스를 발생하고 반사되는 레이저 펄스에 의해 여타 물체와의 거리를 측정하는 라이다 센서와, 상기 몸체의 일측에 구비되며 초음파를 발생하고 반사되는 초음파에 의해 여타 물체와의 거리를 측정하는 초음파 센서를 포함하여 구성된다.
이와 같은 본 발명에 의하면, 제1 위치 산출 단계와 제2 위치 산출 단계를 통해 얻어진 태그의 위치 데이터를 한번 더 융합함으로써 보다 정밀도 높은 추종 데이터를 얻을 수 있다는 장점이 있다.The present invention relates to a follower robot system.
The following robot system according to the present invention has an external shape and a body on which objects can be loaded; It is configured to include a sensor unit that collects data for control, and a control system that controls the driving unit using the data obtained through the sensor unit, wherein the sensor unit is in the form of clothing worn by the user or attachable to the user's clothing. A tag in the form of a tag having specific information embedded therein, a camera provided on one side of the body to photograph the front and recognizing the direction in which the tag is located by recognizing the information of the tag, and a laser provided on one side of the body A LiDAR sensor that generates a pulse and measures a distance to another object by a reflected laser pulse, and an ultrasonic sensor that is provided on one side of the body and generates an ultrasonic wave and measures a distance to another object by the reflected ultrasonic wave consists of including
According to the present invention as described above, there is an advantage in that more accurate tracking data can be obtained by fusing the tag position data obtained through the first position calculation step and the second position calculation step once more.
Description
본 발명은 추종 로봇 시스템에 관한 것으로, 보다 상세하게는 센서부를 이루는 복수개의 센서를 통해 추종 데이터를 얻고, 이를 이용하여 정밀도 높은 복합 항법을 제공함으로써 사용자를 추종할 수 있도록 하는 추종 로봇 시스템에 관한 것이다.The present invention relates to a tracking robot system, and more particularly, to a tracking robot system that can follow a user by obtaining tracking data through a plurality of sensors constituting a sensor unit and using the data to provide a high-precision complex navigation. .
일반적으로 추종 로봇은, 센서를 이용하여 사용자 또는 특정 사물을 추종하도록 구성된 장치이다.In general, a tracking robot is a device configured to follow a user or a specific object using a sensor.
상기한 추종 로봇은, 다양한 형태로 이루어질 수 있으나 통상 사용자 또는 특정 사물을 추종하여 영상을 촬영하거나 일을 보조하는 등의 역할을 한다.The following robot may be formed in various forms, but it usually follows a user or a specific object to take an image or assist in work.
이러한 추종 로봇은, 추종 데이터를 얻기 위한 센서와, 추종 데이터를 통해 이동하는 바퀴 등을 포함하여 구성된다.The following robot is configured to include a sensor for obtaining tracking data, a wheel that moves through the tracking data, and the like.
이와 관련하여 한국 등록 특허 제10-1726696호에서는, 이동 대상에 장착되는 제1 카메라와, 이동 로봇에 장착되는 제2 카메라를 포함하고, 상기 제1 카메라와 제2 카메라를 통해 이동 대상의 추종 경로를 산출함으로써 이동 대상을 추종하는 이동 대상을 이동 로봇이 추종하는 추종 시스템이 개시된다.In this regard, Korean Patent Registration No. 10-1726696 discloses a first camera mounted on a moving object and a second camera mounted on a mobile robot, and a tracking path of the moving object through the first camera and the second camera. A tracking system is disclosed in which a mobile robot follows a moving target that follows the moving target by calculating .
그러나, 이러한 종래의 기술에 따른 이동 대상을 이동 로봇이 추종하는 추종 시스템은 제1 카메라와 제2 카메라를 통해 얻어지는 일방향 데이터를 통해 이동 대상을 추종함으로써 오류 발생에 취약한 단점이 있었던 것이다.However, the following system in which a moving robot follows a moving object according to the prior art has a disadvantage in that it is vulnerable to errors by following the moving object through unidirectional data obtained through the first camera and the second camera.
더불어, 특정 상황에서 제1 카메라 또는 제2 카메라 중 어느 하나가 제 기능을 못할 경우가 발생하게 되면 추종 데이터를 얻기 어려워진다는 단점이 있었다.In addition, if any one of the first camera or the second camera does not function properly in a specific situation, there is a disadvantage in that it becomes difficult to obtain tracking data.
따라서, 본 발명의 목적은 상기한 바와 같이 종래 기술의 문제점을 해결하기 위해 안출된 것으로, 센서부를 이루는 복수개의 센서를 통해 추종 데이터를 얻고, 이를 이용하여 정밀도 높은 복합 항법을 제공함으로써 사용자를 추종할 수 있도록 하는 추종 로봇 시스템을 제공하는 것이다.Accordingly, an object of the present invention is to be devised to solve the problems of the prior art as described above, and to follow the user by obtaining tracking data through a plurality of sensors constituting the sensor unit, and using this to provide a high-precision complex navigation. It is to provide a follower robot system that enables
상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 외형을 이룸과 더불어 상부에는 물건의 적재가 가능한 몸체와, 상기 몸체의 일측에 구비되며 몸체가 이송될 수 있도록 하는 구동부와, 상기 몸체의 일측에 구비되며 구동부의 제어를 위한 데이터를 수집하는 센서부와, 상기 센서부를 통해 얻어진 데이터를 이용하여 구동부를 제어하는 제어 시스템을 포함하여 구성되며, 상기 센서부는 사용자가 착용할 수 있는 의류 형태 또는 사용자의 의류에 부착 가능한 형태로 이루어지며 특정 정보가 내장되어 있는 태그와, 상기 몸체의 일측에 구비되어 전방을 촬영하며, 상기 태그의 정보를 인식함으로써 태그가 위치된 방향을 인식하는 카메라와, 상기 몸체의 일측에 구비되며 레이저 펄스를 발생하고 반사되는 레이저 펄스에 의해 여타 물체와의 거리를 측정하는 라이다 센서와, 상기 몸체의 일측에 구비되며 초음파를 발생하고 반사되는 초음파에 의해 여타 물체와의 거리를 측정하는 초음파 센서를 포함하여 구성됨을 특징으로 한다.According to a feature of the present invention for achieving the object as described above, the body has an external shape and the upper part of which can be loaded, a driving unit provided on one side of the body to allow the body to be transported, and the body; It is provided on one side of the unit and is configured to include a sensor unit for collecting data for controlling the driving unit, and a control system for controlling the driving unit using the data obtained through the sensor unit, wherein the sensor unit is a clothing type that a user can wear. or a tag attached to the user's clothing and containing specific information, a camera provided on one side of the body to photograph the front, and recognizing the direction in which the tag is located by recognizing the information of the tag; A lidar sensor provided on one side of the body that generates a laser pulse and measures a distance to another object by a reflected laser pulse, is provided on one side of the body and generates an ultrasonic wave and communicates with another object by the reflected ultrasonic wave It is characterized in that it is configured to include an ultrasonic sensor for measuring the distance of.
상기 제어 시스템은, 상기 카메라가 태그를 인식함으로써 태그의 방향 데이터를 얻는 태그 인식 단계와, 상기 라이다 센서가 레이저 펄스를 발생함으로써 주변 사물과의 거리 데이터를 얻는 라이다 인식 단계와, 상기 초음파 센서가 초음파를 발생함으로써 주변 사물과의 거리 데이터를 얻는 초음파 인식 단계를 포함하여 구성됨을 특징으로 한다.The control system may include: a tag recognition step in which the camera recognizes the tag to obtain direction data of the tag; a lidar recognition step in which the lidar sensor generates a laser pulse to obtain distance data to a nearby object; and the ultrasonic sensor is configured to include an ultrasonic recognition step of obtaining distance data to a surrounding object by generating ultrasonic waves.
상기 제어 시스템은, 상기 태그 인식 단계를 통해 얻어진 태그의 방향 데이터와 상기 라이다 인식 단계를 통해 얻어진 거리 데이터를 융합함으로써 태그의 위치 데이터를 산출하는 제1 위치 산출 단계와, 상기 태그 인식 단계를 통해 얻어진 태그의 방향 데이터와 상기 초음파 인식 단계를 통해 얻어진 거리 데이터를 융합함으로써 태그의 위치 데이터를 산출하는 제2 위치 산출 단계와, 상기 제1 위치 산출 단계와 제2 위치 산출 단계를 통해 얻어진 태그의 위치 데이터를 융합함으로써 태그 추종 데이터를 산출하는 추종 데이터 산출 단계와, 상기 추종 데이터 산출 단계를 통해 얻어진 추종 데이터를 이용하여 구동부를 구동하는 구동 단계를 더 포함하여 구성됨을 특징으로 한다.The control system includes a first position calculation step of calculating the position data of the tag by fusing the direction data of the tag obtained through the tag recognition step and the distance data obtained through the lidar recognition step, and the tag recognition step. A second position calculation step of calculating tag position data by fusing the obtained tag direction data and the distance data obtained through the ultrasonic recognition step, and the tag position obtained through the first position calculation step and the second position calculation step It is characterized in that it further comprises a tracking data calculation step of calculating tag tracking data by fusing data, and a driving step of driving a driving unit using the tracking data obtained through the tracking data calculation step.
상기 구동 단계는, 상기 추종 데이터 산출 단계를 통해 얻어진 추종 데이터를 이용하여 태그가 몸체의 좌측 또는 우측 방향에 위치될 경우 구동부를 이루는 두개의 모터 중 어느 하나의 모터만 구동함으로써 회전 이동하도록 프로그래밍 됨을 특징으로 하는 한다.In the driving step, when the tag is positioned on the left or right side of the body using the tracking data obtained through the tracking data calculation step, the driving step is programmed to rotate by driving only one of the two motors constituting the driving unit. to do with
상기 구동 단계는, 상기 추종 데이터 산출 단계를 통해 얻어진 추종 데이터를 이용하여 태그를 제외한 장애물을 감지하고, 감지된 장애물을 회피하며 태그를 추종할 수 있도록 프로그래밍 됨을 특징으로 한다.The driving step may be programmed to detect an obstacle excluding the tag using the tracking data obtained through the tracking data calculation step, avoid the detected obstacle, and follow the tag.
본 발명에 의한 추종 로봇 시스템은 다음과 같은 효과가 있다.The following robot system according to the present invention has the following effects.
본 발명에서는 카메라와 라이다 센서와 초음파 센서가 구비되고, 이들을 통해 얻어진 데이터를 처리함으로써 보다 정밀도 높은 위치 데이터를 얻을 수 있다는 장점이 있다.In the present invention, a camera, a lidar sensor, and an ultrasonic sensor are provided, and there is an advantage in that position data with higher precision can be obtained by processing the data obtained through them.
본 발명에서는 제1 위치 산출 단계와 제2 위치 산출 단계를 통해 얻어진 태그의 위치 데이터를 한번 더 융합함으로써 보다 정밀도 높은 추종 데이터를 얻을 수 있다는 장점이 있다.In the present invention, there is an advantage that more accurate tracking data can be obtained by fusing the tag position data obtained through the first position calculation step and the second position calculation step once more.
본 발명에서는 제1 후방 바퀴 및 제2 후방 바퀴에 제1 모터 및 제2 모터가 각각 구비됨에 따라 제1 모터 또는 제2 모터 중 어느 하나만 구동시킴으로써 회전 이동 가능하다는 장점이 있다.In the present invention, as the first motor and the second motor are respectively provided on the first rear wheel and the second rear wheel, there is an advantage that rotational movement is possible by driving either the first motor or the second motor.
도 1은 본 발명에 의한 추종 로봇 시스템의 바람직한 실시예의 구성을 보인 측면도
도 2는 본 발명에 의한 추종 로봇 시스템의 바람직한 실시예의 구성을 보인 상부 사시도
도 3은 본 발명에 의한 추종 로봇 시스템의 바람직한 실시예의 구성을 보인 저부 사시도
도 4는 본 발명에 의한 추종 로봇 시스템의 바람직한 실시예를 구성하는 제어 시스템의 흐름을 보인 흐름도1 is a side view showing the configuration of a preferred embodiment of the following robot system according to the present invention;
2 is an upper perspective view showing the configuration of a preferred embodiment of the following robot system according to the present invention;
3 is a bottom perspective view showing the configuration of a preferred embodiment of the following robot system according to the present invention;
4 is a flowchart showing the flow of a control system constituting a preferred embodiment of the following robot system according to the present invention;
이하 본 발명에 의한 추종 로봇 시스템에 대한 바람직한 실시예를 도면을 참조하여 설명한다. Hereinafter, a preferred embodiment of the following robot system according to the present invention will be described with reference to the drawings.
도 1 내지 도 에는 도시된 바와 같이, 본 발명에 의한 추종 로봇 시스템의 일 실시예가 도시되어 있다. 즉, 도 1에는 본 발명에 의한 추종 로봇 시스템의 바람직한 실시예의 구성을 보인 측면도가 도시되어 있고, 도 2에는 본 발명에 의한 추종 로봇 시스템의 바람직한 실시예의 구성을 보인 상부 사시도가 도시되어 있으며, 도 3에는 본 발명에 의한 추종 로봇 시스템의 바람직한 실시예의 구성을 보인 저부 사시도가 도시되어 있고, 도 4에는 본 발명에 의한 추종 로봇 시스템의 바람직한 실시예를 구성하는 제어 시스템의 흐름을 보인 흐름도가 도시되어 있다.1 to FIG. 1, an embodiment of the following robot system according to the present invention is shown as shown. That is, FIG. 1 is a side view showing the configuration of a preferred embodiment of the following robot system according to the present invention, and FIG. 2 is an upper perspective view showing the configuration of a preferred embodiment of the following robot system according to the present invention, FIG. 3 is a bottom perspective view showing the configuration of a preferred embodiment of the following robot system according to the present invention, and FIG. 4 is a flowchart showing the flow of the control system constituting the preferred embodiment of the following robot system according to the present invention. there is.
이들 도면에 도시된 바와 같이, 본 발명에 의한 추종 로봇 시스템은, 외형을 이룸과 더불어 상부에는 물건의 적재가 가능한 몸체(100)와, 상기 몸체의 일측에 구비되며 몸체가 이송될 수 있도록 하는 구동부(200)와, 상기 몸체의 일측에 구비되며 구동부의 제어를 위한 데이터를 수집하는 센서부(300)와, 상기 센서부를 통해 얻어진 데이터를 이용하여 구동부를 제어하는 제어 시스템(400)을 포함하여 구성되며, 상기 센서부(300)는 사용자가 착용할 수 있는 의류 형태 또는 사용자의 의류에 부착 가능한 형태로 이루어지며 특정 정보가 내장되어 있는 태그(310)와, 상기 몸체(100)의 일측에 구비되어 전방을 촬영하며 상기 태그(310)의 정보를 인식함으로써 태그(310)가 위치된 방향을 인식하는 카메라(320)와, 상기 몸체(100)의 일측에 구비되며 레이저 펄스를 발생하고 반사되는 레이저 펄스에 의해 여타 물체와의 거리를 측정하는 라이다 센서(330)와, 상기 몸체(100)의 일측에 구비되며 초음파를 발생하고 반사되는 초음파에 의해 여타 물체와의 거리를 측정하는 초음파 센서(340) 등을 포함하여 된다. As shown in these drawings, the following robot system according to the present invention has a
상기 몸체(100)는, 육면체와 유사한 형상으로 이루어지며, 상부에는 다양한 물건의 적재가 가능하며, 상부를 제외한 부분에는 다양한 부품이 장착되기 위한 것이다.The
그리고, 상기 몸체(100)의 하부에는 구동부(200)가 구비된다.In addition, a
상기 구동부(200)는, 상기 몸체(100)를 지면으로 이격되도록 함과 더불어 이동시키기 위한 것으로, 센서부(300)와 제어 시스템(400)을 통해 얻어진 추종 데이터를 통하여 몸체(100)가 태그(310)를 추종할 수 있도록 하는 것이다.The
이러한, 구동부(200)는 몸체(100)의 일측에 구비되며 몸체(100)를 일측으로 이동시키는 제1 후방 바퀴(210) 및 제2 후방 바퀴(220)와, 몸체(100)의 일측에 구비되며 제1 후방 바퀴(210) 및 제2 후방 바퀴(220)에 동력을 제공하는 제1 모터(211) 및 제2 모터(221)와, 몸체(100)의 일측에 구비되며 제1 후방 바퀴(210) 및 제2 후방 바퀴(220)와 함께 몸체(100)가 균형을 이룰 수 있도록 하는 전방 바퀴(230) 등을 포함하여 구성된다.The
상기 제1 후방 바퀴(210) 및 제2 후방 바퀴(220)는, 몸체(100)를 이송시키기 위한 것으로, 몸체(100)의 후방측 하부에 구비된다.The first
이러한, 제1 후방 바퀴(210) 및 제2 후방 바퀴(220)는 각각 제1 모터(211)와 제2 모터(221)가 구비됨으로써 제1 모터(211)와 제2 모터(221)가 함께 구동될 경우 직진 이송 가능하며, 제1 모터(211) 또는 제2 모터(221) 중 어느 하나만 구동될 경우 좌회전 또는 우회전이 가능하게 구비되는 것이다.The first
그리고, 상기 전방 바퀴(230)는 몸체(100)의 전방측 하부에 구비되는 것으로, 제1 후방 바퀴(210) 및 제2 후방 바퀴(220)와 함께 몸체(100)가 균형을 이룰 수 있도록 하는 것이다.In addition, the
이러한, 전방 바퀴(230)는 본 발명에 의한 추종 로봇 시스템에서는 하나의 바퀴로 구성됨을 예로 하였으나, 두개로 이루어지는 것도 가능할 것이다.Although the
이와 같은 몸체(100)의 전방측에는 카메라(320)가 구비된다.A
상기 카메라(320)는, 몸체(100)의 전방측에 구비되어 전방을 촬영함으로써 태그(310)의 방향을 계속적으로 인식하기 위한 것이다.The
이러한, 카메라(320)는 몸체(100)의 전방측을 촬영하여 태그(310)의 방향을 인식할 뿐만 아니라, 깊이 센서 또는 RGB 센서 등이 더 포함되어 깊이 또는 색상을 인식할 수도 있을 것이다.The
한편, 태그(310)는 사용자가 착용할 수 있는 의류 형태 또는 의류에 부착 가능한 형태로 이루어지는 것으로, 특정 정보를 내장하고 있어 인식되는 대상의 역할을 하는 것이다.On the other hand, the
즉, 카메라(320)는 전방을 촬영하고, 촬영된 영상을 기준으로 특정 위치에 태그(310)가 있음을 인지함으로써 카메라를 기준으로 태그(310)의 방향을 인지하게 되는 것이다.That is, the
그리고, 몸체(100)의 전방측에는 라이다 센서(330)가 구비된다.In addition, the
상기 라이다 센서(330)는, 몸체(100)의 전방측에 구비되어 레이저 펄스를 발생시킴으로써 여타 물체와의 거리를 인식하기 위한 것이다.The
여기서, 라이다 센서(330)는 몸체(100)의 전방측에 구비되어 전방으로 약 170°의 범위를 가지며 레이저 펄스를 발생시키고, 여타 물체에 의해 반사되어 회수되는 레이저 펄스를 통해 여타 물체와 라이다 센서(330) 간의 거리를 측정하는 것이다.Here, the
또한, 몸체(100)의 측면부에는 초음파 센서(340)가 구비된다.In addition, an
상기 초음파 센서(340)는, 몸체의 측면부에 복수개로 구비되어 초음파를 발생시킴으로써 여타 물체와의 거리를 인식하기 위한 것이다.The
여기서, 초음파 센서(340)는 몸체(100)의 측면부, 즉 상면 또는 하면을 제외한 전후좌우면에 구비됨으로써 전후좌우에 위치된 여타 물체와 각각의 초음파 센서(340) 간의 거리를 측정하는 것이다.Here, the
더불어, 몸체(100)의 하부에는 전원부(110)가 구비된다.In addition, a
상기 전원부(110)는, 센서부(300) 및 제어 시스템(400)과 구동부(200)에 전원을 인가하기 위한 것으로, 배터리에 해당되는 것이다.The
한편, 몸체(100)의 전방부에는 제어 시스템(400)이 구비된다.On the other hand, the front part of the
상기 제어 시스템(400)은, 육면체와 유사한 형상으로 이루어지며, 센서부(300)를 통해 얻어진 정보를 처리함으로써 구동부(200)를 제어하는 것이다.The
이러한, 상기 제어 시스템(400)은 상기 카메라가 태그를 인식함으로써 태그의 방향 데이터를 얻는 태그 인식 단계(S11)와, 상기 라이다 센서가 레이저 펄스를 발생함으로써 주변 사물과의 거리 데이터를 얻는 라이다 인식 단계(S12)와, 상기 초음파 센서가 초음파를 발생함으로써 주변 사물과의 거리 데이터를 얻는 초음파 인식 단계(S13) 등을 포함하여 구성된다.In the
상기 태그 인식 단계(S11)는, 카메라(320)를 통해 전방을 촬영하고, 카메라(320)를 통해 촬영된 영상에서 태그(310)를 인식하여 카메라(320)를 기준으로 태그(310)의 방향 데이터를 얻는 것이다.In the tag recognition step (S11), the front is photographed through the
이러한, 태그 인식 단계(S11)는 카메라(320)가 넓은 범위의 촬영을 위해 화각이 넓은 광각 렌즈가 적용됨에 따라 광각 렌즈 중심에서 멀어질수록 영상의 왜곡이 발생할 수 있으므로 이를 보정해주는 것이다.In the tag recognition step (S11), since the
이와 같은, 태그 인식 단계(S11)는 실시간으로 계속해서 수행됨이 바람직하다.As such, the tag recognition step S11 is preferably continuously performed in real time.
상기 라이다 인식 단계(S12)는, 라이다 센서(330)를 통해 레이저 펄스를 발생하고, 반사되는 레이저 펄스를 통해 라이다 센서(330)의 인식 범위 내에 존재하는 여타 물체와 라이다 센서(330) 간의 거리를 측정함으로써 주변 사물과의 거리 데이터를 얻는 것이다.In the lidar recognition step ( S12 ), a laser pulse is generated through the
이러한, 라이다 인식 단계(S12)는 실시간으로 계속해서 수행됨이 바람직하다.This lidar recognition step (S12) is preferably continuously performed in real time.
상기 초음파 인식 단계(S13)는, 초음파 센서(340)를 통해 초음파를 발생하고, 반사되는 초음파를 통해 각각의 초음파 센서(340)의 인식 범위 내에 존재하는 여타 물체와 각각의 초음파 센서(340) 간의 거리를 측정함으로써 주변 사물과의 거리 데이터를 얻는 것이다.In the ultrasonic recognition step (S13), an ultrasonic wave is generated through the
이러한, 초음파 인식 단계(S13)는 실시간으로 계속해서 수행됨이 바람직하다.This ultrasonic recognition step (S13) is preferably continuously performed in real time.
더불어, 상기 제어 시스템(400)은 상기 태그 인식 단계(S11)를 통해 얻어진 태그(310)의 방향 데이터와, 상기 라이다 인식 단계(S12)를 통해 얻어진 거리 데이터를 융합함으로써 태그(310)의 위치 데이터를 산출하는 제1 위치 산출 단계(S21)와, 상기 태그 인식 단계(S11)를 통해 얻어진 태그의 방향 데이터와, 상기 초음파 인식 단계(S13)를 통해 얻어진 거리 데이터를 융합함으로써 태그(310)의 위치 데이터를 산출하는 제2 위치 산출 단계(S22)와, 상기 제1 위치 산출 단계(S21)와 제2 위치 산출 단계(S22)를 통해 얻어진 태그(310)의 위치 데이터를 융합함으로써 태그 추종 데이터를 산출하는 추종 데이터 산출 단계(S30)와, 상기 추종 데이터 산출 단계(S30)를 통해 얻어진 추종 데이터를 이용하여 구동부(200)를 구동하는 구동 단계(S40) 등을 더 포함하여 구성된다.In addition, the
상기 제1 위치 산출 단계(S21)는, 태그 인식 단계(S11)를 통해 얻어진 태그(310)의 방향 데이터와, 라이다 인식 단계(S12)를 통해 얻어진 거리 데이터를 융합함으로써 태그(310)의 위치 데이터를 얻는 것이다.The first position calculation step S21 is performed by fusing the direction data of the
이러한, 제1 위치 산출 단계(S21)는 태그 인식 단계(S11)를 통해 얻어진 데이터와, 라이다 인식 단계(S12)를 통해 얻어진 데이터의 기준점이 다르므로 이를 보정함과 더불어 라이다 인식 단계(S12)는 주변 사물과의 거리를 모두 측정함에 따라 태그(310)를 포함한 주변 사물 전체와의 거리를 측정하게 되고, 태그 인식 단계(S11)를 통해 얻어진 데이터와 융합됨으로써 비로소 태그(310)의 위치 데이터를 얻게 되는 것이다.In the first position calculation step S21, since the reference points of the data obtained through the tag recognition step S11 and the data obtained through the lidar recognition step S12 are different, this is corrected and the lidar recognition step S12 ) is to measure the distance to all surrounding objects including the
이처럼, 제1 위치 산출 단계(S21)를 통해 얻어진 태그(310)의 위치 데이터는 카메라(320) 또는 라이다 센서(330)를 기준으로 태그(310)의 방향 및 거리를 포함하는 것이다.As such, the location data of the
상기 제2 위치 산출 단계(S22)는, 태그 인식 단계(S11)를 통해 얻어진 태그(310)의 방향 데이터와, 초음파 인식 단계(S13)를 통해 얻어진 거리 데이터를 융합함으로써 태그(310)의 위치 데이터를 얻는 것이다.The second position calculation step S22 is performed by fusing the direction data of the
이러한, 제2 위치 산출 단계(S22)는 태그 인식 단계(S11)를 통해 얻어진 데이터와, 초음파 인식 단계(S13)를 통해 얻어진 데이터의 기준점이 다르므로 이를 보정함과 더불어 초음파 인식 단계(S13)는 주변 사물과의 거리를 모두 측정함에 따라 태그(310)를 포함한 주변 사물 전체와의 거리를 측정하게 되고, 태그 인식 단계(S11)를 통해 얻어진 데이터와 융합됨으로써 비로소 태그(310)의 위치 데이터를 얻게 되는 것이다.In this second position calculation step (S22), since the reference points of the data obtained through the tag recognition step (S11) and the data obtained through the ultrasonic recognition step (S13) are different, the reference point is corrected and the ultrasonic recognition step (S13) is As all the distances to the surrounding objects are measured, the distance to all surrounding objects including the
이처럼, 제2 위치 산출 단계(S22)를 통해 얻어진 태그(310)의 위치 데이터는 카메라(320) 또는 초음파 센서(340)를 기준으로 태그(310)의 방향 및 거리를 포함하는 것이다.As such, the position data of the
상기 추종 데이터 산출 단계(S30)는, 제1 위치 산출 단계(S21)와 제2 위치 산출 단계(S22)를 통해 얻어진 태그(310)의 위치 데이터를 융합함으로써 구동부(200)를 제어하는 추종 데이터를 얻는 것이다.The tracking data calculation step (S30) is performed by fusing the location data of the
이러한, 추종 데이터 산출 단계(S30)는 제1 위치 산출 단계(S21)와 제2 위치 산출 단계(S22)를 통해 얻어진 데이터를 융합하여 추종 데이터를 얻는 것으로, 추종 데이터의 정확도는 크게 상승되는 것이다.In the following data calculation step S30 , the following data is obtained by fusing the data obtained through the first location calculation step S21 and the second location calculation step S22 , and the accuracy of the tracking data is greatly increased.
즉, 제1 위치 산출 단계(S21) 또는 제2 위치 산출 단계(S22)를 통해 얻어진 태그(310)의 위치 데이터만으로도 태그(310)를 추종하도록 할 수는 있으나, 특정 상황에서의 센서 인식 오류 및 보다 정밀도 높은 추종 제어를 위하여 제1 위치 산출 단계(S21)와 제2 위치 산출 단계(S22)를 통해 얻어진 데이터를 융합하는 추종 데이터 산출 단계(S30)를 거쳐 추종 데이터를 얻도록 하는 것이다.That is, it is possible to follow the
상기 구동 단계(S40)는, 상기 추종 데이터 산출 단계(S30)를 통해 얻어진 추종 데이터를 이용하여 구동부(200)를 구동하는 것이다.In the driving step ( S40 ), the driving
이 때, 몸체(100)는 태그(310)와 일정 거리를 유지한 상태로 추종함이 바람직할 것이다.At this time, it may be preferable that the
상기한 바와 같은, 제1 위치 산출 단계(S21) 및 제2 위치 산출 단계(S22)와 추종 데이터 산출 단계(S30) 및 구동 단계(S40)는 실시간으로 계속해서 수행되어 태그(310)를 추종함이 바람직하다.As described above, the first position calculation step (S21) and the second position calculation step (S22), the tracking data calculation step (S30), and the driving step (S40) are continuously performed in real time to follow the
한편, 상기 구동 단계(S40)는 상기 추종 데이터 산출 단계(S30)를 통해 얻어진 추종 데이터를 이용하여 태그(310)가 몸체의 좌측 또는 우측 방향에 위치될 경우 구동부를 이루는 두개의 모터 중 어느 하나의 모터만 구동함으로써 회전 이동하도록 프로그래밍 된다.Meanwhile, in the driving step (S40), when the
즉, 구동 단계(S40)는 추종 데이터 산출 단계(S30)를 통해 몸체(100)가 태그(310)를 추종함에 있어서 몸체(100)를 기준으로 태그(310)가 좌측 또는 우측 방향에 위치될 경우 제1 모터(211)를 구동함으로써 제1 후방 바퀴(210)를 회전시키거나 제2 모터(221)를 구동함으로써 제2 후방 바퀴(220)를 회전시켜 좌회전 또는 우회전이 가능하고, 이를 통해 몸체(100)는 태그(310)와 수직되게 배치되어 태그(310)를 추종할 수 있도록 함이 바람직하다.That is, in the driving step (S40), when the
더불어, 상기 구동 단계(S40)는 상기 추종 데이터 산출 단계(S30)를 통해 얻어진 추종 데이터를 이용하여 태그(310)를 제외한 장애물을 감지하고, 감지된 장애물을 회피하며 태그(310)를 추종할 수 있도록 프로그래밍 된다.In addition, the driving step (S40) can detect obstacles other than the
즉, 구동 단계(S40)는 몸체(100)가 태그(310)를 추종하는 과정에서 태그(310)를 제외한 장애물의 감지가 병행되며, 이를 통해 장애물은 회피하면서 태그(310)를 추종할 수 있도록 하는 것이다.That is, in the driving step (S40), in the process of the
이와 같은 구성을 가지는 추종 로봇 시스템은, 센서부(300) 및 제어 시스템(400)이 계속해서 데이터를 수집 및 처리함으로써 태그(310)를 추종하게 되는 것이다.In the following robot system having such a configuration, the
즉, 본 발명에 의한 추종 로봇 시스템에서는 카메라와 라이다 센서와 초음파 센서가 구비되고, 이들을 통해 얻어진 데이터를 처리함으로써 보다 정밀도 높은 위치 데이터를 얻을 수 있게 되는 것이다.That is, in the tracking robot system according to the present invention, a camera, a lidar sensor, and an ultrasonic sensor are provided, and by processing the data obtained through these, it is possible to obtain higher precision position data.
또한, 본 발명에 의한 추종 로봇 시스템에서는 제1 위치 산출 단계와 제2 위치 산출 단계를 통해 얻어진 태그의 위치 데이터를 한번 더 융합함으로써 보다 정밀도 높은 추종 데이터를 얻을 수 있게 되는 것이다.In addition, in the tracking robot system according to the present invention, more accurate tracking data can be obtained by fusing the tag position data obtained through the first position calculation step and the second position calculation step once more.
더불어, 본 발명에 의한 추종 로봇 시스템에서는 제1 후방 바퀴 및 제2 후방 바퀴에 제1 모터 및 제2 모터가 각각 구비됨에 따라 제1 모터 또는 제2 모터 중 어느 하나만 구동시킴으로써 회전 이동 가능하게 되는 것이다.In addition, in the following robot system according to the present invention, as the first motor and the second motor are respectively provided on the first rear wheel and the second rear wheel, rotational movement is possible by driving either the first motor or the second motor. .
이러한 본 발명의 범위는 상기에서 예시한 실시예에 한정되지 않고, 상기와 같은 기술 범위 안에서 당 업계의 통상의 기술자에게 있어서는 본 발명을 기초로 하는 다른 많은 변형이 가능할 것이다.The scope of the present invention is not limited to the embodiments illustrated above, and many other modifications based on the present invention will be possible for those skilled in the art within the technical scope as described above.
100. 몸체 110. 전원부
200. 구동부 210. 제1 후방 바퀴
211. 제1 모터 220. 제2 후방 바퀴
221. 제2 모터 230. 전방 바퀴
300. 센서부 310. 태그
320. 카메라 330. 라이다 센서
340. 초음파 센서 400. 제어 시스템
S11. 태그 인식 단계 S12. 라이다 인식 단계
S13. 초음파 인식 단계 S21. 제1 위치 산출 단계
S22. 제2 위치 산출 단계 S30. 추종 데이터 산출 단계
S40. 구동 단계100.
200. Drive 210. First rear wheel
211.
221.
300.
320.
340.
S11. Tag recognition step S12. lidar recognition stage
S13. Ultrasound recognition step S21. first position calculation step
S22. Second position calculation step S30. Follow-up data calculation step
S40. driving stage
Claims (5)
상기 몸체의 일측에 구비되며, 몸체가 이송될 수 있도록 하는 구동부;
상기 몸체의 일측에 구비되며, 구동부의 제어를 위한 데이터를 수집하는 센서부;
상기 센서부를 통해 얻어진 데이터를 이용하여 구동부를 제어하는 제어 시스템;을 포함하여 구성되며,
상기 센서부는,
사용자가 착용할 수 있는 의류 형태 또는 사용자의 의류에 부착 가능한 형태로 이루어지며, 특정 정보가 내장되어 있는 태그;
상기 몸체의 일측에 구비되어 전방을 촬영하며, 상기 태그의 정보를 인식함으로써 태그가 위치된 방향을 인식하는 카메라;
상기 몸체의 일측에 구비되며, 레이저 펄스를 발생하고 반사되는 레이저 펄스에 의해 여타 물체와의 거리를 측정하는 라이다 센서;
상기 몸체의 일측에 구비되며, 초음파를 발생하고 반사되는 초음파에 의해 여타 물체와의 거리를 측정하는 초음파 센서;를 포함하여 구성되며,
상기 제어 시스템은,
상기 카메라가 태그를 인식함으로써 태그의 방향 데이터를 얻는 태그 인식 단계;
상기 라이다 센서가 레이저 펄스를 발생함으로써 주변 사물과의 거리 데이터를 얻는 라이다 인식 단계;
상기 초음파 센서가 초음파를 발생함으로써 주변 사물과의 거리 데이터를 얻는 초음파 인식 단계;
상기 태그 인식 단계를 통해 얻어진 태그의 방향 데이터와, 상기 라이다 인식 단계를 통해 얻어진 거리 데이터를 융합함으로써 태그의 위치 데이터를 산출하는 제1 위치 산출 단계;
상기 태그 인식 단계를 통해 얻어진 태그의 방향 데이터와, 상기 초음파 인식 단계를 통해 얻어진 거리 데이터를 융합함으로써 태그의 위치 데이터를 산출하는 제2 위치 산출 단계;
상기 제1 위치 산출 단계와 제2 위치 산출 단계를 통해 얻어진 태그의 위치 데이터를 융합함으로써 태그 추종 데이터를 산출하는 추종 데이터 산출 단계;
상기 추종 데이터 산출 단계를 통해 얻어진 추종 데이터를 이용하여 구동부를 구동하는 구동 단계;를 포함하여 구성되고,
상기 구동 단계는,
상기 추종 데이터 산출 단계를 통해 얻어진 추종 데이터를 이용하여 태그를 제외한 장애물을 감지하고, 감지된 장애물을 회피하며 태그를 추종할 수 있도록 프로그래밍 됨과 더불어 상기 추종 데이터 산출 단계를 통해 얻어진 추종 데이터를 이용하여 태그가 몸체의 좌측 또는 우측 방향에 위치될 경우 구동부를 이루는 두개의 모터 중 어느 하나의 모터만 구동함으로써 회전 이동하도록 프로그래밍 됨을 특징으로 하는 추종 로봇 시스템.In addition to achieving the appearance, the upper body can be loaded with things;
a driving unit provided on one side of the body and allowing the body to be transported;
a sensor unit provided on one side of the body and collecting data for controlling the driving unit;
and a control system for controlling the driving unit using the data obtained through the sensor unit; and
The sensor unit,
a tag that is made in the form of clothing that the user can wear or that can be attached to the user's clothing, and has specific information embedded therein;
a camera provided on one side of the body to photograph the front, and recognizing a direction in which the tag is located by recognizing information on the tag;
a lidar sensor provided on one side of the body, generating a laser pulse and measuring a distance to another object by a reflected laser pulse;
An ultrasonic sensor provided on one side of the body, generating ultrasonic waves and measuring the distance to other objects by reflected ultrasonic waves;
The control system is
a tag recognition step of obtaining, by the camera, direction data of the tag by recognizing the tag;
a lidar recognition step in which the lidar sensor generates a laser pulse to obtain distance data from a surrounding object;
an ultrasonic recognition step of obtaining distance data from a surrounding object by the ultrasonic sensor generating ultrasonic waves;
a first position calculation step of calculating tag position data by fusing the tag direction data obtained through the tag recognition step and the distance data obtained through the lidar recognition step;
a second position calculation step of calculating tag position data by fusing the tag direction data obtained through the tag recognition step and the distance data obtained through the ultrasonic recognition step;
a tracking data calculation step of calculating tag tracking data by fusing the tag location data obtained through the first location calculation step and the second location calculation step;
and a driving step of driving the driving unit using the tracking data obtained through the tracking data calculation step;
The driving step is
The tag is programmed to detect obstacles other than the tag using the tracking data obtained through the tracking data calculation step, avoid the detected obstacle, and follow the tag, and use the tracking data obtained through the tracking data calculation step The following robot system, characterized in that it is programmed to rotate and move by driving only one of the two motors constituting the driving part when it is positioned on the left or right side of the body.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200064218A KR102381958B1 (en) | 2020-05-28 | 2020-05-28 | Following robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200064218A KR102381958B1 (en) | 2020-05-28 | 2020-05-28 | Following robot system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210147259A KR20210147259A (en) | 2021-12-07 |
KR102381958B1 true KR102381958B1 (en) | 2022-04-01 |
Family
ID=78868335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200064218A KR102381958B1 (en) | 2020-05-28 | 2020-05-28 | Following robot system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102381958B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240020288A (en) * | 2022-08-03 | 2024-02-15 | 국립부경대학교 산학협력단 | Motion recognition-based autonomous driving robot control systems and autonomous driving robot contol method using the same |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101486308B1 (en) * | 2013-08-20 | 2015-02-04 | 인하대학교 산학협력단 | Tracking moving objects for mobile robots control devices, methods, and its robot |
KR101840814B1 (en) * | 2017-01-11 | 2018-03-21 | 호남대학교 산학협력단 | worker following transporter |
KR102067603B1 (en) * | 2018-05-04 | 2020-01-17 | 엘지전자 주식회사 | A plurality of robot cleaner and a controlling method for the same |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101726696B1 (en) | 2015-08-26 | 2017-04-13 | 한화테크윈 주식회사 | Following system wherein moving robot follows moving object |
-
2020
- 2020-05-28 KR KR1020200064218A patent/KR102381958B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101486308B1 (en) * | 2013-08-20 | 2015-02-04 | 인하대학교 산학협력단 | Tracking moving objects for mobile robots control devices, methods, and its robot |
KR101840814B1 (en) * | 2017-01-11 | 2018-03-21 | 호남대학교 산학협력단 | worker following transporter |
KR102067603B1 (en) * | 2018-05-04 | 2020-01-17 | 엘지전자 주식회사 | A plurality of robot cleaner and a controlling method for the same |
Also Published As
Publication number | Publication date |
---|---|
KR20210147259A (en) | 2021-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
May et al. | Robust 3D-mapping with time-of-flight cameras | |
US20210254308A1 (en) | Construction machine with measuring system and construction site measuring system | |
Chong et al. | Sensor technologies and simultaneous localization and mapping (SLAM) | |
JP5290324B2 (en) | Method and system for accurately positioning at least one object in a final pose in space | |
JP6533619B2 (en) | Sensor calibration system | |
NL1024426C2 (en) | Method for detecting a locator mark for a robot cleaner and a robot cleaner using the method. | |
WO2019128070A1 (en) | Target tracking method and apparatus, mobile device and storage medium | |
JP5310285B2 (en) | Self-position estimation apparatus and self-position estimation method | |
EP1190818A2 (en) | Position-orientation recognition device | |
CN104380137A (en) | Method and handheld distance measurement device for indirect distance measurement by means of image-assisted angle determination function | |
WO2019012770A1 (en) | Imaging device and monitoring device | |
SE522383C2 (en) | Mobile robot and course adjustment procedure for the same with a position recognition device that senses base marker in the ceiling. | |
SE526955C2 (en) | Mobile robot and system and procedure for compensation of route deviations | |
JP2009096335A (en) | Legged robot | |
JP2007199965A (en) | Autonomous mobile device | |
JP2011145924A (en) | Moving device and method | |
KR102381958B1 (en) | Following robot system | |
JP4476468B2 (en) | Legged mobile robot | |
CN112669354A (en) | Multi-camera motion state estimation method based on vehicle incomplete constraint | |
JP2018185203A (en) | Mobile robot | |
Povendhan et al. | Multi-sensor fusion incorporating adaptive transformation for reconfigurable pavement sweeping robot | |
JP4005679B2 (en) | Ambient environment recognition device for autonomous vehicles | |
CN112148005A (en) | Robot edge control method based on line laser | |
JP2006252349A (en) | Mobile robot | |
Lu | Vision-enhanced lidar odometry and mapping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |