KR102137033B1 - Method of robot's cooperation based on resource distribution and robot with cooperating each other - Google Patents

Method of robot's cooperation based on resource distribution and robot with cooperating each other Download PDF

Info

Publication number
KR102137033B1
KR102137033B1 KR1020180122852A KR20180122852A KR102137033B1 KR 102137033 B1 KR102137033 B1 KR 102137033B1 KR 1020180122852 A KR1020180122852 A KR 1020180122852A KR 20180122852 A KR20180122852 A KR 20180122852A KR 102137033 B1 KR102137033 B1 KR 102137033B1
Authority
KR
South Korea
Prior art keywords
robot
target
point
information
unit
Prior art date
Application number
KR1020180122852A
Other languages
Korean (ko)
Other versions
KR20200046148A (en
Inventor
김경태
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020180122852A priority Critical patent/KR102137033B1/en
Publication of KR20200046148A publication Critical patent/KR20200046148A/en
Application granted granted Critical
Publication of KR102137033B1 publication Critical patent/KR102137033B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 리소스 분배에 기반하여 로봇이 협업하는 방법 및 협업하는 로봇에 관한 것으로, 본 발명의 일 실시예에 의한 로봇 또는 로봇의 주행 방법은 리소스 분배에 기반하여 협업하는 로봇은 제1지점에서 제2지점까지 이동하는 과정에서 해당 로봇이 수행하는 작업을 인계받을 대상 로봇을 선택하고, 대상 로봇에게 작업을 인계하기 위한 중간 지점으로 로봇을 이동시키는 것을 포함한다. The present invention relates to a method for a robot to cooperate and a robot to cooperate based on resource distribution, and a robot or a robot driving method according to an embodiment of the present invention provides a robot for cooperating based on resource distribution at a first point. This includes selecting a target robot to take over the work performed by the robot and moving the robot to an intermediate point for taking over the work to the target robot in the process of moving up to 2 points.

Figure R1020180122852
Figure R1020180122852

Description

리소스 분배에 기반하여 로봇이 협업하는 방법 및 협업하는 로봇{METHOD OF ROBOT'S COOPERATION BASED ON RESOURCE DISTRIBUTION AND ROBOT WITH COOPERATING EACH OTHER}How robots collaborate based on resource distribution and robots that collaborate{METHOD OF ROBOT'S COOPERATION BASED ON RESOURCE DISTRIBUTION AND ROBOT WITH COOPERATING EACH OTHER}

본 발명은 리소스 분배에 기반하여 로봇이 협업하는 방법 및 협업하는 로봇에 관한 기술이다.The present invention relates to a method for a robot to collaborate and a technology to collaborate based on resource distribution.

공항, 학교, 관공서, 호텔, 사무실, 공장, 체육관, 공연장과 같은 문화시설 등 인적, 물적 교류가 활발하게 발생하는 공간에서 로봇이 동작하기 위해서는 공간을 지속적으로 센싱하여 이동하는 것이 필요하다. 한편, 로봇이 이동하는 공간에는 항상 보행자들 혹은 보행자들과 동반하여 이동하는 다양한 사물들이 다수 배치될 수 있으므로, 로봇은 이들을 회피하여 주행하는 것이 필요하다. It is necessary to continuously sense and move the space in order to operate the robot in a space where human and physical exchanges such as airports, schools, government offices, hotels, offices, factories, gymnasiums, and concert halls are actively occurring. On the other hand, since there can be a large number of various objects moving along with pedestrians or pedestrians in the space where the robot moves, the robot needs to run avoiding them.

특히, 인적, 물적 교류가 활발하게 발생하는 공간에서는 사람들이 다양한 방향에서 출몰할 수 있으며, 또한 이들에 동반한 사물들 역시 로봇이 회피해야 하는 대상이다. 그런데, 로봇이 이들 이동하는 장애물들과의 거리를 유지하는 방식 및 회피하는 방식은 로봇의 이동 경로와 작업 기능에 많은 영향을 미친다. 또한, 이동 과정에서 로봇이 특정한 지점으로 이동하는 것은 로봇의 성능에 많은 영향을 미친다. In particular, in spaces where human and physical exchanges are actively occurring, people can appear in various directions, and objects accompanying them are also objects that robots should avoid. However, the manner in which the robot maintains a distance from these moving obstacles and avoids it has a great influence on the robot's movement path and work function. In addition, the movement of the robot to a specific point in the movement process has a great influence on the performance of the robot.

도 1은 한국 등록 특허 1170686호의 로봇이 대기 위치로 복귀하는 기술을 보여주는 도면이다. 1 is a view showing a technique in which the robot of Korean Patent No. 1170686 returns to the standby position.

도 1을 살펴보면, 관제서버(1001)는 각각의 이동로봇(1005a~1005c)의 안내 서비스를 위한 데이터를 데이터베이스(1003)에 탑재하고, 각 이동로봇(1005a~1005c)에 맞는 데이터를 전송한다. 관제 단말기(1002)는 각 이동로봇(1005a~1005c)을 관제한다. Referring to FIG. 1, the control server 1001 mounts data for the guide service of each mobile robot 1005a to 1005c in the database 1003 and transmits data suitable for each mobile robot 1005a to 1005c. The control terminal 1002 controls each mobile robot 1005a to 1005c.

이들 이동로봇(1005a~5c)들은 관제서버(1001) 및 관제 단말기(1002)에 의해 전람회, 박람회 등의 실내외 행사장과, 놀이공원, 동식물원, 미술관 또는 박물관 등의 주요 지점에서 대기하며, 방문객의 안내 서비스를 수행하며, 패치 데이터가 있을 경우에는 이를 실행 한 후 지정된 출근위치(안내업무 대기위치)로 이동한다. These mobile robots 1005a to 5c wait at indoor and outdoor event venues such as exhibitions and fairs, and at major points such as amusement parks, zoo and botanical gardens, art galleries or museums by the control server 1001 and control terminal 1002, and guide visitors. Performs service, and if there is patch data, executes it and moves to the designated work location (waiting location for guidance service).

도 1과 같은 구성에서는 한 대의 로봇이 가이드를 마친 후 최초 대기 위치로 복귀하여 대기하는데, 만약 로봇의 대기 위치가 각각 다른 경우, 대기 위치에서 멀리 떨어진 곳으로 가이드를 하면 해당 위치의 서비스 공백이 커지는 문제가 발생한다. In the configuration shown in FIG. 1, after one robot finishes the guide, the robot returns to the initial standby position and waits. If the waiting positions of the robots are different, when the guide is moved away from the standby position, the service space at the corresponding position increases. The problem arises.

이에, 다수의 로봇들이 서비스 공간 내에 배치된 경우, 이들 로봇들이 특정한 서비스를 제공함에 있어 협업하여 동작할 수 있는 방법과 장치에 대해 살펴본다.Accordingly, when a plurality of robots are disposed in a service space, a method and apparatus that can be operated in cooperation when these robots provide a specific service will be described.

본 명세서에서는 전술한 문제점을 해결하기 위한 것으로, 로봇이 특정한 작업을 수행한 후 대기 위치로 복귀하는데 소요되는 리소스를 줄이는 방안을 제공하고자 한다.In order to solve the above-mentioned problems, the present specification is intended to provide a method of reducing resources required for a robot to return to a standby position after performing a specific task.

또한, 본 명세서에서는 로봇이 작업을 처리하는데 투입하는 리소스를 줄이고 이를 다른 로봇들과 배분하여 각 로봇이 담당하는 영역에서의 서비스 공백을 줄이도록 한다.In addition, in this specification, the resources that the robot puts in processing the work are reduced and distributed to other robots to reduce the service gap in the area in which each robot is in charge.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the objects mentioned above, and other objects and advantages of the present invention not mentioned can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. In addition, it will be readily appreciated that the objects and advantages of the present invention can be realized by means of the appended claims and combinations thereof.

본 발명의 일 실시예에 의한 리소스 분배에 기반하여 협업하는 로봇은 제1지점에서 제2지점까지 이동하는 과정에서 해당 로봇이 수행하는 작업을 인계받을 대상 로봇을 선택한다. The robot cooperating based on resource distribution according to an embodiment of the present invention selects a target robot to take over the work performed by the robot in the process of moving from the first point to the second point.

본 발명의 일 실시예에 의한 리소스 분배에 기반하여 협업하는 로봇은 대상 로봇에게 작업을 인계하기 위한 중간 지점으로 로봇을 이동시킨다.A robot cooperating based on resource distribution according to an embodiment of the present invention moves the robot to an intermediate point for taking over work to the target robot.

본 발명의 일 실시예에 의한 리소스 분배에 기반하여 협업하는 로봇은 수신한 정보에서 제1지점 및 제2지점의 경로에서 경유 가능한 대기 위치의 대상 로봇을 근접한 순서로 정렬하여 대상 로봇의 상태 정보와 대상 로봇의 협업 가치에 기반하여 하나 이상의 대상 로봇 중 하나를 선택한다. The robot cooperating based on the resource distribution according to an embodiment of the present invention sorts the target robots in the standby positions that can be traversed in the paths of the first point and the second point from the received information in close order and the status information of the target robot. Select one of one or more target robots based on the collaboration value of the target robot.

본 발명의 일 실시예에 의한 리소스 분배에 기반하여 협업하는 로봇은 로봇과 대상 로봇과의 거리, 로봇과 제2지점의 거리, 및 대상 로봇과 제2지점의 거리 중 어느 둘 이상을 비교하여 상기 협업 가치를 판단한다.The robot cooperating based on resource distribution according to an embodiment of the present invention compares any two or more of the distance between the robot and the target robot, the distance between the robot and the second point, and the distance between the target robot and the second point. Determine the value of collaboration.

본 발명의 일 실시예에 의한 리소스 분배에 기반하여 협업하는 대상 로봇은 다른 로봇으로부터 작업을 인계받기 위한 중간 지점에 대한 위치 정보를 수신하면 대상 로봇을 상기 중간 지점으로 이동시킨다.The target robot collaborating based on resource distribution according to an embodiment of the present invention moves the target robot to the intermediate point when receiving location information on the intermediate point for taking over the work from another robot.

본 발명의 실시예들을 적용할 경우, 전체 로봇들의 총 리소스와 개별 로봇의 리소스의 효율성을 높일 수 있다. When the embodiments of the present invention are applied, it is possible to increase the efficiency of the total resources of all robots and the resources of individual robots.

또한, 본 발명의 실시예들을 적용할 경우, 특정 서비스을 수행함에 있어서 경로상에 있는 로봇들이 리소스 분배를 하기 때문에 가이드를 시작하는 로봇이 제공해야 하는 리소스의 양을 줄일 수 있다.In addition, when applying the embodiments of the present invention, since the robots on the path distribute resources in performing a specific service, it is possible to reduce the amount of resources that the robot that starts the guide should provide.

본 발명의 효과는 전술한 효과에 한정되지 않으며, 본 발명의 당업자들은 본 발명의 구성에서 본 발명의 다양한 효과를 쉽게 도출할 수 있다. The effects of the present invention are not limited to the above-described effects, and those skilled in the art can easily derive various effects of the present invention from the configuration of the present invention.

도 1은 한국 등록 특허 1170686호의 로봇이 대기 위치로 복귀하는 기술을 보여주는 도면이다.
도 2는 본 발명의 일 실시예에 의한 로봇의 외관을 보여주는 도면이다.
도 3 및 도 4는 본 발명의 일 실시예에 의한 협업에 의한 로봇의 이동 경로와 협업 과정을 보여주는 도면이다.
도 5는 본 발명의 일 실시예에 의한 로봇이 가이드를 시작하는 시점에서 협업 가능한 로봇을 검색 및 선정하는 과정을 보여주는 도면이다.
도 6은 본 발명의 일 실시예에 의한 로봇 간에 인계 작업이 진행되는 과정을 보여주는 도면이다.
도 7은 본 발명의 일 실시예에 의한 로봇의 구성을 보여주는 도면이다.
1 is a view showing a technique in which the robot of Korean Patent No. 1170686 returns to the standby position.
2 is a view showing the appearance of a robot according to an embodiment of the present invention.
3 and 4 are views showing a moving path and a collaborative process of a robot through collaboration according to an embodiment of the present invention.
5 is a view showing a process of searching and selecting a robot capable of collaboration at the time when the robot according to an embodiment of the present invention starts a guide.
6 is a view showing a process in which the handover operation is performed between robots according to an embodiment of the present invention.
7 is a view showing the configuration of a robot according to an embodiment of the present invention.

이하, 도면을 참조하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings so that those skilled in the art to which the present invention pertains can easily practice. The present invention can be implemented in many different forms and is not limited to the embodiments described herein.

본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다. 또한, 본 발명의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다.In order to clearly describe the present invention, parts irrelevant to the description are omitted, and the same reference numerals are assigned to the same or similar elements throughout the specification. In addition, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, the same components may have the same reference numerals as possible even though they are displayed on different drawings. In addition, in describing the present invention, when it is determined that detailed descriptions of related well-known structures or functions may obscure the subject matter of the present invention, detailed descriptions thereof may be omitted.

본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 다른 구성 요소가 "개재"되거나, 각 구성 요소가 다른 구성 요소를 통해 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only for distinguishing the component from other components, and the nature, order, order, or number of the component is not limited by the term. When a component is described as being "connected", "coupled" or "connected" to another component, the component may be directly connected to or connected to the other component, but different components between each component It should be understood that the "intervenes" may be, or each component may be "connected", "coupled" or "connected" through other components.

또한, 본 발명을 구현함에 있어서 설명의 편의를 위하여 구성요소를 세분화하여 설명할 수 있으나, 이들 구성요소가 하나의 장치 또는 모듈 내에 구현될 수도 있고, 혹은 하나의 구성요소가 다수의 장치 또는 모듈들에 나뉘어져서 구현될 수도 있다.In addition, in implementing the present invention, components may be subdivided for convenience of description, but these components may be implemented in one device or module, or one component may be multiple devices or modules. It can be implemented by being divided into.

이하, 본 명세서에서 로봇은 특정한 목적(청소, 보안, 모니터링, 안내 등)을 가지거나 혹은 로봇이 이동하는 공간의 특성에 따른 기능을 제공하며 이동하는 장치를 포함한다. 따라서, 본 명세서에서의 로봇은 소정의 정보와 센서를 이용하여 이동할 수 있는 이동수단을 보유하며 소정의 기능을 제공하는 장치를 통칭한다. Hereinafter, in the present specification, the robot has a specific purpose (cleaning, security, monitoring, guidance, etc.) or provides a function according to a characteristic of a space in which the robot moves and includes a moving device. Accordingly, the robot in the present specification collectively refers to a device that has a moving means that can move using predetermined information and a sensor and provides a predetermined function.

본 명세서에서 로봇은 맵을 보유하면서 이동할 수 있다. 맵은 공간에서 이동하지 않는 것으로 확인된 고정된 벽, 계단 등 고정 객체에 대한 정보를 의미한다. 또한, 주기적으로 배치되는 이동 장애물, 즉 동적인 객체들에 대한 정보도 맵 상에 저장될 수 있다. 일 실시예로 로봇의 진행 방향을 기준으로 일정한 범위 내에 배치된 장애물들에 대한 정보도 맵 상에 저장될 수 있다. 이 경우, 전술한 고정 객체가 저장되는 맵과 달리 임시적으로 장애물들의 정보가 맵에 등록되고 이후 로봇이 이동한 후 맵에서 제거될 수 있다. In this specification, the robot can move while holding the map. The map refers to information on fixed objects such as fixed walls and stairs that are confirmed not to move in space. In addition, information about periodically moving obstacles, that is, dynamic objects, may also be stored on the map. In one embodiment, information about obstacles disposed within a predetermined range based on the direction of the robot may also be stored on the map. In this case, unlike the map in which the above-described fixed object is stored, information on obstacles may be temporarily registered in the map and then removed from the map after the robot moves.

또한, 본 명세서에서 로봇은 다양한 센서들을 이용하여 외부의 동적 객체를 확인할 수 있다. 외부의 동적 객체를 확인하면, 보행자로 붐비는 환경에서 로봇이 목적지까지 주행할 때, 목적지까지 거쳐가야 하는 경유 지점(Waypoint)의 장애물에 의한 점유 상황을 확인할 수 있다. 또한 로봇은 경유 지점의 방향 변경 정도에 따라 유연하게 경유 지점을 도착한 것으로 판단하고 다음 경유 지점으로 넘어 가도록 하여 목적지까지 성공적으로 주행할 수 있다.In addition, in this specification, the robot can identify an external dynamic object using various sensors. When the external dynamic object is checked, when the robot travels to the destination in a crowded environment with pedestrians, it is possible to check the occupancy situation due to an obstacle at a waypoint that must pass to the destination. In addition, the robot can flexibly determine that the waypoint has arrived, depending on the degree of change in the direction of the waypoint, and then proceed to the next waypoint to successfully drive to the destination.

도 2는 본 발명의 일 실시예에 의한 로봇의 외관을 보여주는 도면이다. 도 2는 예시적인 외관에 해당하며, 도 2의 외관 외에도 다양한 외관으로 본 발명의 로봇을 구현할 수 있다. 특히, 각각의 구성요소는 로봇의 형상에 따라 상하좌우 전후 등에서 다른 위치에 배치될 수 있다. 2 is a view showing the appearance of a robot according to an embodiment of the present invention. 2 corresponds to an exemplary appearance, and the robot of the present invention may be implemented in various appearances in addition to the appearance of FIG. 2. In particular, each component may be arranged at different positions, such as up, down, left, and right, depending on the shape of the robot.

상기 본체(10)는 상하 방향으로 길이가 길게 형성되며, 전체적으로 하부에서 상부 방향으로 올라갈수록 슬림해지는 오뚝이 형상을 가질 수 있다.The main body 10 is formed to have a long length in the vertical direction, and as a whole, it may have a shape that becomes slim as it goes up from the bottom to the top.

상기 본체(10)는 상기 로봇(1)의 외관을 형성하는 케이스(30)를 포함할 수 있다. 상기 케이스(30)는 상측에 배치되는 탑 커버(31), 상기 탑 커버(31)의 하측에 배치되는 제1 미들 커버(32), 상기 제1 미들 커버(32)의 하측에 배치되는 제2 미들 커버(33) 및 상기 제2 미들 커버(33)의 하측에 배치되는 바텀 커버(34)를 포함할 수 있다. 여기서 상기 제1 미들 커버(32)와 상기 제2 미들 커버(33)는 하나의 미들 커버로 이루어질 수 있다.The main body 10 may include a case 30 forming the outer appearance of the robot 1. The case 30 includes a top cover 31 disposed on the upper side, a first middle cover 32 disposed on the lower side of the top cover 31, and a second disposed on the lower side of the first middle cover 32. A middle cover 33 and a bottom cover 34 disposed under the second middle cover 33 may be included. Here, the first middle cover 32 and the second middle cover 33 may be formed of one middle cover.

상기 탑 커버(31)는 상기 로봇(1)의 최상단에 위치되며, 반구 또는 돔 형상을 가질 수 있다. 상기 탑 커버(31)는 사용자로부터 명령을 용이하게 입력 받기 위하여 성인의 키보다 낮은 높이에 위치될 수 있다. 그리고 상기 탑 커버(31)는 소정각도 회전 가능하도록 구성될 수 있다.The top cover 31 is located at the top of the robot 1, and may have a hemisphere or dome shape. The top cover 31 may be positioned at a height lower than the height of an adult in order to easily receive a command from a user. In addition, the top cover 31 may be configured to be rotated at a predetermined angle.

한편, 상기 탑 커버(31)와 그 내부의 헤드부(15)는, 로봇(1)의 최상단에 배치되어 사람의 헤드(head)와 유사한 형상과 기능을 가지고 사용자와의 인터랙션(interaction)을 담당할 수 있다. 따라서, 상기 탑 커버(31)와 그 내부의 헤드부(15)는 헤드(head)로 명명될 수 있다. 또한, 상기 헤드의 하측에 배치되는 나머지 부분은 바디(body)로 명명될 수 있다.On the other hand, the top cover 31 and the head portion 15 therein is disposed at the top of the robot 1 and has a shape and function similar to that of a human head, and is responsible for interaction with a user. can do. Therefore, the top cover 31 and the head portion 15 therein may be referred to as a head. In addition, the rest of the portion disposed under the head may be referred to as a body.

상기 탑 커버(31)는 전면 일측에 조작부(311)를 포함할 수 있다. 상기 조작부(311)는 사용자로부터 명령을 입력받는 기능을 수행할 수 있다. 이를 위하여, 상기 조작부(311)는 사용자로부터 터치 입력을 받기 위한 디스플레이(312)를 포함할 수 있다. The top cover 31 may include an operation unit 311 on one side of the front side. The operation unit 311 may perform a function of receiving a command from a user. To this end, the manipulation unit 311 may include a display 312 for receiving a touch input from a user.

이하에서는, 상기 조작부(311)에 배치되는 디스플레이(312)는 헤드 디스플레이(312)로 명명하고, 바디에 배치되는 디스플레이부(20)는 바디 디스플레이부(20)로 명명한다. 바디 디스플레이부(20)는 지지부(22)를 포함할 수 있으며, 별도의 고정 부재(138)에 의해 상기 본체(10)의 내부에 고정될 수 있다. Hereinafter, the display 312 disposed on the manipulation unit 311 is referred to as a head display 312, and the display unit 20 disposed on the body is referred to as a body display unit 20. The body display unit 20 may include a support unit 22 and may be fixed inside the body 10 by a separate fixing member 138.

상기 헤드 디스플레이(312)는 터치패드와 상호 레이어 구조를 이루어 터치스크린으로 구성될 수 있다. 이 경우에, 상기 헤드 디스플레이(312)는 출력 장치 이외에 사용자의 터치에 의한 정보의 입력이 가능한 입력 장치로도 사용될 수 있다. The head display 312 may be configured as a touch screen by forming a mutual layer structure with a touch pad. In this case, the head display 312 may be used as an input device capable of inputting information by a user's touch in addition to the output device.

또한, 상기 조작부(311)는 사용자가 상기 헤드 디스플레이(312)를 아래로 내려다보면서 쉽게 조작할 수 있도록 일정각도 상측을 향할 수 있다. 예를 들어, 상기 조작부(311)는 상기 탑 커버(31)의 일부가 절단되어 형성되는 면에 배치될 수 있다. 따라서, 상기 헤드 디스플레이(312)는 경사지도록 배치될 수 있다.In addition, the operation unit 311 may be directed upward at a certain angle so that the user can easily operate the head display 312 while looking down. For example, the operation part 311 may be disposed on a surface on which a portion of the top cover 31 is cut. Therefore, the head display 312 may be arranged to be inclined.

또한, 상기 조작부(311)는 전체적으로 원형 또는 타원형의 외형을 가질 수 있다. 이러한 상기 조작부(311)는 사람의 얼굴 형상과 유사하게 구현될 수 있다.In addition, the manipulation unit 311 may have an overall circular or elliptical outer shape. The manipulation unit 311 may be embodied similarly to the shape of a person's face.

일례로, 상기 조작부(311)는 원형 형상을 가지며, 상기 조작부(311) 상에는 사람의 눈, 코, 입, 눈썹 등을 표현하기 위한 구조물이 하나 이상 위치될 수 있다.In one example, the manipulation unit 311 has a circular shape, and one or more structures for expressing a person's eyes, nose, mouth, and eyebrows may be positioned on the manipulation unit 311.

즉, 상기 조작부(311) 상에는 사람의 눈, 코, 입, 눈썹 등을 표현하기 위하여 특정 구조물이 배치될 수 있고 또는 특정 페인트가 도색될 수 있다. 따라서, 상기 조작부(311)는 사람의 얼굴 형상을 가짐으로써, 사용자에게 감성적인 느낌을 제공할 수 있다. 더욱이, 사람의 얼굴 형상을 가지는 로봇이 주행하는 경우, 마치 사람이 움직이는 것과 같은 느낌을 줄 수 있어 로봇에 대한 거부감을 해소할 수 있다.That is, a specific structure may be disposed on the manipulation unit 311 to express a person's eyes, nose, mouth, and eyebrows, or a specific paint may be painted. Therefore, the manipulation unit 311 may provide an emotional feeling to the user by having a human face shape. Moreover, when a robot having a face shape of a person is driving, it can give a feeling as if a person is moving, thereby resolving the objection to the robot.

다른 예로, 상기 헤드 디스플레이(312) 상에는 사람의 눈, 코, 입, 눈썹 등을 표현하기 위한 이미지가 하나 이상 표시될 수 있다. As another example, one or more images for expressing a human eye, nose, mouth, and eyebrows may be displayed on the head display 312.

즉, 상기 헤드 디스플레이(312) 상에는 길 안내 서비스에 관련된 정보뿐만 아니라, 사람의 얼굴 형상을 표현하기 위한 다양한 이미지가 표시될 수 있다. 그리고 상기 헤드 디스플레이(312) 상에는 일정 시간 간격 또는 특정 시각에 정해진 얼굴 표정을 표현하기 위한 이미지가 표시될 수도 있다.That is, various images for expressing the shape of a person's face may be displayed on the head display 312 as well as information related to a road guidance service. Also, an image for expressing a facial expression defined at a specific time interval or a specific time may be displayed on the head display 312.

한편, 도 2를 기준으로 상기 조작부(311)가 향하는 방향을 "전방"이라고 정의한다. 그리고 "전방"의 반대 방향을 "후방"이라고 정의한다.Meanwhile, the direction in which the manipulation unit 311 faces is defined as “front” based on FIG. 2. And the opposite direction of "front" is defined as "rear".

또한, 상기 조작부(311)는 사람과 사물 인식을 위한 헤드 카메라부(313)가 배치될 수 있다.In addition, the manipulation unit 311 may be provided with a head camera unit 313 for recognizing people and objects.

상기 헤드 카메라부(313)는 상기 헤드 디스플레이(312)의 상측에 배치될 수 있다. 상기 헤드 카메라부(313)는 2D 카메라(313a) 및 RGBD 센서(313b, 313c)를 포함할 수 있다.The head camera unit 313 may be disposed above the head display 312. The head camera unit 313 may include a 2D camera 313a and RGBD sensors 313b and 313c.

상기 2D 카메라(313a)는 2차원 영상을 기반으로 사람 또는 사물을 인식하기 위한 센서일 수 있다.The 2D camera 313a may be a sensor for recognizing a person or object based on a 2D image.

또한, 상기 RGBD 센서(Red, Green, Blue, Distance)(313b, 313c)는 사람의 위치 또는 얼굴 이미지를 획득하기 위한 센서일 수 있다. 상기 RGBD 센서(313b, 313c)는 RGBD 센서들을 갖는 카메라 또는 다른 유사한 3D 이미징 장치로부터 획득되는 깊이(Depth) 데이터를 갖는 캡쳐된 이미지들을 이용하여 사람 또는 사물을 검출하기 위한 센서일 수 있다.Further, the RGBD sensors (Red, Green, Blue, Distance) 313b and 313c may be sensors for acquiring a location or face image of a person. The RGBD sensors 313b and 313c may be sensors for detecting people or objects using captured images having depth data obtained from a camera having RGBD sensors or other similar 3D imaging devices.

사람의 위치 또는 얼굴 이미지를 정확히 검출하기 위하여, 상기 RGBD 센서(313b, 313c)는 복수 개로 이루어질 수 있다. 일례로, 상기 RGBD 센서(313b, 313c)는 2개로 구성되어, 상기 2D 카메라(313a)의 좌측 및 우측에 각각 배치될 수 있다.In order to accurately detect a person's location or face image, the RGBD sensors 313b and 313c may be formed in plural. For example, the RGBD sensors 313b and 313c are composed of two, and may be disposed on the left and right sides of the 2D camera 313a, respectively.

도시되진 않았으나, 상기 조작부(311)는 사용자로부터 명령을 직접 입력 받기 위한 물리적 버튼을 더 포함할 수 있다.Although not shown, the manipulation unit 311 may further include a physical button for directly receiving a command from a user.

또한, 상기 탑 커버(31)는 마이크(314)를 더 포함할 수 있다.Also, the top cover 31 may further include a microphone 314.

상기 마이크(314)는 사용자로부터 오디오 신호의 명령을 입력 받기 위한 기능을 수행할 수 있다. 일례로, 상기 마이크(314)는 사용자로부터 음성 명령을 정확히 수신하기 위하여, 상기 탑 커버(31)의 상단부 어느 지점에 4개소가 형성될 수 있다. 따라서, 상기 로봇(1)이 주행 중이거나 또는 상기 탑 커버(31)가 회전 중에도, 사용자로부터 음성의 길 안내 요청을 정확히 수신할 수 있다.The microphone 314 may perform a function for receiving a command of an audio signal from a user. In one example, in order to accurately receive a voice command from a user, the microphone 314 may be formed at four points at an upper end portion of the top cover 31. Therefore, even when the robot 1 is running or the top cover 31 is rotating, it is possible to accurately receive a voice guidance request from the user.

본 발명의 일 실시예에서 상기 탑 커버(31)는, 상기 로봇(1)이 주행 중에는 상기 조작부(311)가 주행 방향을 향하도록 회전될 수 있다. 그리고 상기 탑 커버(31)는 상기 로봇(1)이 주행 중에 사용자로부터 명령(예: 음성 명령 등)을 수신하면, 상기 조작부(311)가 사용자가 위치한 방향을 향하도록 회전될 수 있다.In one embodiment of the present invention, the top cover 31 may be rotated so that the manipulation unit 311 faces the traveling direction while the robot 1 is traveling. In addition, when the robot 1 receives a command (for example, a voice command) from the user while the robot 1 is driving, the top cover 31 may be rotated so that the manipulation unit 311 faces the direction in which the user is located.

이와는 다르게, 상기 탑 커버(31)는 상기 로봇(1)이 주행 중에 사용자로부터 명령을 수신하면, 상기 로봇(1)의 주행 방향의 반대되는 방향으로 회전될 수 있다. 즉, 상기 탑 커버(31)는 상기 바디 디스플레이부(20)가 향하는 방향으로 회전될 수 있다. 따라서, 사용자는 상기 바디 디스플레이부(20)에 표시되는 길 안내 서비스 정보 등을 보면서 상기 조작부(311)를 효과적으로 조작할 수 있다.Alternatively, the top cover 31 may be rotated in a direction opposite to the traveling direction of the robot 1 when the robot 1 receives a command from the user while driving. That is, the top cover 31 may be rotated in a direction facing the body display unit 20. Therefore, the user can effectively operate the manipulation unit 311 while viewing road guidance service information displayed on the body display unit 20.

제1 미들 커버(32)는 RGBD 센서(321)를 포함할 수 있다. The first middle cover 32 may include an RGBD sensor 321.

상기 RGBD 센서(321)는 상기 로봇(1)이 주행 중에, 상기 로봇(1)과 장애물 사이의 충돌을 감지하는 기능을 수행할 수 있다. 이를 위하여, 상기 RGBD 센서(321)는 상기 로봇(1)이 주행하는 방향, 즉 상기 제1 미들 커버(32)의 전방에 위치될 수 있다. 일례로, 상기 RGBD 센서(321)는 상기 로봇(1)의 전방에 존재하는 장애물 또는 사람의 키를 고려하여, 상기 제1 미들 커버(32)의 상단부에 위치될 수 있다. 그러나 이에 한정되지는 않으며, 상기 RGBD 센서(321)는 상기 제1 미들 커버(32)의 전방의 다양한 위치에 배치될 수 있다.The RGBD sensor 321 may perform a function of detecting a collision between the robot 1 and an obstacle while the robot 1 is driving. To this end, the RGBD sensor 321 may be located in a direction in which the robot 1 travels, that is, in front of the first middle cover 32. For example, the RGBD sensor 321 may be located at an upper end of the first middle cover 32 in consideration of an obstacle or a key of a person existing in front of the robot 1. However, the present invention is not limited thereto, and the RGBD sensor 321 may be disposed at various positions in front of the first middle cover 32.

실시예에 따라서는, 상기 제1 미들 커버(32)에 RGBD 센서(321)가 배치되지 않고, RGBD 센서(321)의 기능도 헤드 카메라부(313)에서 수행할 수 있다.Depending on the embodiment, the RGBD sensor 321 is not disposed on the first middle cover 32, and the function of the RGBD sensor 321 can also be performed by the head camera unit 313.

또한, 상기 제1 미들 커버(32)는 스피커용 홀(322)을 더 포함할 수 있다.In addition, the first middle cover 32 may further include a hole 322 for the speaker.

상기 스피커용 홀(322)은 스피커에서 발생하는 소리를 외부로 전달하기 위한 홀일 수 있다. 상기 스피커용 홀(322)은 상기 제1 미들 커버(32)의 외주면에 형성될 수 있으며, 단수 개로 형성될 수 있다. 그러나 이와는 다르게, 상기 스피커용 홀(322)은 복수 개로 형성되어 상기 제1 미들 커버(32)의 외주면에 서로 이격되게 형성될 수 있다.The speaker hole 322 may be a hole for transmitting sound generated from the speaker to the outside. The speaker hole 322 may be formed on the outer circumferential surface of the first middle cover 32, and may be formed in a single number. However, unlike this, the speaker holes 322 may be formed in plural to be spaced apart from each other on the outer circumferential surface of the first middle cover 32.

상기 제1 미들 커버(32)는 스테레오 카메라용 홀(323)을 더 포함할 수 있다.The first middle cover 32 may further include a hole 323 for a stereo camera.

상기 스테레오 카메라용 홀(323)은 상기 본체(10)의 내부에 설치된 스테레오 카메라(미도시)의 작동을 위한 홀일 수 있다. 일례로, 상기 스테레오 카메라용 홀(323)은 상기 제1 미들 커버(32)의 전방 하단에 형성될 수 있다. 이에 따라, 상기 스테레오 카메라(137)는 상기 스테레오 카메라용 홀(323)을 통해 상기 로봇(1)의 전방 영역을 촬영할 수 있다. The stereo camera hole 323 may be a hole for operation of a stereo camera (not shown) installed inside the main body 10. In one example, the stereo camera hole 323 may be formed at the front bottom of the first middle cover 32. Accordingly, the stereo camera 137 may photograph the front region of the robot 1 through the stereo camera hole 323.

상기 제2 미들 커버(33)는 제1 절개부(331)를 포함할 수 있다.The second middle cover 33 may include a first cutout 331.

상기 제1 절개부(331)는 상기 제2 미들 커버(33)의 외주면의 전방에서 측방에 걸쳐 형성될 수 있다. 상기 제1 절개부(331)는 전방 라이더 센서(미도시)가 동작 가능하도록 제2 미들 커버(33)에서 절개되는 부분이다.The first incision 331 may be formed over the side from the front of the outer circumferential surface of the second middle cover 33. The first incision 331 is a portion that is cut in the second middle cover 33 so that the front rider sensor (not shown) is operable.

구체적으로, 제1 절개부(331)는 상기 제2 미들 커버(33)의 전방 외주면에서 반경 방향으로 소정길이로 절개될 수 있다. 여기서, 상기 전방 라이더(136)는 상기 제2 미들 커버(33)의 내부에 위치된다. 그리고 상기 제1 절개부(331)는 상기 전방 라이더의 위치에 대응되는 상기 제2 미들 커버(33)의 외주면에서 상기 제2 미들 커버(33)의 둘레를 따라 절개되어 형성될 수 있다. 즉, 상기 제1 절개부(331)와 상기 전방 라이더는 마주볼 수 있다. 따라서, 상기 전방 라이더는 상기 제1 절개부(331)에 의해 외부로 노출될 수 있다.Specifically, the first incision 331 may be cut in a predetermined length in the radial direction from the front outer circumferential surface of the second middle cover 33. Here, the front rider 136 is located inside the second middle cover 33. In addition, the first incision 331 may be formed by cutting along the circumference of the second middle cover 33 on the outer circumferential surface of the second middle cover 33 corresponding to the position of the front rider. That is, the first incision 331 and the front rider may face each other. Therefore, the front rider may be exposed to the outside by the first incision 331.

일례로, 상기 제1 절개부(331)는 상기 제2 미들 커버(33)의 전방에서 둘레를 따라 270도만큼 절개될 수 있다. 상기 제1 절개부(331)가 상기 제2 미들 커버(33)에 형성되어야 하는 이유는, 상기 전방 라이더에서 방출된 레이저가 성인의 눈 또는 어린이의 눈으로 직접 조사되는 것을 방지하기 위함이다.For example, the first incision 331 may be incised by 270 degrees along the circumference from the front of the second middle cover 33. The reason that the first incision 331 should be formed in the second middle cover 33 is to prevent the laser emitted from the front rider from being directly irradiated to the eyes of an adult or a child.

도 2의 로봇의 형상은 예시적이며, 본 발명이 이에 한정되는 것은 아니다. 또한, 로봇의 다양한 카메라들과 센서들 역시 로봇(1)의 다양한 위치에 배치될 수 있다. 도 2의 로봇은 사용자에게 정보를 안내하고 특정 지점까지 이동하여 사용자를 안내하는 안내 로봇을 일 실시예로 한다. 이외에도 청소, 보안 또는 기능을 제공하는 로봇 역시 도 2의 로봇의 범위에 포함된다. 다양한 기능을 제공할 수 있으나, 본 명세서에서는 설명의 편의를 위해 안내 로봇을 중심으로 설명한다. The shape of the robot in FIG. 2 is exemplary, and the present invention is not limited thereto. In addition, various cameras and sensors of the robot may also be arranged at various positions of the robot 1. The robot of FIG. 2 is a guide robot for guiding information to a user and guiding the user by moving to a specific point. In addition, robots that provide cleaning, security, or functions are also included in the scope of the robot of FIG. 2. Various functions can be provided, but for convenience of description, the description is focused on the guide robot.

도 2를 일 실시예로 하는 로봇이 서비스 공간 내에 다수 배치된 상태에서 로봇이 안내 기능을 수행하기 위해 자신의 대기 위치에서 멀리 떨어진 곳으로 가이드를 하는 경우, 로봇이 가이드의 목적지로 이동한 후, 안내 기능을 종료하고 다시 대기 위치로 복귀하는 시간 동안 해당 로봇의 대기 위치에서의 서비스 공백이 커진다. When the robot according to the embodiment of FIG. 2 is guided to a distance away from its standby position in order to perform a guiding function in a state where a plurality of robots are disposed in the service space, after the robot moves to the destination of the guide, During the time of ending the guiding function and returning to the standby position again, the service gap at the waiting position of the robot increases.

이에, 본 명세서에서는 목적지로 가이드 하는 것을 한 대의 로봇이 모두 처리 하지 않고, 목적지로의 이동 경로상에 위치하거나 인접한 다른 로봇이 안내 기능을 대신 수행하도록 협업하는 과정에 대해 살펴본다. Accordingly, in this specification, a process of collaborating such that one robot does not process all the guides to the destination, and other robots located on or moving to the destination performs the guiding function instead.

목적지로의 이동 경로상에 있는 다른 로봇에게 안내 업무를 인계하는 방식으로 각 로봇이 처리해야 하는 작업을 분배하면 특정 위치의 서비스 공백이 커지는 문제를 최소화 할 수 있다. By distributing the tasks to be handled by each robot in a way that takes over the guidance task to other robots on the path to the destination, it is possible to minimize the problem that the service gap at a specific location increases.

이하, 로봇이 이동하는 거리와 이 과정에서 소요되는 시간을 로봇이 투입하는 자원, 즉 리소스(resource)라고 지시한다. 본 명세서에서는 로봇이 특정 기능을 수행하거나 기능을 수행 후 설정된 장소로 복귀하는데 소요되는 거리 또는 시간 또는 이 둘을 합한 것을 리소스라 지시한다. Hereinafter, the distance that the robot moves and the time required in this process are indicated as a resource input by the robot, that is, a resource. In this specification, the robot performs a specific function or a distance or time required to return to a set place after performing the function, or a combination of the two, is indicated as a resource.

도 3 및 도 4는 본 발명의 일 실시예에 의한 협업에 의한 로봇의 이동 경로와 협업 과정을 보여주는 도면이다. 3 and 4 are views showing a moving path and a collaborative process of a robot through collaboration according to an embodiment of the present invention.

도 3은 3개의 로봇(R1, R2, R3)가 배치된 구성이다. S는 출발지를, E는 목적지를 지시한다. 만약 하나의 로봇(예를 들어 R1)이 S->E 까지의 안내를 전담할 경우 R1만이 화살표를 따라 안내를 수행하고(S11), 그 후 다시 원래의 위치로 돌아오는 과정(S12)을 진행한다. 3 is a configuration in which three robots R1, R2, and R3 are arranged. S indicates the starting point, and E indicates the destination. If one robot (e.g. R1) is dedicated to guidance from S->E, only R1 performs guidance along the arrow (S11), and then returns to the original position (S12). do.

도 4는 도 3에서 R1이 수행한 안내 기능을 R2 및 R3가 분담하는 과정을 보여준다. 특정 사용자를 S에서 E까지 안내하는 기능을 다수의 로봇들(R1, R2, R3)이 수행한다. 최초에 가이드를 시작하는 로봇(R1)은 앞서 도 3에서 살펴본 경로(S11)에 배치되었거나, 해당 경로에 인접하게 배치된 로봇들 중에서 협업이 가능한 로봇(R2, R3)를 선정한다. 선정 기준은 인접한 순서가 될 수 있다. 또는 전체 가이드에 소요되는 리소스에서 각 로봇이 원래의 위치 또는 설정된 위치에서 발생하는 서비스 공백을 줄일 수 있는 기준치(예를 들어 10분 또는 20미터 등 시간과 거리에 기반한 리소스 투입량)에 따라 로봇의 수가 정해지고, 그에 따라 선정하는 로봇이 결정된다. 가까운 거리(예를 들어 5분 이내)인 경우 하나의 로봇이 수행하고 기준치의 두배인 경우 두 개의 로봇이 투입될 수 있다. 또는 로봇의 위치에 따라 달리 선정될 수 있다. FIG. 4 shows a process in which R2 and R3 share the guide function performed by R1 in FIG. 3. A number of robots R1, R2, and R3 perform a function of guiding a specific user from S to E. The robot R1 for starting the guide initially selects the robots R2 and R3 capable of collaboration among robots disposed on the path S11 described in FIG. 3 or adjacent to the path. Selection criteria may be in an adjacent order. Or, the number of robots according to the reference value (e.g., the amount of resource input based on time and distance, such as 10 minutes or 20 meters) that can reduce the service gap occurring in the original position or the set position of each robot in the resource required for the entire guide. The robot to be selected is determined accordingly. In the case of a close distance (for example, within 5 minutes), one robot may perform, and in the case of twice the reference value, two robots may be input. Alternatively, it may be selected differently depending on the position of the robot.

도 4에서 R1이 R2 및 R3를 선택하였으며, R2가 대기 상태라면 R1은 S-E 사이의 최소 거리(S11)에서 일정 거리 이하로 유지하면서 R2 쪽으로 이동한다(S51). R2도 R1쪽으로 이동해서(S61) P1 지점에서 만난다. 이때 R1은 지금까지 안내한 사용자에게 R2를 통해 안내를 진행한다는 메시지를 출력하고 R1은 로봇이 원래 위치했던 대기 지점으로 복귀한다(S52). 그리고 R2는 새로운 가이드기능을 제공 하는 로봇이 되어 앞서 R1이 수행한 인접 로봇을 선정하는 과정을 수행한다. In FIG. 4, R2 and R3 are selected as R1, and when R2 is in a standby state, R1 moves toward R2 while maintaining a predetermined distance or less at a minimum distance S11 between S-E (S51). R2 also moves toward R1 (S61) and meets at point P1. At this time, R1 outputs a message to the user who has guided so far through R2, and R1 returns to the standby point where the robot was originally located (S52). In addition, R2 becomes a robot that provides a new guide function, and performs a process of selecting an adjacent robot that R1 previously performed.

R2가 P1의 위치에서 E까지의 위치로 이동하는 경로에서 협업 가능한 가장 가까운 로봇을 선정한다. 도 4에서 R3를 선정한다. R3가 대기 상태라면, R2는 P1-E 사이의 최소거리에서 일정 거리 이ㅇ하로 유지하면서 R3쪽으로 이동한다(S62). R3도 R2쪽으로 이동해서(S71) P2 지점에서 만난다. 이때 R2는 지금까지 안내한 사용자에게 R3를 통해 안내를 진행한다는 메시지를 출력하고 R2는 로봇이 원래 위치했던 대기 지점으로 복귀한다(S63). 그리고 R3는 새로운 가이드기능을 제공하는 로봇이 되어 앞서 R2가 수행한 인접 로봇을 선정하는 과정을 수행하거나 혹은 E까지의 거리가 가까운 경우 E까지 이동하고(S72), 사용자 가이드 기능을 종료한 후 다시 원래의 대기위치로 복귀한다(S73). The closest robot that can collaborate is selected from the path where R2 moves from P1 to E. R3 is selected in FIG. 4. If R3 is in the standby state, R2 moves toward R3 while maintaining a certain distance below the minimum distance between P1-E (S62). R3 also moves toward R2 (S71) and meets at point P2. At this time, R2 outputs a message to the user who has guided so far through R3, and R2 returns to the waiting point where the robot was originally located (S63). In addition, R3 becomes a robot that provides a new guide function, and performs the process of selecting an adjacent robot performed by R2 earlier, or moves to E when the distance to E is close (S72), ends the user guide function, and ends again. Return to the original standby position (S73).

만약, R1이 로봇을 선정하는 과정에서 R2가 대기 상태가 아닌 다른 기능을 수행하는 상태(서비스 중인 상태)였다면, R1은 목적지인 E로 이동하면서 R2가 대기 상태인지 상시 체크할 수 있다. If, in the process of selecting a robot, R1 was in a state in which R2 performs a function other than a standby state (in service), R1 can always check whether R2 is in a standby state while moving to the destination E.

또한 R1은 이 과정에서 R2와의 협업이 R3와 바로 협업하는 것보다 가치가 없는지 확인할 수 있다. R2의 서비스가 종료되면 R1-R2가 만나도록 P1 또는 경로(S11)에 인접한 지점으로 이동하여 협업을 완료한다. In addition, R1 can confirm that collaborating with R2 in this process is less valuable than collaborating directly with R3. When the service of R2 is terminated, the collaboration is completed by moving to a point adjacent to P1 or the path S11 so that R1-R2 meets.

만약 R1이 경로(S11)에 따라 이동하는 과정에서 체크한 R2의 상태가 계속 서비스 중이거나, 또는 R2의 협업가치가 없어지면, R1은 다시 새로운 로봇을 선정하는 기능을 수행한다. 이 과정에서 R3가 선택될 수 있으며 R1-R3가 협업을 수행할 수 있다. If the status of R2 checked in the process of R1 moving along the path S11 is still in service, or the collaboration value of R2 is lost, R1 performs a function of selecting a new robot again. In this process, R3 can be selected and R1-R3 can collaborate.

또한, R1이 S 지점에서 출발하기 전에 선정된 로봇이 R2 하나인 경우, R2가 R1으로부터 사용자를 인계받아 목적지 E로 안내한다. 만약, R2가 서비스 중이어서 사용자를 인계받을 수 없거나 협업 가치가 없어질 때까지 서비스가 종료되지 않으면 R1이 목적지 E로 안내한다. In addition, if R1 is the selected robot before R1 departs from point S, R2 takes over the user from R1 and guides it to destination E. If the service is not terminated until R2 is in service and cannot take over the user or the collaboration value is lost, R1 guides to the destination E.

한편, 협업 가치가 없어지기 전에 R2의 서비스가 종료되면, R2는 R1으로부터 고객을 인계받아 목적지 E로 안내한다. 그리고 목적지에 도착하면 R2는 대기지점으로 복귀한다. On the other hand, if the service of R2 is terminated before the collaborative value disappears, R2 takes over the customer from R1 and directs it to destination E. Then, upon reaching the destination, R2 returns to the waiting point.

도 4에서 살펴본 바와 같이, 안내 로봇이 사용자를 가이드하는 실시예에서 로봇 간에 협업을 통하여 수행해야 할 리소스를 분배한다. 그 결과 각각의 로봇이 투입하는 리소스가 줄어들며, 로봇 각각의 개별 서비스 공백을 최소화할 수 있다. As shown in FIG. 4, in an embodiment in which a guide robot guides a user, resources to be performed are distributed through collaboration between robots. As a result, resources inputted by each robot are reduced, and each service gap of each robot can be minimized.

예를 들어, 특정 로봇이 장거리 가이드로 20분 간의 공백이 발생한다면, 2개의 로봇 간 협업으로 평균 10분의 서비스 공백이 발생하도록 공백 시간을 줄일 수 있다. 또한 로봇 4대 간 협업으로 평균 5분의 서비스 공백으로 특정 로봇(의 대기위치)에서 발생하는 서비스 공백을 줄일 수 있다. For example, if a specific robot has a gap of 20 minutes with a long-distance guide, the collaboration between the two robots can reduce the gap time to generate an average of 10 minutes of service gap. In addition, by collaborating between 4 robots, the service gap occurring in a specific robot (waiting position) can be reduced to an average of 5 minutes of service gap.

즉, 서비스를 제공하기 위해 투입해야 하는 리소스 분배로 특정 로봇이 담당하는 대기 지역에서 발생하는 서비스 공백을 최소화 하며, 로봇이 대기위치에서 멀리 이동하는 일이 없어져 장거리 이동 중 배터리 부족이 발생하지 않는다. 또한 로봇의 부재 시간을 줄임으로써 긴급 대응에 용이하다.That is, the distribution of resources that must be input to provide the service minimizes the service gap occurring in the waiting area in charge of a specific robot, and the robot does not move away from the waiting position, so that the battery is not low during long-distance movement. It is also easy to respond to emergency by reducing the robot's absence time.

도 4는 안내로봇의 가이드 기능 수행 시 로봇 간 협업을 통한 리소스 분배로 개별 서비스 공백 최소화하는 실시예를 살펴보았다. 이하 가이드 기능을 수행하는 과정에서 협업하는 동작 로직을 상세히 살펴본다.4 illustrates an embodiment of minimizing individual service gaps by distributing resources through collaboration between robots when performing the guide function of the guide robot. Hereinafter, the operation logic to cooperate in the process of performing the guide function will be described in detail.

일 실시예로, 협업 동작 로직의 전제 조건으로 다음과 같이 구성할 수 있으나, 본 발명이 이에 한정되는 것은 아니다. In one embodiment, as a prerequisite of the cooperative operation logic, it may be configured as follows, but the present invention is not limited thereto.

먼저, 서비스 공간에 배치될 로봇의 수만큼 대기위치가 있고, 각 대기위치 기준으로 대기위치 좌표와 해당 대기위치의 로봇의 식별정보(예를 들어 로봇의 번호), 로봇 상태, 해당 로봇의 위치 좌표를 데이터로 가진다. 로봇 상태는 대기 중, 고객 응대 중, 에스코트 중, 복귀 중, 인계 준비 중 등으로 구성될 수 있다.First, there are waiting positions as many as the number of robots to be placed in the service space. Based on each waiting position, the coordinates of the waiting position and identification information of the robot at the waiting position (for example, the number of the robot), the robot status, and the position coordinates of the robot Has as data. The robot state may be composed of waiting, responding to a customer, escorting, returning, preparing to take over, and the like.

또한, 모든 대기위치의 데이터를 모든 로봇이 각자 관리한다. 그리고 이들 로봇들은 서로 브로드캐스트(broadcast) 방식으로 통신이 가능하다. 또는 중앙의 서버가 일정한 간격으로 로봇의 식별 정보와 상태, 위치 좌표를 모든 로봇에게 전송할 수 있다. 로봇의 상태가 변경되거나, 이동 시 자신의 위치 좌표가 변경되는 것을 다른 로봇들에게 알리거나 중앙의 서버에게 전송할 수 있다. In addition, all robots manage data of all waiting positions. And these robots can communicate with each other in a broadcast method. Alternatively, the central server may transmit the robot's identification information, status, and position coordinates to all robots at regular intervals. Other robots can be notified that the state of the robot is changed or their position coordinates are changed when moving, or it can be transmitted to a central server.

일 실시예로 각 로봇은 다음과 같이 모든 로봇들에 대한 정보를 업데이트 된 상태로 저장할 수 있다. In an embodiment, each robot may store information about all robots in an updated state as follows.

{R1, R1의 대기위치 좌표, R1의 상태, R1의 현재위치}, {R2, R2의 대기위치 좌표, R2의 상태, R2의 현재위치}, ..., {Rn, Rn의 대기위치 좌표, Rn의 상태, Rn의 현재위치}{R1, R1 standby position coordinates, R1 state, R1 present position}, {R2, R2 standby position coordinates, R2 state, R2 present position}, ..., {Rn, Rn standby position coordinates , The state of Rn, the current position of Rn}

각 로봇은 가이드 기능을 제공하며 각 로봇들의 좌표와의 거리를 계산할 수 있다. 해당 거리는 직선거리가 아닌 이동경로를 측정한 것이다. 또한, 도착지점까지 장애물이 있는 경우 장애물을 회피하는 경로가 이동 경로에 포함된다. Each robot provides a guide function and can calculate the distance from the coordinates of each robot. The distance is a measurement of the travel path, not a straight line distance. In addition, when there is an obstacle up to the arrival point, a path to avoid the obstacle is included in the movement path.

도 5는 본 발명의 일 실시예에 의한 로봇이 가이드를 시작하는 시점에서 협업 가능한 로봇을 검색 및 선정하는 과정을 보여주는 도면이다. 5 is a view showing a process of searching and selecting a robot capable of collaboration at a time when the robot according to an embodiment of the present invention starts a guide.

가이드를 시작하는 로봇을 R1이라 지시할 때, 위치 정보와 상태 정보, 그리고 대기 위치에 대한 정보 등과 같은 하기의 데이터를 다른 로봇과 공유할 수 있다. When instructing the robot to start the guide as R1, the following data such as location information, status information, and information about the standby location can be shared with other robots.

{R1, R1의 대기위치 좌표, R1의 상태, R1의 현재위치}{R1, R1 standby position coordinates, R1 status, R1 current position}

여기서 현재 위치는 에스코트하는 로봇 R1의 현재 좌표이며, 현재 대기 위치는 에스코트하는 로봇 R1이 속해있는 대기 위치를 의미한다. Here, the current position is the current coordinate of the escalating robot R1, and the current standby position means the standby position to which the escorting robot R1 belongs.

R1은 상태를 "에스코트 중"으로 변경하고(S80), 목적지까지 생성되는 경로에서 경유 가능한 대기 위치를 거리순으로 획득한다(S81). 일 실시예로, 후술할 R1의 세부 구성요소인 통신부(도 7의 280)가 공간에 배치된 하나 이상의 대상 로봇으로부터 위치 정보와 상태 정보, 그리고 대기 위치 정보를 수신할 수 있다. 수신 방식은 다른 로봇들로부터 직접 실시간으로 수신할 수도 있고 미리 R1이 해당 정보를 저장하여 보유할 수 있다. R1은 자신의 대기위치에서 목적지로 이동하면서 경로상 대기 위치들을 탐색한다. R1 changes the state to "Escorting" (S80), and obtains a standby position that can be passed through in a path generated to a destination in order of distance (S81). In an embodiment, the communication unit (280 in FIG. 7 ), which is a detailed component of R1, which will be described later, may receive location information, status information, and standby location information from one or more target robots arranged in the space. The reception method may be directly received in real time from other robots, or R1 may store and retain the corresponding information in advance. R1 moves from its waiting position to the destination and searches for waiting positions on the path.

또한 S81을 상세히 살펴보면, R1의 세부 구성요소인 중앙제어부(도 7의 250)가 앞서 수신한 정보에서 제1지점(출발 또는 현재 위치) 및 제2지점(목표지점)의 경로에서 경유 가능한 대기 위치의 대상 로봇을 근접한 순서로 정렬한 후, 대상 로봇들의 상태 정보와 대상 로봇의 협업 가치에 기반하여 하나 이상의 대상 로봇 중 하나를 선택할 수 있다.In addition, when looking at S81 in detail, the central control unit (250 in FIG. 7), which is a detailed component of R1, is a standby position that can be passed in the path of the first point (departure or current position) and the second point (target point) from the previously received information. After arranging the target robots in close proximity, one of the one or more target robots may be selected based on the status information of the target robots and the collaboration value of the target robots.

만약, 경유 가능한 대기 위치가 없는 경우(S82), R1은 목적지로 계속 이동한다(S87). 그리고 가이드 업무를 완료하면 R1은 상태를 "복귀 중"으로 변경하고 원래의 대기 위치로 복귀한다(S89).If there is no waiting position available via (S82), R1 continues to move to the destination (S87). And when the guide work is completed, R1 changes the state to "returning" and returns to the original standby position (S89).

다음으로, S82에서 경유 가능한 대기 위치가 있는 경우, 예를 들어 가장 가까운 대기위치에 R2라는 로봇이 있을 경이 R1은 R2의 상태를 확인한다. R1은 해당 대기 위치의 로봇(예를 들어 R2)의 상태가 "대기 중" 또는 "복귀 중"인지 확인한다(S83). 만약, R2가 대기 중/복귀 중인 경우에 R1은 R2에게 가이드 업무(에스코트 업무)를 인계하는 작업을 진행한다(S88). 일 실시예로, 통신부(도 7의 280)가 선택된 대상 로봇에게 작업 인계를 위한 중간 지점에 대한 위치 정보를 전송하고, 해당 중간 지점으로 두 로봇이 이동한다. Next, when there is a standby position that can be passed through in S82, for example, when there is a robot R2 in the nearest standby position, R1 checks the state of R2. R1 checks whether the state of the robot (eg, R2) in the standby position is "waiting" or "returning" (S83). If R2 is in standby/return, R1 proceeds to take over the guide task (escort task) to R2 (S88). In one embodiment, the communication unit (280 in FIG. 7) transmits location information on an intermediate point for taking over the task to the selected target robot, and the two robots move to the corresponding intermediate point.

그리고 인계 작업이 끝나면 R1은 S89와 같이 복귀하며, R2가 인계된 작업(가이드 작업)을 진행한다. Then, when the takeover work is finished, R1 returns to S89, and R2 takes over (guide work).

한편 S83에서 R1이 판단하기에 복귀 중이거나 대기 중인 로봇이 없는 경우, 해당 대기 위치가 협업 가치가 있는지를 확인한다. 예를 들어 R2가 가장 가까운 대기위치에 있지만 R2가 고객 응대 중이거나 에스코트 중이라면 당장 R1의 업무를 인계받을 수 없다. 이 경우, R1은 R2와의 협업 가치가 있는지 확인하여 없다면 R2 및 그의 대기 위치를 제거하고 그 다음 대기 위치에 대해 인계 가능성을 확인한다. On the other hand, if there is no robot returning or waiting because R1 determines in S83, it is checked whether the corresponding waiting position is worth the collaboration. For example, if R2 is in the closest waiting position, but R2 is serving customers or escorting, R1 cannot take over. In this case, R1 checks to see if it has a collaboration value with R2, and if not, removes R2 and its standby position and then checks the possibility of taking over for the standby position.

협업 가치란 목적지까지의 경로를 크게 변경하지 않는 경우, 또는 현재 R1의 위치에서 목적지까지의 거리가 먼 경우, 또는 R1이 목적지까지 이동하는 것 보다 R2가 이동하는 것이 더 적은 리소스를 사용하는 등의 기준에 따라 판단할 수 있다. Collaborative value means that the route to the destination is not significantly changed, or the distance from the current location of R1 to the destination is far away, or R2 uses less resources to move than R1 to the destination. You can judge according to the standards.

판단 결과 협업 가치가 있는 경우, R1은 잠시 대기하고(S86) 다시 S82 단계로 진행한다. If there is a collaboration value as a result of determination, R1 waits for a while (S86) and proceeds to step S82 again.

판단 결과 해당 대기 위치가 협업 가치가 없는 경우, R1은 경유 가능한 대기 위치에서 가장 가까운 대기 위치, 즉 S83 및 S84에서 판단된 대기위치를 제거 하고 그 다음 대기 위치에 기반하여 S82 단계를 수행한다. As a result of determination, when the corresponding standby position has no collaboration value, R1 removes the standby position closest to the transitable standby position, that is, the standby positions determined in S83 and S84, and then performs step S82 based on the standby position.

R2와 같은 대상 로봇은 가장 가까운 대기 위치에 있는 로봇을 의미한다. 협업 가치 및 잠시 대기하는 과정은 리소스 분배 알고리즘을 적용할 수 있다. 즉, 각각의 대기위치의 로봇들이 해당 가이드 업무를 분산하여 수행함에 있어서 리소스 분배를 계산하여 전체 리소스를 줄이거나, 혹은 특정 로봇에게 과도하게 배분된 리소스를 재분배할 수 있다. The target robot, such as R2, means the robot in the closest waiting position. For the collaborative value and waiting process, a resource distribution algorithm can be applied. That is, when the robots at each standby position distribute and perform the corresponding guide task, the resource distribution may be calculated to reduce the entire resource or redistribute the resource excessively allocated to a specific robot.

도 6은 본 발명의 일 실시예에 의한 로봇 간에 인계 작업이 진행되는 과정을 보여주는 도면이다. 도 5와 마찬가지로 에스코트 업무를 인계받는 대상 로봇은 현재 에스코트 하는 로봇에서 가장 가까운 대기 위치에 있는 로봇이다. 설명의 편의를 위해 현재 에스코트하는 로봇은 R1, 인계받는 대상 로봇은 R2라 지시한다. 6 is a view showing a process in which the handover operation is performed between robots according to an embodiment of the present invention. As shown in FIG. 5, the target robot taking over the escort service is the robot in the closest waiting position to the currently escorting robot. For convenience of explanation, the robot currently escorting is indicated as R1, and the robot to be taken over is R2.

R1은 대상 로봇 R2에게 고객을 인계하거나 특정 업무를 인계하는 것으로 결정되면, R1은 브로드캐스트 방식으로 전체 로봇에게 알리거나 혹은 다이렉트 통신 방식으로 R2에게 알린다. 즉, 대상 로봇에게 인계 준비를 요청한다(S91). When R1 decides to take over the customer to the target robot R2 or to take over a specific task, R1 informs the entire robot in a broadcast method or notifies R2 in a direct communication method. That is, the target robot is requested to take over (S91).

브로드캐스트 방식으로 전체 로봇에게 알린 경우, 모든 로봇들은 R2의 상태를 인계 준비 중으로 변경한다. 그리고 R1은 현재 위치와 대상 로봇(R2) 위치의 중간 좌표를 R2에게 알린다(S92). 이때 중간 좌표는 직선 거리상으로도 결정할 수 있지만, 이동 경로상의 중간 값을 적용할 수도 있다. 에스코트 중인 R1과 인계 준비중인 대상 로봇 R2 모두 중간 좌표로 이동하는데(S93), 이 과정에서 장애물을 회피하는 등 새로운 상황의 발생으로 R1과 R2 사이의 이동 거리에서 차이가 발생할 수 있다. 이 경우 R1은 주기적으로 중간 좌표를 재계산하여 R2에게 알린다. 즉, 대상 로봇인 R2로부터 R1의 통신부(도 7의 280)가 대상 로봇의 현재 위치 정보를 수신하는데 여기서 경로 변경이 발생했을 가능성이 있다. 또는 로봇(R1)이 중간 지점으로 이동하는 과정에서 경로 변경이 발생할 수 있다. 즉 중간 지점에서 R1 및 R2가 만나기로 예정된 경로 상에서 변화가 발생한 경우, R1의 중앙제어부(도 7의 250)가 중간 지점을 재계산하여 새로운 위치 정보를 대상 로봇인 R2에게 전송하도록 통신부(도 7의 280)를 제어할 수 있다. When all robots are notified in a broadcast manner, all robots change the status of R2 to ready for takeover. Then, R1 informs R2 of the intermediate coordinates of the current position and the target robot (R2) position (S92). At this time, the intermediate coordinates can be determined even on a straight line distance, but an intermediate value on the moving path may be applied. Both R1 being escorted and target robot R2 being ready to take over move to intermediate coordinates (S93), but a difference may occur in the moving distance between R1 and R2 due to the occurrence of a new situation, such as avoiding an obstacle in the process. In this case, R1 periodically recalculates the intermediate coordinates and notifies R2. That is, the communication unit of R1 (280 in FIG. 7) from the target robot R2 receives the current position information of the target robot, and there is a possibility that a path change has occurred. Alternatively, a path change may occur while the robot R1 moves to an intermediate point. That is, if a change occurs on a path where R1 and R2 are scheduled to meet at an intermediate point, the central control unit (250 in FIG. 7) of R1 recalculates the intermediate point and transmits new location information to the target robot R2 (FIG. 7) 280) can be controlled.

두 로봇의 거리가 인계 가능한 거리 이내인 경우(S94), R1은 R2에게 브로드캐스트 또는 다이렉트 캐스트 방식으로 고객의 목표 지점을 전달하거나 가이드 업무의 목적 지점을 전달하고, R1은 UI를 통해 고객에게 R2가 대신 안내할 것임을 알린다. 그리고 에스코트 하던 R1은 상태를 복귀중으로 변경하고 대기 위치로 이동한다(S96). 이 과정에서 R1의 인터페이스부(도 7의 210)는 중간 지점(대상 로봇과의 거리가 일정 거리 이하인 경우)에서 대상 로봇으로 작업이 인계됨을 통지하는 메시지를 출력할 수 있다. 대상 로봇의 방향으로 화살표를 표시하거나, 음성으로 표시할 수 있으며, 마찬가지로 대상 로봇 역시 작업이 인계되었음을 사용자에게 알리기 위해 대상 로봇인 R2의 인터페이스부(도 7의 210)에서 이미지나 음성을 출력할 수 있다. When the distance between the two robots is within a range that can be taken over (S94), R1 delivers the target point of the customer to R2 in a broadcast or direct cast method, or delivers the target point of guide work, and R1 gives the R2 to the customer through the UI. Will inform you instead. Then, the escalating R1 changes the state to returning and moves to the standby position (S96). In this process, the interface unit of R1 (210 in FIG. 7) may output a message notifying that the work is taken over from the intermediate point (if the distance to the target robot is less than or equal to a certain distance) to the target robot. Arrows can be displayed in the direction of the target robot or can be displayed by voice. Similarly, the target robot can also output an image or voice from the interface of the target robot R2 (210 in FIG. 7) to inform the user that the job has been taken over. have.

인계받은 로봇 R2는 상태를 에스코트 중으로 변경하고 에스코트를 시작한다(S97). 이때 R1 및 R2 모두 자신의 변경된 상태를 브로드캐스트 방식으로 전체 로봇에게 알릴 수 있다. 이후 R2는 R1에게 전달받은 지점을 향해 에스코트를 시작한다. The takeover robot R2 changes the state to escorting and starts escorting (S97). At this time, both R1 and R2 can notify the entire robot of the changed state through a broadcast method. Afterwards, R2 starts escorting to the point received from R1.

S94에서 인계 가능한 거리가 아닌 경우 R1 또는 R2는 잠시 대기할 수 있다(S95). If it is not a distance that can be taken over from S94, R1 or R2 may wait for a while (S95).

도 5에서 협업 가치는 다양한 방식으로 산출 가능하다. 예를 들어, 두 로봇의 위치와 목표지점 위치인 세 장소간의 거리(이동경로)로 측정할 수 있다. 예를 들어 에스코트 중인 로봇을 R1, 협업 가치 측정 할 로봇을 R2라 했을 때 다음의 경우 협업 가치의 유무를 R1이 판단할 수 있다. In FIG. 5, the collaboration value can be calculated in various ways. For example, it can be measured by the distance between the two robots and the three locations, the target location (moving path). For example, if the robot being escorted is R1 and the robot to measure collaboration value is R2, R1 can determine the presence or absence of collaboration value in the following cases.

일 실시예로, (R1의 현재 위치~목표지점 사이의 거리)가 (R2의 현재 위치~목표지점 사이의 거리) 보다 작거나 같을 경우, R1이 목표지점까지 이동하는 것이 전체 리소스를 줄일 수 있으므로, 이와 같은 경우 R1은 협업 가치가 없는 것으로 판단한다. In one embodiment, when (the distance between the current position of R1 and the target point) is less than or equal to (the distance between the current position of R2 and the target point), moving to the target point by R1 may reduce the entire resource. In this case, R1 is judged to have no collaborative value.

반대로, (R1의 현재 위치~목표지점 사이의 거리)가 (R2의 현재 위치~목표지점 사이의 거리) 보다 클 경우, 세분하여 판단할 수 있다. Conversely, when (the distance between the current position of R1 and the target point) is greater than (the distance between the current position of R2 and the target point), it can be determined in detail.

일 실시예로, 다음 수학식에 기반하여 산출할 수 있다.In one embodiment, it can be calculated based on the following equation.

[수학식 1][Equation 1]

{(R1의 현재위치~목표지점 사이의 거리)- (R2의 현재위치~목표지점 사이의 거리)} * Var1 >= (R1~R2 사이의 거리){(Distance between the current position of R1 to the target point)- (Distance between the current position of the R2 to the target point)} * Var1 >= (distance between R1 and R2)

Var1은 다양하게 선택될 수 있는데 예를 들어 1.2의 값을 적용할 수 있다. 수학식 1은 현재 에스코트를 수행하는 로봇과 목표지점 사이의 거리에서 대상 로봇의 현재위치와 목표지점 사이의 거리를 뺀 값에 Var1을 곱한 것이, 두 로봇 사이의 거리보다 크거나 같을 경우 이는 로봇 간의 거리가 밀접한 것으로 협업 가치가 있는 것으로 판단할 수 있다. Var1 can be variously selected, for example, a value of 1.2 can be applied. Equation 1 is obtained by subtracting the distance between the current position of the target robot and the target point from the distance between the robot performing the current escort and the target point, and multiplying by Var1. It can be judged that the distance is close and that it is worth collaboration.

반대로, 수학식 2와 같이 계산할 수 있는데, 이는 로봇 사이의 거리가 큰 것으로 협업 가치가 없는 것으로 판단할 수 있다. Conversely, it can be calculated as shown in Equation 2, which can be judged to have a large distance between robots and not to have collaborative value.

[수학식 2][Equation 2]

{(R1의 현재위치~목표지점 사이의 거리)- (R2의 현재위치~목표지점 사이의 거리)} * Var1 < (R1~R2 사이의 거리){(Distance between the current position of R1 to the target point)- (Distance between the current position of R2 to the target point)} * Var1 <(distance between R1 to R2)

도 7은 본 발명의 일 실시예에 의한 로봇의 구성을 보여주는 도면이다. 앞서 살펴본 R1, R2, R3 등의 로봇의 구성을 보여준다. 7 is a view showing the configuration of a robot according to an embodiment of the present invention. It shows the configuration of robots such as R1, R2, and R3, which were discussed above.

도 2에서 살펴본 로봇의 외관을 일 실시예로 내부에 구성되는 구성요소들을 설명한다. 그러나 도 2의 로봇의 외관은 본 발명의 일 실시예에 해당하며, 다양한 외형으로 로봇을 구성할 수 있다. 로봇의 인터페이스부(210)는 외부의 사용자에게 정보를 출력하여 제공하거나 음성을 출력하는 기능을 제공한다. 또는 사용자가 일정한 정보를 입력할 수 있도록 터치 스크린을 제공할 수 있다. 도 2의 바디 디스플레이부(20) 및 헤드 디스플레이(312) 등이 인터페이스부를 구성할 수 있다. The external components of the robot described in FIG. 2 are described as components. However, the appearance of the robot of FIG. 2 corresponds to an embodiment of the present invention, and the robot may be configured in various shapes. The interface unit 210 of the robot provides a function of outputting information or outputting voice to an external user. Alternatively, a touch screen may be provided to allow a user to input certain information. The body display unit 20 and the head display 312 of FIG. 2 may constitute an interface unit.

저장부(220)는 로봇(200)의 대기위치 좌표, 상태, 현재위치 등을 저장한다. 또한 통신부(280)를 통해 수신된 다른 로봇의 대기위치 좌표, 상태, 현재위치 등을 저장한다. The storage unit 220 stores the coordinates of the waiting position of the robot 200, the state, the current position, and the like. In addition, it stores the coordinates, status, current position, etc. of the waiting position of another robot received through the communication unit 280.

이동부(230)는 로봇을 이동시키는 수단을 포함한다. The moving part 230 includes means for moving the robot.

맵저장부(260)는 로봇이 이동하는 공간의 고정 장애물, 예를 들어 벽, 기둥 등의 위치와 바닥의 재질, 혹은 공간의 특이사항 등에 대한 정보를 저장한다. 로봇(200)은 맵저장부(260)에 저장된 정보에 기반하여 목적지까지의 경로를 산출할 수 있다. The map storage unit 260 stores information about a fixed obstacle in a space in which the robot moves, for example, a location of a wall, a pillar, the material of the floor, or special features of the space. The robot 200 may calculate a route to a destination based on information stored in the map storage unit 260.

센싱부(270)는 로봇이 이동하는 과정에서 장애물을 확인하기 위해 로봇의 외부의 사물을 센싱하는 기능을 제공한다. 일 실시예로 로봇의 진행방향 또는 인접한 영역 내에 배치된 사물들을 센싱할 수 있다. The sensing unit 270 provides a function of sensing an object external to the robot in order to identify an obstacle in the process of moving the robot. According to an embodiment, objects disposed in an advancing direction of a robot or adjacent areas may be sensed.

통신부(280)는 로봇이 다른 로봇 또는 서버와 통신하여 정보를 송수신할 수 있도록 한다. 다른 로봇의 위치 정보나 상태 정보를 다른 로봇이 브로드캐스트 방식으로 전송할 경우 이를 수신할 수 있다. 또는 서버로부터 로봇이 다른 로봇들의 정보를 수신할 수 있다. 또는 로봇 간에 일대일의 다이렉트 방식으로 정보를 교환할 수 있다. 마찬가지로 로봇은 자신의 상태 정보와 위치 정보 등을 브로드캐스팅 방식으로 다른 로봇에게 전송하거나 서버에게 전송하거나 다른 로봇과 일대일의 다이렉트 방식으로 전송할 수 있다. The communication unit 280 allows the robot to communicate with other robots or servers to transmit and receive information. If another robot transmits location information or status information of another robot in a broadcast manner, it can receive it. Alternatively, the robot may receive information of other robots from the server. Alternatively, information can be exchanged between robots in a one-to-one direct manner. Similarly, the robot may transmit its state information and location information to other robots by broadcasting method, to a server, or one-to-one with other robots.

중앙 제어부(250)는 전술한 구성요소들을 제어한다. 중앙제어부(250)는 맵저장부(260)의 고정 장애물 정보 및 센싱부(270)가 센싱한 사물들에 기반하여 이동부(230)를 제어하여 로봇을 이동시킬 수 있다. The central control unit 250 controls the aforementioned components. The central control unit 250 may move the robot by controlling the moving unit 230 based on the fixed obstacle information of the map storage unit 260 and the objects sensed by the sensing unit 270.

인터페이스부(210)는 외부로 정보를 출력하고 외부로부터 소정의 정보를 입력받는 기능을 제공한다. 인터페이스부(210)는 음성을 출력하거나 그래픽/영상으로 정보를 출력할 수 있다. 또는 인터페이스부(210)는 사용자로부터 음성을 입력받을 수 있다. 인터페이스부(210)는 터치 스크린을 포함하여 사용자로부터 소정의 기능 수행을 지시하는 명령을 터치 입력 방식으로 제공받을 수 있다. The interface unit 210 provides a function of outputting information to the outside and receiving predetermined information from the outside. The interface unit 210 may output voice or information as a graphic/video. Alternatively, the interface unit 210 may receive a voice from a user. The interface unit 210 may be provided with a touch input method for instructing a user to perform a predetermined function, including a touch screen.

저장부(220)는 상기 다른 로봇의 위치 정보와 상태 정보, 대기 위치 정보를 저장한다. 다른 로봇은 하나 이상으로 하기의 정보는 하나 이상 저장부(220)에 저장된다. The storage unit 220 stores location information, status information, and standby location information of the other robot. Other robots are one or more, and the following information is stored in one or more storage units 220.

{R#, R#의 대기위치 좌표, R#의 상태, R#의 현재위치} {R#, coordinates of R#'s waiting position, status of R#, current location of R#}

앞서 살펴본 바와 같이, 하기의 정보 단위를 로봇 별로 저장할 수 있다. 이들 정보는 각 로봇이 브로드캐스팅 하여 제공하거나 다이렉트 통신으로 제공하는 경우, 또는 서버로부터 제공받은 경우 중 어느 하나에 해당할 수 있다. 통신부(280)는 다양한 통신 방식으로 다양한 장치들(로봇 또는 서버)로부터 정보를 수신할 수 있다. As described above, the following information units can be stored for each robot. These information may correspond to either of cases provided by each robot by broadcasting or provided by direct communication, or received from a server. The communication unit 280 may receive information from various devices (robot or server) in various communication methods.

중앙제어부(250)는 도 5 및 도 6에서 살펴본 바와 같이, 맵저장부(260)의 고정 장애물 정보 및 센싱부(270)가 센싱한 사물들에 기반하여 이동부(230)를 제어하여 로봇(200)을 이동시킨다. 또한 로봇(200)이 제1지점에서 제2지점까지 이동하는 과정에서 수행하는 작업을 인계받을 대상 로봇을 선택할 수 있다. 5 and 6, the central control unit 250 controls the moving unit 230 based on the fixed obstacle information of the map storage unit 260 and objects sensed by the sensing unit 270 to control the robot ( 200). In addition, the robot 200 may select a target robot to take over the work performed in the process of moving from the first point to the second point.

그리고 대상 로봇이 선택된 경우, 중앙제어부(250)는 대상 로봇에게 작업을 인계하기 위한 중간 지점으로 로봇(200)을 이동시키도록 이동부(230)를 제어하여 작업을 수행하는데 있어 로봇이 투입할 리소스를 줄일 수 있다. 여기서 리소스란 로봇이 투입하는 시간, 또는 로봇이 이동해야 하는 거리, 또는 로봇이 작업 완료 후 원래의 대기 위치로 이동하는데 소요되는 시간 또는 거리 등을 포함한다. In addition, when the target robot is selected, the central control unit 250 controls the moving unit 230 to move the robot 200 to an intermediate point for taking over the work to the target robot, and resources to be input by the robot in performing the operation. Can be reduced. Here, the resource includes a time input by the robot, a distance that the robot should move, or a time or distance required for the robot to move to the original standby position after completing the work.

앞서, 수학식 1 및 2에서 살펴본 바와 같이 중앙제어부(250)는 협업 가치를 판단할 수 있다. 예를 들어, R1이 R2의 협업 가치를 판단할 경우, 로봇(R1)과 대상 로봇(R2)과의 거리, 로봇(R1)과 제2지점(목표지점)의 거리, 대상 로봇(R2)과 제2지점(목표 지점)의 거리 중 어느 둘 이상을 비교하여 협업 가치를 판단할 수 있다. Previously, as described in Equations 1 and 2, the central control unit 250 may determine the collaboration value. For example, when R1 determines the collaboration value of R2, the distance between the robot R1 and the target robot R2, the distance between the robot R1 and the second point (target point), and the target robot R2 The collaboration value can be determined by comparing any two or more of the distances of the second point (target point).

또한, 다른 방식으로 중앙제어부(250)는 로봇(R1)이 제2지점(목표지점)까지 이동하여 작업을 완료한 후 로봇(R1)에게 설정된 대기 위치로 복귀하는데 투입되는 리소스가 미리 설정된 기준 이상인 경우 상기 대상 로봇(R2)의 협업 가치를 증가시킬 수 있다. 시간으로 리소스를 환산한 경우, 대기 위치가 공백인 시간이 일정 기준(15분) 이상인 경우에 협업 가치를 증가시켜 잠시 대기하더라도 대상 로봇에게 작업을 인계할 수 있도록 한다. In addition, in another way, the central control unit 250 moves the robot R1 to the second point (target point) and completes the work, and then the resource inputted to return to the standby position set for the robot R1 is greater than or equal to a preset criterion. In this case, the collaboration value of the target robot R2 may be increased. In case of converting resources by time, if the waiting time is more than a certain standard (15 minutes), the collaborative value is increased so that the target robot can take over even if it waits for a while.

도 7의 구성은 대상 로봇, 즉 작업을 인계받는 로봇에도 적용될 수 있다. 이 경우, 통신부(280)가 다른 로봇으로부터 그 로봇의 작업을 인계받기 위한 중간 지점에 대한 위치 정보를 수신하면, 중앙제어부(250)는 대상 로봇을 상기 중간 지점으로 이동시키도록 이동부(230)를 제어할 수 있다. The configuration of FIG. 7 can also be applied to a target robot, that is, a robot taking over a task. In this case, when the communication unit 280 receives location information for an intermediate point for taking over the robot's work from another robot, the central control unit 250 moves the target robot to move to the intermediate point 230 Can be controlled.

그리고 이 과정에서 중간 지점으로 이동을 시작하며 대상 로봇의 중앙제어부(250)는 대상 로봇을 중간 지점으로 이동시키는 과정에서 대상 로봇의 상태 정보를 변경한다. 그리고, 통신부(280)는 변경된 상태 정보를 다른 로봇 또는 서버에게 전송하여 다른 로봇들이 대상 로봇의 현재 상태에 대한 정보를 업데이트할 수 있도록 한다. In this process, the movement starts to an intermediate point, and the central control unit 250 of the target robot changes the state information of the target robot in the process of moving the target robot to the intermediate point. Then, the communication unit 280 transmits the changed state information to another robot or a server so that other robots can update information about the current state of the target robot.

도 5 내지 7을 정리하면 다음과 같다. R1이 작업을 현재 수행하는 로봇이며 R2가 작업을 인계받는 대상 로봇으로 가정한다. 5 to 7 are summarized as follows. It is assumed that R1 is the robot currently performing the work and R2 is the target robot taking over the work.

R1이 제1지점에서 제2지점으로 이동하며 수행하는 작업을 수행하며 제1지점에서 제2지점까지 이동하는 과정에서 수행하는 작업을 인계받을 대상 로봇(R2)를 로봇(R1)의 중앙제어부(250)가 선택한다. 그리고 R1의 중앙제어부(250)가 대상 로봇(R2)에게 작업을 인계하기 위한 중간 지점을 산출한다. 이후, R1의 중앙제어부(250)가 로봇(R1)의 이동부(230)를 제어하여 R1을 중간 지점으로 이동시킨다. 그리고, 중간 지점에 도달하거나 R1-R2 간의 거리가 근접한 경우, R1의 통신부(280)가 대상 로봇(R2)에게 작업을 인계하는 메시지를 전송한다. 이러한 과정을 통해 하나의 작업에 투입되는 리소스가 다수의 로봇에 분배되어 로봇의 협업에 기반하여 작업이 처리된다. The central control unit of the robot R1 receives the target robot R2 to take over the work performed in the process of moving from the first point to the second point, and moving from the first point to the second point. 250) to choose. Then, the central control unit 250 of R1 calculates an intermediate point for taking over the work to the target robot R2. Thereafter, the central control unit 250 of R1 controls the moving unit 230 of the robot R1 to move R1 to an intermediate point. Then, when the intermediate point is reached or the distance between R1 and R2 is close, the communication unit 280 of R1 transmits a message to take over the task to the target robot R2. Through this process, resources input to one task are distributed to multiple robots, and the task is processed based on the robot's collaboration.

종래의 기술, 예를 들어 도 1의 사례와 본 발명의 실시예들을 비교하면, 본 발명의 실시예를 적용할 경우, 리소스의 분배 효율이 높아진다. 종래의 경우, 한 대의 로봇이 가이드를 마친 후 최초 대기 위치로 복귀하여 대기한다. 종래의 방법에 의할 경우, 로봇의 대기 위치가 각각 다르면 대기 위치에서 멀리 떨어진 곳으로 가이드를 하며, 해당 로봇이 맡은 위치의 서비스 공백이 커진다.Comparing the prior art, for example, the case of FIG. 1 with the embodiments of the present invention, when the embodiment of the present invention is applied, the distribution efficiency of resources is increased. In the conventional case, after one robot finishes the guide, it returns to the initial standby position and waits. In the case of the conventional method, when the robots have different standby positions, the guides are guided away from the standby position, and the service gap at the position occupied by the robot increases.

반면, 본 발명의 실시예를 적용할 경우, 전체 로봇들의 총 리소스(실제 이동거리 및 서비스 공백시간, 또는 배터리 사용 등)와 개별 로봇의 리소스의 효율성을 확보할 수 있다. 즉, 특정 서비스(안내 기능)을 수행함에 있어서 경로상에 있는 로봇들이 리소스 분배를 하기 때문에 가이드를 시작하는 로봇이 제공해야 하는 리소스의 양을 줄일 수 있다. On the other hand, when the embodiment of the present invention is applied, it is possible to secure the total resources of the entire robots (actual moving distance and service empty time, battery use, etc.) and the efficiency of the resources of the individual robots. That is, in performing a specific service (guidance function), since the robots on the path distribute resources, it is possible to reduce the amount of resources that the robot starting the guide should provide.

또한, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니며, 본 발명의 목적 범위 내에서 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 반도체 기록소자를 포함하는 저장매체를 포함한다. 또한 본 발명의 실시예를 구현하는 컴퓨터 프로그램은 외부의 장치를 통하여 실시간으로 전송되는 프로그램 모듈을 포함한다. In addition, even if all components constituting the embodiments of the present invention are described as being combined or operated as one, the present invention is not necessarily limited to these embodiments, and all elements within the scope of the present invention It may also operate by selectively combining one or more. In addition, although all of the components may be implemented by one independent hardware, a part or all of the components are selectively combined to perform a part or all of functions combined in one or a plurality of hardware. It may be implemented as a computer program having a. The codes and code segments constituting the computer program can be easily deduced by those skilled in the art of the present invention. Such a computer program is stored in a computer readable storage medium (Computer Readable Media) and read and executed by a computer, thereby implementing an embodiment of the present invention. The storage medium of the computer program includes a magnetic recording medium, an optical recording medium, and a storage medium including a semiconductor recording element. In addition, the computer program implementing the embodiment of the present invention includes a program module that is transmitted in real time through an external device.

이상에서는 본 발명의 실시예를 중심으로 설명하였지만, 통상의 기술자의 수준에서 다양한 변경이나 변형을 가할 수 있다. 따라서, 이러한 변경과 변형이 본 발명의 범위를 벗어나지 않는 한 본 발명의 범주 내에 포함되는 것으로 이해할 수 있을 것이다.In the above, the description has been mainly focused on the embodiment of the present invention, but various changes or modifications can be made at the level of a person skilled in the art. Accordingly, it will be understood that such changes and modifications are included within the scope of the present invention without departing from the scope of the present invention.

1, 200: 로봇
R1, R2, R3 : 로봇
250: 중앙제어부
280: 통신부
1, 200: robot
R1, R2, R3: Robot
250: central control unit
280: communication unit

Claims (13)

로봇이 이동하는 공간에 배치된 고정 장애물 정보를 저장하는 맵 저장부;
사물들을 센싱하는 센싱부;
다른 로봇 또는 서버와 정보를 송수신하는 통신부;
외부로 정보를 출력하고 외부로부터 소정의 정보를 입력받는 인터페이스부;
상기 다른 로봇의 위치 정보와 상태 정보, 대기 위치 정보를 저장하는 저장부;
로봇을 이동시키는 이동부; 및
상기 맵저장부의 고정 장애물 정보 및 상기 센싱부가 센싱한 사물들에 기반하여 상기 이동부를 제어하여 상기 로봇을 이동시키며, 상기 로봇이 제1지점에서 제2지점까지 이동하는 과정에서 수행하는 작업을 인계받을 대상 로봇을 선택하는 중앙제어부를 포함하며,
상기 중앙제어부는 상기 대상 로봇에게 상기 작업을 인계하기 위한 중간 지점으로 상기 로봇을 이동시키도록 상기 이동부를 제어하여 상기 작업을 수행하는데 있어 상기 로봇 또는 상기 대상 로봇이 투입할 리소스를 줄이며,
상기 리소스는 상기 로봇 또는 상기 대상 로봇이 자신의 대기 위치로 복귀하는데 소요되는 거리 또는 시간 또는 이 둘을 합한 것이며, 상기 중앙제어부는 상기 로봇 및 상기 대상 로봇 중 어느 한 로봇의 대기 위치에서 발생하는 서비스 공백을 줄이도록 상기 대상 로봇을 선택하는, 리소스 분배에 기반하여 협업하는 로봇.
A map storage unit for storing fixed obstacle information disposed in a space in which the robot moves;
A sensing unit sensing objects;
Communication unit for transmitting and receiving information with other robots or servers;
An interface unit that outputs information to the outside and receives predetermined information from the outside;
A storage unit that stores location information, status information, and standby location information of the other robot;
A moving unit for moving the robot; And
Based on the fixed obstacle information of the map storage unit and objects sensed by the sensing unit, the robot is moved by controlling the moving unit, and the operation performed in the process of the robot moving from the first point to the second point is taken over. Includes a central control unit for selecting the target robot,
The central control unit controls the moving unit to move the robot to an intermediate point for taking over the operation to the target robot, thereby reducing resources to be input by the robot or the target robot in performing the operation,
The resource is a distance or time required for the robot or the target robot to return to its standby position, or a combination of the two, and the central control unit is a service occurring at a standby position of either the robot or the target robot A robot that collaborate based on resource distribution, selecting the target robot to reduce the gap.
제1항에 있어서,
상기 통신부가 상기 공간에 배치된 하나 이상의 대상 로봇으로부터 위치 정보와 상태 정보, 그리고 대기 위치 정보를 수신하면,
상기 중앙제어부는 상기 수신한 정보에서 상기 제1지점 및 상기 제2지점의 경로에서 경유 가능한 대기 위치의 대상 로봇을 근접한 순서로 정렬하여 상기 대상 로봇의 상태 정보와 상기 대상 로봇의 협업 가치에 기반하여 상기 하나 이상의 대상 로봇 중 하나를 선택하며,
상기 통신부는 상기 선택된 대상 로봇에게 상기 중간 지점에 대한 위치 정보를 전송하는, 리소스 분배에 기반하여 협업하는 로봇.
According to claim 1,
When the communication unit receives location information, status information, and standby location information from one or more target robots disposed in the space,
The central control unit sorts the target robots in the standby positions that can be passed through the paths of the first point and the second point in the proximity of the received information based on the status information of the target robot and the collaboration value of the target robot. Select one of the one or more target robots,
The communication unit transmits the location information for the intermediate point to the selected target robot, a robot cooperating based on resource distribution.
제2항에 있어서,
상기 중앙제어부는
상기 로봇과 상기 대상 로봇과의 거리, 상기 로봇과 상기 제2지점의 거리, 및 상기 대상 로봇과 상기 제2지점의 거리 중 어느 둘 이상을 비교하여 상기 협업 가치를 판단하는, 리소스 분배에 기반하여 협업하는 로봇.
According to claim 2,
The central control unit
Based on resource distribution, determining the collaboration value by comparing any two or more of the distance between the robot and the target robot, the distance between the robot and the second point, and the distance between the target robot and the second point A collaborative robot.
제2항에 있어서,
상기 중앙제어부는
상기 로봇이 상기 제2지점까지 이동하여 상기 작업을 완료한 후 상기 로봇에게 설정된 대기 위치로 복귀하는데 투입되는 리소스가 미리 설정된 기준 이상인 경우 상기 대상 로봇의 협업 가치를 증가시키는, 리소스 분배에 기반하여 협업하는 로봇.
According to claim 2,
The central control unit
After the robot moves to the second point and completes the work, if the resource input to return to the standby position set to the robot is greater than a preset criterion, the collaboration value of the target robot is increased, based on resource distribution. Robot.
제1항에 있어서,
상기 인터페이스부는 상기 중간 지점에서 상기 대상 로봇으로 작업이 인계됨을 통지하는 메시지를 출력하는, 리소스 분배에 기반하여 협업하는 로봇.
According to claim 1,
The interface unit outputs a message notifying that the work is taken over from the intermediate point to the target robot, and the robot cooperating based on resource distribution.
제1항에 있어서,
상기 로봇이 상기 중간 지점으로 이동하는 과정에서
상기 통신부가 상기 대상 로봇으로부터 상기 대상 로봇의 현재 위치 정보를 수신하거나 상기 로봇이 상기 중간 지점으로 이동하는 과정에서 경로 변경이 발생하면, 상기 중앙제어부는 상기 중간 지점을 재계산하여 새로운 위치 정보를 상기 대상 로봇에게 전송하도록 상기 통신부를 제어하는, 리소스 분배에 기반하여 협업하는 로봇.
According to claim 1,
In the process of moving the robot to the intermediate point
When the communication unit receives the current location information of the target robot from the target robot or a path change occurs in the process of the robot moving to the intermediate point, the central control unit recalculates the intermediate point to receive new location information. A robot that cooperates based on resource distribution that controls the communication unit to transmit to a target robot.
대상 로봇이 이동하는 공간에 배치된 고정 장애물 정보를 저장하는 맵 저장부;
상기 대상 로봇을 이동시키는 이동부; 및
사물들을 센싱하는 센싱부;
다른 로봇 또는 서버와 정보를 송수신하는 통신부;
외부로 정보를 출력하고 외부로부터 소정의 정보를 입력받는 인터페이스부;
상기 맵저장부의 고정 장애물 정보 및 상기 센싱부가 센싱한 사물들에 기반하여 상기 이동부를 제어하여 상기 대상 로봇을 이동시키며, 상기 통신부가 상기 다른 로봇으로부터 상기 로봇의 작업을 인계받기 위한 중간 지점에 대한 위치 정보를 수신하면 상기 대상 로봇을 상기 중간 지점으로 이동시키도록 상기 이동부를 제어하는 중앙제어부를 포함하며,
상기 다른 로봇 또는 상기 서버는 상기 다른 로봇이 상기 작업을 수행하는데 있어 상기 다른 로봇 및 상기 대상 로봇 중 어느 한 로봇의 대기 위치에서 발생하는 서비스 공백을 줄이고, 상기 다른 로봇 또는 상기 대상 로봇이 투입할 리소스를 줄이도록 상기 대상 로봇을 선택하였으며,
상기 리소스는 상기 다른 로봇 또는 상기 대상 로봇이 자신의 대기 위치로 복귀하는데 소요되는 거리 또는 시간 또는 이 둘을 합한 것인, 리소스 분배에 기반하여 협업하는 로봇.
A map storage unit for storing fixed obstacle information disposed in a space in which the target robot moves;
A moving unit moving the target robot; And
A sensing unit sensing objects;
Communication unit for transmitting and receiving information with other robots or servers;
An interface unit that outputs information to the outside and receives predetermined information from the outside;
Based on the fixed obstacle information of the map storage unit and objects sensed by the sensing unit, the target robot is moved by controlling the moving unit, and the communication unit positions the intermediate point for taking over the robot's work from the other robot. When receiving the information includes a central control unit for controlling the moving unit to move the target robot to the intermediate point,
The other robot or the server reduces a service gap occurring in a standby position of any one of the other robot and the target robot when the other robot performs the operation, and resources to be input by the other robot or the target robot The target robot was selected to reduce the,
The resource is a distance or time required for the other robot or the target robot to return to its standby position, or a combination of the two, a robot cooperating based on resource distribution.
제7항에 있어서,
상기 중앙제어부는
상기 대상 로봇을 상기 중간 지점으로 이동시키는 과정에서 상기 대상 로봇의 상태 정보를 변경하며,
상기 통신부는 상기 상태 정보를 다른 로봇 또는 서버에게 전송하는, 리소스 분배에 기반하여 협업하는 로봇.
The method of claim 7,
The central control unit
In the process of moving the target robot to the intermediate point, the state information of the target robot is changed,
The communication unit transmits the status information to another robot or server, a robot that cooperates based on resource distribution.
제1지점에서 제2지점으로 이동하며 수행하는 작업을 수행하며 상기 제1지점에서 상기 제2지점까지 이동하는 과정에서 수행하는 작업을 인계받을 대상 로봇을 로봇의 중앙제어부가 선택하는 단계;
상기 중앙제어부가 상기 대상 로봇에게 상기 작업을 인계하기 위한 중간 지점을 산출하는 단계;
상기 중앙제어부가 상기 로봇의 이동부를 제어하여 상기 로봇을 상기 중간 지점으로 이동시키는 단계; 및
상기 로봇의 통신부가 상기 대상 로봇에게 상기 작업을 인계하는 메시지를 전송하는 단계를 포함하며,
상기 선택하는 단계는 상기 로봇의 중앙제어부가 상기 작업을 수행하는데 있어 상기 로봇 및 상기 대상 로봇 중 어느 한 로봇의 대기 위치에서 발생하는 서비스 공백을 줄이고, 상기 로봇 또는 상기 대상 로봇이 투입할 리소스를 줄이도록 상기 대상 로봇을 선택하는 단계를 포함하며,
상기 리소스는 상기 로봇 또는 상기 대상 로봇이 자신의 대기 위치로 복귀하는데 소요되는 거리 또는 시간 또는 이 둘을 합한 것인, 리소스 분배에 기반하여 로봇이 협업하는 방법.
Selecting a target robot to take over a target robot to take over the work performed in the process of moving from the first point to the second point while performing a task performed from a first point to a second point;
Calculating an intermediate point for the central control unit to take over the work to the target robot;
The central control unit controlling the moving unit of the robot to move the robot to the intermediate point; And
And transmitting a message that takes over the operation to the target robot by the communication unit of the robot,
The selecting step reduces a service gap occurring in a waiting position of any one of the robot and the target robot in performing the operation by the central control unit of the robot, and reduces resources to be input by the robot or the target robot. This includes selecting the target robot,
The resource is a distance or time required for the robot or the target robot to return to its standby position, or a combination of the two.
제9항에 있어서,
상기 통신부가 상기 로봇이 이동하는 공간에 배치된 하나 이상의 대상 로봇으로부터 위치 정보와 상태 정보, 그리고 대기 위치 정보를 수신하는 단계;
상기 중앙제어부가 상기 수신한 정보에서 상기 제1지점 및 상기 제2지점의 경로에서 경유 가능한 대기 위치의 대상 로봇을 근접한 순서로 정렬하여 상기 대상 로봇의 상태 정보와 상기 대상 로봇의 협업 가치에 기반하여 상기 하나 이상의 대상 로봇 중 하나를 선택하는 단계; 및
상기 통신부가 상기 선택된 대상 로봇에게 상기 중간 지점에 대한 위치 정보를 전송하는 단계를 더 포함하는, 리소스 분배에 기반하여 로봇이 협업하는 방법.
The method of claim 9,
Receiving, by the communication unit, location information, status information, and standby location information from one or more target robots disposed in a space where the robot moves;
Based on the status information of the target robot and the collaboration value of the target robot, the central control unit sorts the target robots in the standby positions that can be passed through the paths of the first point and the second point in the proximity of the received information. Selecting one of the one or more target robots; And
The communication unit further comprising the step of transmitting the location information for the intermediate point to the selected target robot, a method for the robot to collaborate based on the resource distribution.
제10항에 있어서,
상기 중앙제어부가 상기 로봇과 상기 대상 로봇과의 거리, 상기 로봇과 상기 제2지점의 거리, 및 상기 대상 로봇과 상기 제2지점의 거리 중 어느 둘 이상을 비교하여 상기 협업 가치를 판단하는 단계를 더 포함하는, 리소스 분배에 기반하여 로봇이 협업하는 방법.
The method of claim 10,
Determining the collaboration value by comparing any two or more of the distance between the robot and the target robot, the distance between the robot and the second point, and the distance between the target robot and the second point by the central control unit Further comprising, how the robots collaborate based on resource distribution.
제10항에 있어서,
상기 중앙제어부가 상기 로봇이 상기 제2지점까지 이동하여 상기 작업을 완료한 후 상기 로봇에게 설정된 대기 위치로 복귀하는데 투입되는 리소스가 미리 설정된 기준 이상인 경우 상기 대상 로봇의 협업 가치를 증가시키는 단계를 더 포함하는, 리소스 분배에 기반하여 로봇이 협업하는 방법.
The method of claim 10,
When the central control unit completes the operation by moving the robot to the second point, if the resource input to return to the set waiting position for the robot is greater than a preset criterion, further increasing the collaboration value of the target robot Including, how robots collaborate based on resource distribution.
제9항에 있어서,
상기 로봇이 상기 중간 지점으로 이동하는 과정에서
상기 통신부가 상기 대상 로봇으로부터 상기 대상 로봇의 현재 위치 정보를 수신하거나 상기 로봇이 상기 중간 지점으로 이동하는 과정에서 경로 변경이 발생하면, 상기 중앙제어부는 상기 중간 지점을 재계산하여 새로운 위치 정보를 상기 대상 로봇에게 전송하도록 상기 통신부를 제어하는 단계를 더 포함하는, 리소스 분배에 기반하여 로봇이 협업하는 방법.
The method of claim 9,
In the process of moving the robot to the intermediate point
When the communication unit receives the current location information of the target robot from the target robot or a path change occurs in the process of the robot moving to the intermediate point, the central control unit recalculates the intermediate point to receive new location information. Further comprising the step of controlling the communication unit to transmit to the target robot, a method for the robot to collaborate based on the resource distribution.
KR1020180122852A 2018-10-15 2018-10-15 Method of robot's cooperation based on resource distribution and robot with cooperating each other KR102137033B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180122852A KR102137033B1 (en) 2018-10-15 2018-10-15 Method of robot's cooperation based on resource distribution and robot with cooperating each other

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180122852A KR102137033B1 (en) 2018-10-15 2018-10-15 Method of robot's cooperation based on resource distribution and robot with cooperating each other

Publications (2)

Publication Number Publication Date
KR20200046148A KR20200046148A (en) 2020-05-07
KR102137033B1 true KR102137033B1 (en) 2020-07-23

Family

ID=70733517

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180122852A KR102137033B1 (en) 2018-10-15 2018-10-15 Method of robot's cooperation based on resource distribution and robot with cooperating each other

Country Status (1)

Country Link
KR (1) KR102137033B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114384865A (en) * 2020-10-19 2022-04-22 北京极智嘉科技股份有限公司 Service transfer system and method
KR102636467B1 (en) * 2021-11-30 2024-02-14 네이버랩스 주식회사 Robot-friendly building, method and system for collaboration using multiple robots
CN114237251A (en) * 2021-12-17 2022-03-25 北京云迹科技股份有限公司 Relay leading method and device for target site, electronic equipment and storage medium
CN115220451A (en) * 2022-07-18 2022-10-21 杭州海康机器人股份有限公司 Scheduling control method and device and electronic equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005262378A (en) * 2004-03-18 2005-09-29 Oki Electric Ind Co Ltd Autonomous robot and its control method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10022867B2 (en) * 2014-11-11 2018-07-17 X Development Llc Dynamically maintaining a map of a fleet of robotic devices in an environment to facilitate robotic action
KR102677180B1 (en) * 2016-10-11 2024-06-20 엘지전자 주식회사 Assistant robot for airport and method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005262378A (en) * 2004-03-18 2005-09-29 Oki Electric Ind Co Ltd Autonomous robot and its control method

Also Published As

Publication number Publication date
KR20200046148A (en) 2020-05-07

Similar Documents

Publication Publication Date Title
KR102137033B1 (en) Method of robot&#39;s cooperation based on resource distribution and robot with cooperating each other
KR102549978B1 (en) Airport robot, and airport robot system including same
KR102391914B1 (en) Method for operating moving robot
US11341752B2 (en) Vehicle video system
US11554487B2 (en) Robot navigating through waypoints based on obstacle avoidance and method of robot&#39;s navigation
KR102175298B1 (en) Method for operating moving robot
EP3400705B1 (en) Active speaker location detection
US9761139B2 (en) Location based parking management system
US11260533B2 (en) Robot and robot system comprising same
US11697211B2 (en) Mobile robot operation method and mobile robot
US9838995B2 (en) System and method for small cell based augmented reality
CN108289584A (en) Floor cleaning system and method for cleaning ground
JP2018147359A (en) Service providing system and request reception robot
KR102063150B1 (en) Method of performing interpersonal behavior by identifying a person and robot implementing thereof
KR20210150624A (en) A robot that creates a map based on multiple sensors and artificial intelligence and drives using the map
KR102599784B1 (en) Airport robot
KR20180040907A (en) Airport robot
JP2018125816A (en) Video display system
KR102063149B1 (en) Method of exchanging standby position based on cooperation and robot implementing thereof
JP2018169787A (en) Autonomous mobility system and control method of autonomous mobility
TWI750821B (en) Navigation method, system, equipment and medium based on optical communication device
KR20180038884A (en) Airport robot, and method for operating server connected thereto
KR102040218B1 (en) Moving robot capable of recognizing waiting line and method for controlling the moving robot
KR20180075843A (en) Device for providing route guide using augmented reality and method using the same
JP2022101924A (en) Moving body queue management system and management method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right