KR102203015B1 - Operation device for plurality of robots and operation method thereof - Google Patents

Operation device for plurality of robots and operation method thereof Download PDF

Info

Publication number
KR102203015B1
KR102203015B1 KR1020200089690A KR20200089690A KR102203015B1 KR 102203015 B1 KR102203015 B1 KR 102203015B1 KR 1020200089690 A KR1020200089690 A KR 1020200089690A KR 20200089690 A KR20200089690 A KR 20200089690A KR 102203015 B1 KR102203015 B1 KR 102203015B1
Authority
KR
South Korea
Prior art keywords
mission
information
robots
target
task
Prior art date
Application number
KR1020200089690A
Other languages
Korean (ko)
Inventor
성영화
윤석민
배정호
김용덕
김성호
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020200089690A priority Critical patent/KR102203015B1/en
Application granted granted Critical
Publication of KR102203015B1 publication Critical patent/KR102203015B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)

Abstract

Provided are an operation device for a plurality of robots and an operation method thereof, wherein the operation device for a plurality of robots includes: a communication part communicating with at least one of the plurality of robots and communicating with the other operation device for the plurality of robots; and a control part connected to the communication part. Therefore, the operation device for a plurality of robots can have higher expandability.

Description

복수의 로봇들을 위한 운용 디바이스 및 그의 동작 방법{OPERATION DEVICE FOR PLURALITY OF ROBOTS AND OPERATION METHOD THEREOF}Operation device for a plurality of robots and its operation method {OPERATION DEVICE FOR PLURALITY OF ROBOTS AND OPERATION METHOD THEREOF}

본 개시는 복수의 로봇들을 위한 운용 디바이스 및 그의 동작 방법에 관한 것이다.The present disclosure relates to an operating device for a plurality of robots and a method of operating the same.

최근 군집(swarm) 드론 또는 로봇을 이용한 전술이 미래 전장의 양상을 크게 변화시킬 기술로 많은 주목을 받고 있다. 통상적으로 무기체계는 장기간의 개발 주기를 가지고 단일 무기의 성능을 최대화하도록 개발되어 왔다. 한편, 고성능을 달성하기 위한 긴 개발 주기의 사업들은 막대한 비용지출의 문제와 개발완료 후 등장한 와해적 기술(disruptive technology)로 인해 기존 기술이 손쉽게 파훼되는 위험이 존재한다.Recently, tactics using swarm drones or robots are attracting much attention as a technology that will significantly change the aspect of the future battlefield. Typically, weapon systems have been developed to maximize the performance of a single weapon with a long development cycle. On the other hand, projects with a long development cycle to achieve high performance have a risk that the existing technology is easily destroyed due to the problem of enormous cost expenditure and disruptive technology that emerged after completion of development.

이러한 군집 무기체계 개발의 선두주자는 미국으로 LOCUST(Low-Cost UAV Swarming Technology), CODE(Collaborative Operations in Denied Environment), CICADA(Close-in Covert Autonomous Disposable Aircraft), AMAS(Autonomous Mobility Applique System), 및 AAV(Autonomous Amphibious Vehicles) 등과 같이 지/해/공 모든 영역에서 사업이 추진 중이다. 이들의 기술 동향을 살펴보면 중앙통제소에서 모든 개체를 통제하고 감독하는 체계가 아니라 각 개체가 자율적으로 판단, 계획, 수행하는 비중앙집중식(decentralized)으로 구성되며 자율성(autonomy)과 지능(intelligence)을 높이려는 시도가 계속되고 있다. 이러한 구조를 기반으로 자가조직화(self-organization)라 불리는 군집의 고유 특성이 발현된다. 즉, 일일이 운용자(operator)가 지시하지 않아도 각 자율 무인체계는 적응적으로 환경에 맞춰 임무를 수행하게 된다. 이는 작전 성공률을 높일 뿐만 아니라 임무수행의 강건성을 증대시키게 된다.Leading the way in the development of such a military weapon system is the US, Low-Cost UAV Swarming Technology (LOCUST), Collaborative Operations in Denied Environment (CODE), Close-in Covert Autonomous Disposable Aircraft (CICADA), Autonomous Mobility Applique System (AMAS), Projects are being promoted in all areas of the land/sea/air, such as AAV (Autonomous Amphibious Vehicles). Looking at their technology trends, it is not a system in which all entities are controlled and supervised by a central control station, but is composed of a decentralized system in which each entity autonomously judges, plans, and performs, enhancing autonomy and intelligence. Attempts to try are continuing. Based on this structure, a unique characteristic of a cluster called self-organization is expressed. In other words, each autonomous unmanned system performs its mission adaptively in accordance with the environment, even if the operator does not instruct it. This not only increases the operational success rate, but also increases the robustness of the mission.

한편, 미국 국방고등연구계획국(DARPA: Defense Advanced Research Projects Agency)은 모자이크전(Mosaic Warfare)이라는 개념을 제시하였다. 이는 적의 위협에 의해 전력의 일부가 소실되더라도 각 군집 객체가 신속하게 결합/재구성함으로써 전투임무 수행이 가능하게 하는 것이다. 이러한 분산화되고, 초연결된 상태의 군집 무기체계를 운용하기 위해 기존과는 다른 군집 운용 제어 구조가 요구된다.Meanwhile, the US Defense Advanced Research Projects Agency (DARPA) proposed the concept of Mosaic Warfare. This makes it possible to perform combat missions by quickly combining/reorganizing each cluster object even if part of its power is lost due to enemy threats. In order to operate such a decentralized, hyper-connected swarm weapon system, a swarm operation control structure different from the existing one is required.

개시된 실시 예들은 운용 디바이스 및 그의 동작 방법을 개시하고자 한다. 본 실시 예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시 예들로부터 또 다른 기술적 과제들이 유추될 수 있다.The disclosed embodiments are intended to disclose an operating device and a method of operating the same. The technical problem to be achieved by the present embodiment is not limited to the technical problems as described above, and other technical problems may be inferred from the following embodiments.

제1 실시 예에 따라, 목표 임무를 위해 서로 협력 가능한 복수의 로봇들을 위한 운용 디바이스(operation device)로서, 복수의 로봇들 중 적어도 하나와의 통신이 가능하고, 복수의 로봇들을 위한 다른 운용 디바이스와의 통신이 가능한 통신부; 및 통신부와 연결된 제어부를 포함하고, 제어부는, 통신부를 통해 상기 다른 운용 디바이스로부터 임무 관련 정보를 획득하고, 임무 관련 정보에 기초하여 목표 임무를 확인하고, 통신부를 통해 상기 목표 임무에 관한 정보를 복수의 로봇들 중 적어도 하나로 전송할 수 있다.According to the first embodiment, as an operation device for a plurality of robots that can cooperate with each other for a target task, communication with at least one of the plurality of robots is possible, and other operation devices for the plurality of robots and A communication unit capable of communication; And a control unit connected to the communication unit, wherein the control unit acquires mission-related information from the other operating device through the communication unit, confirms a target mission based on the mission-related information, and receives a plurality of information on the target mission through the communication unit. It can be transmitted to at least one of the robots.

제2 실시예에 따라, 목표 임무를 위해 서로 협력 가능한 복수의 로봇들을 위한 운용 디바이스(operation device)의 동작 방법으로서, 다른 운용 디바이스로부터 임무 관련 정보를 획득하는 단계; 임무 관련 정보에 기초하여 목표 임무를 확인하는 단계; 및 목표 임무에 관한 정보를 상기 복수의 로봇들 중 적어도 하나로 전송하는 단계를 포함할 수 있다.According to a second embodiment, there is provided a method of operating an operation device for a plurality of robots capable of cooperating with each other for a target task, the method comprising: acquiring task-related information from another operating device; Identifying a target mission based on the mission-related information; And transmitting information on the target mission to at least one of the plurality of robots.

제3 실시예에 따라, 컴퓨터로 읽을 수 있는 기록매체는 상술한 동작 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 비일시적 기록매체를 포함한다.According to the third embodiment, a computer-readable recording medium includes a non-transitory recording medium on which a program for executing the above-described operation method in a computer is recorded.

기타 실시 예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Details of other embodiments are included in the detailed description and drawings.

본 개시에 따르면, 다수의 운용 디바이스가 로봇 군집을 운용하는 개념을 포함한 제어 구조를 제시한다. 이러한 제어 구조를 통해, 다수의 운용자가 대규모 무인 로봇 군집 체계를 운용할 수 있으며, 기존의 제시된 군집 운용 구조에 비해 보다 발전된 형태로 활용될 수 있을 것으로 보인다.According to the present disclosure, a control structure including a concept in which a plurality of operating devices operate a robot cluster is proposed. Through this control structure, a large number of operators can operate a large-scale unmanned robot cluster system, and it is expected that it can be utilized in a more advanced form compared to the existing proposed cluster operation structure.

또한, 본 개시에 따른 운용 디바이스 및 로봇의 모듈들 각각은 신기술이 개발되면 신속히 접목하여 쓸 수 있는 플러그 앤 플레이(plug-and-play)로 구현될 수 있으므로, 신기술 개발에 따라 더욱 높은 확장성을 갖는 운용 디바이스 및 로봇을 제공한다. In addition, each of the modules of the operating device and the robot according to the present disclosure can be implemented as plug-and-play that can be quickly grafted and used when a new technology is developed. It provides an operating device and a robot having.

발명의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당해 기술 분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 일 실시예에 따른 운용 시스템을 나타낸다.
도 2는 운용 시스템의 계층적인 제어 구조의 실시예를 나타낸다.
도 3은 운용 시스템의 구체적인 실시예를 나타낸다.
도 4는 운용 시스템이 동작하는 제1실시예를 나타낸다.
도 5는 운용 시스템의 동작 시나리오에 관한 제1실시예를 나타낸다.
도 6은 운용 시스템이 동작하는 제2실시예를 나타낸다.
도 7은 운용 시스템의 동작 시나리오에 관한 제2실시예를 나타낸다.
도 8은 운용 시스템이 동작하는 제3실시예를 나타낸다.
도 9는 할당 및 계획 모듈의 실시예를 나타낸다.
도 10은 운용 시스템의 동작 시나리오에 관한 제3실시예를 나타낸다.
도 11은 운용 시스템이 동작하는 제4실시예를 나타낸다.
도 12는 운용 시스템의 동작 시나리오에 관한 제4실시예를 나타낸다.
도 13은 일 실시예에 따른 운용 디바이스를 나타낸다.
도 14는 일 실시예에 따른 운용 디바이스의 동작 방법을 나타낸다.
1 shows an operating system according to an embodiment.
2 shows an embodiment of a hierarchical control structure of an operating system.
3 shows a specific embodiment of an operating system.
4 shows a first embodiment in which the operating system operates.
5 shows a first embodiment of an operation scenario of an operating system.
6 shows a second embodiment in which the operating system operates.
7 shows a second embodiment of an operation scenario of an operating system.
8 shows a third embodiment in which the operating system operates.
9 shows an embodiment of an allocation and planning module.
10 shows a third embodiment of an operation scenario of an operating system.
11 shows a fourth embodiment in which the operating system operates.
12 shows a fourth embodiment of an operation scenario of an operating system.
13 shows an operating device according to an embodiment.
14 illustrates a method of operating an operating device according to an embodiment.

실시 예들에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments have selected general terms that are currently widely used as possible while considering functions in the present disclosure, but this may vary according to the intention or precedent of a technician working in the art, the emergence of new technologies, and the like. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the corresponding description. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the present disclosure, not the name of a simple term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "..부", "..모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a part of the specification is said to "include" a certain component, it means that other components may be further included rather than excluding other components unless otherwise stated. In addition, terms such as ".. unit" and ".. module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software. have.

명세서 전체에서 기재된 "a, b, 및 c 중 적어도 하나"의 표현은, 'a 단독', 'b 단독', 'c 단독', 'a 및 b', 'a 및 c', 'b 및 c', 또는 'a,b,c 모두'를 포괄할 수 있다.The expression of "at least one of a, b, and c" described throughout the specification is'a alone','b alone','c alone','a and b','a and c','b and c' ', or'a, b, c all' may be included.

아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, exemplary embodiments of the present disclosure will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the exemplary embodiments. However, the present disclosure may be implemented in various different forms and is not limited to the exemplary embodiments described herein.

이하에서는 도면을 참조하여 본 개시의 실시 예들을 상세히 설명한다.Hereinafter, exemplary embodiments of the present disclosure will be described in detail with reference to the drawings.

도 1은 일 실시예에 따른 운용 시스템을 나타낸다.1 shows an operating system according to an embodiment.

운용 시스템(10)은 복수의 운용 디바이스들(110,120) 및 복수의 로봇들(210,220)을 포함할 수 있다. 도 1에서 편의상 복수의 운용 디바이스들(110,120)이 2개의 운용 디바이스들로 도시되었지만, 복수의 운용 디바이스들(110,120)이 3개 이상의 운용 디바이스들로 구성될 수 있고, 복수의 로봇들(210,220)이 2개의 로봇들로 도시되었지만, 복수의 로봇들(210,220)이 3개 이상의 로봇들로 구성될 수 있다.The operating system 10 may include a plurality of operating devices 110 and 120 and a plurality of robots 210 and 220. In FIG. 1, for convenience, a plurality of operation devices 110 and 120 are illustrated as two operation devices, but the plurality of operation devices 110 and 120 may be composed of three or more operation devices, and a plurality of robots 210 and 220 Although shown as these two robots, a plurality of robots 210 and 220 may be composed of three or more robots.

복수의 운용 디바이스들(110,120) 각각은 목표 임무를 위해 서로 협력 가능한 복수의 로봇들(210,220)을 위한 운용 디바이스(operation device)일 수 있다.Each of the plurality of operation devices 110 and 120 may be an operation device for a plurality of robots 210 and 220 capable of cooperating with each other for a target mission.

복수의 운용 디바이스들(110,120) 각각은 복수의 로봇들(210,220) 중 적어도 하나와 통신할 수 있고, 복수의 운용 디바이스들(110,120) 간의 통신이 가능할 수 있다.Each of the plurality of operating devices 110 and 120 may communicate with at least one of the plurality of robots 210 and 220, and communication between the plurality of operating devices 110 and 120 may be possible.

제1 운용 디바이스(110)는 제2 운용 디바이스(120)로부터 임무 관련 정보를 획득할 수 있고, 임무 관련 정보에 기초하여 목표 임무를 확인할 수 있고, 목표 임무에 관한 정보를 복수의 로봇들(210,220) 중 적어도 하나에 전송할 수 있다. 임무 관련 정보는, 목표 임무에 관한 정보 및 운용 권한에 관한 정보 등을 포함할 수 있다. The first operation device 110 may obtain mission-related information from the second operation device 120, confirm a target mission based on the mission-related information, and transmit information on the target mission to a plurality of robots 210,220. ) Can be transmitted to at least one of. The mission-related information may include information on a target mission and information on operational authority.

제1 운용 디바이스(110)는 운용 권한에 관한 정보를 제2 운용 디바이스(120)로부터 획득할 수 있다. 구체적으로, 제1 운용 디바이스(110)는 복수의 로봇들(210,220) 중 제1로봇(210)을 운용할 수 있는 권한을 제2 운용 디바이스(120)로부터 위임 받을 수 있다. 예를 들어, 제2 운용 디바이스(120)는 제1로봇(210)과의 통신이 불안정한 경우, 제1로봇(210)을 운용할 수 있는 권한을 제1 운용 디바이스(110)에게 전송할 수 있다. 따라서, 제1 운용 디바이스(110)는 운용 권한에 관한 정보에 따라, 제1로봇(210)에게 목표 임무에 관한 정보를 전송할 수 있다.The first operating device 110 may obtain information on the operating authority from the second operating device 120. Specifically, the first operating device 110 may be delegated from the second operating device 120 the authority to operate the first robot 210 among the plurality of robots 210 and 220. For example, when communication with the first robot 210 is unstable, the second operating device 120 may transmit the authority to operate the first robot 210 to the first operating device 110. Accordingly, the first operating device 110 may transmit information on the target task to the first robot 210 according to the information on the operating authority.

제1 운용 디바이스(110)는 제2 운용 디바이스(120)와 임무 관련 정보를 공유하여 제1 목표 임무를 결정할 수 있고, 제1 목표 임무에 관한 정보를 복수의 로봇들(210,220) 중 적어도 하나에 전송할 수 있다. 또한, 제2 운용 디바이스(110)는 제1 운용 디바이스(110)와 임무 관련 정보를 공유하여 제2 목표 임무를 결정할 수 있고, 제2 목표 임무에 관한 정보를 복수의 로봇들(210,220) 중 적어도 하나에 전송할 수 있다. 제1 운용 디바이스(110)가 갖는 임무 관련 정보와 제2 운용 디바이스(120)가 갖는 임무 관련 정보가 비대칭적일 수 있으므로, 제1 운용 디바이스(110) 및 제2 운용 디바이스(120)는 서로 임무 관련 정보를 공유하여, 목표 임무를 결정할 수 있다. 예를 들어, 제1 운용 디바이스(110)와 제2 운용 디바이스(120)는 복수의 로봇들(210,220)에 관한 병력 배치에 관한 협의를 할 수 있는바, 제1 운용 디바이스(110)는 제1 목표 임무에 따라 복수의 로봇들(210,220) 중 일부의 병력 배치를 제어할 수 있고, 제2 운용 디바이스(120)는 제2 목표 임무에 따라 복수의 로봇들(210,220) 중 다른 일부의 병력 배치를 제어할 수 있다. The first operating device 110 may share mission-related information with the second operating device 120 to determine a first target task, and transmit information on the first target task to at least one of the plurality of robots 210 and 220. Can be transmitted. In addition, the second operating device 110 may share mission-related information with the first operating device 110 to determine a second target task, and transmit information on the second target task to at least one of the plurality of robots 210 and 220. Can be transferred to one. Since the mission-related information of the first operating device 110 and the mission-related information of the second operating device 120 may be asymmetric, the first operating device 110 and the second operating device 120 are related to each other. By sharing information, you can determine your target mission. For example, the first operation device 110 and the second operation device 120 can negotiate a force arrangement regarding a plurality of robots 210, 220, and the first operation device 110 It is possible to control the deployment of some of the plurality of robots 210 and 220 according to the target mission, and the second operation device 120 may arrange the troops of some of the plurality of robots 210 and 220 according to the second target mission. Can be controlled.

일 실시예에 따라, 제1 운용 디바이스(110)는 복수의 로봇들(210,220) 중 제1로봇(210)을 운용 디바이스로 인식할 수 있고, 제1로봇(210)에게 임무 관련 정보를 전송할 수 있다. 이어서, 제1로봇(210)은 운용 디바이스로서 임무 관련 정보에 기초하여 목표 임무를 확인할 수 있고, 목표 임무에 관한 정보를 다른 적어도 하나의 로봇에게 전송할 수 있다. 다른 실시예에 따라, 제1 운용 디바이스(110)는 복수의 로봇들(210,220)에게 임무 관련 정보를 전송할 수 있고, 복수의 로봇들(210,220)은 서로 협의 하에 제1로봇(210)을 운용 디바이스로 결정할 수 있다. 예를 들어, 복수의 로봇들(210,220)은 주변 환경 정보를 가장 많이 포함하는 제1로봇(210)을 운용 디바이스로 결정할 수 있다. 이어서, 제1로봇(210)은 운용 디바이스로서 임무 관련 정보에 기초하여 목표 임무를 확인할 수 있고, 목표 임무에 관한 정보를 다른 적어도 하나의 로봇에게 전송할 수 있다.According to an embodiment, the first operating device 110 may recognize the first robot 210 of the plurality of robots 210 and 220 as an operating device, and transmit mission-related information to the first robot 210. have. Subsequently, as an operating device, the first robot 210 may check the target task based on the task-related information, and transmit information on the target task to at least one other robot. According to another embodiment, the first operation device 110 may transmit mission-related information to the plurality of robots 210 and 220, and the plurality of robots 210 and 220 operate the first robot 210 under mutual agreement. Can be determined by For example, the plurality of robots 210 and 220 may determine the first robot 210 including the most information on the surrounding environment as the operating device. Subsequently, as an operating device, the first robot 210 may check the target task based on the task-related information, and transmit information on the target task to at least one other robot.

복수의 운용 디바이스들(110,120) 및 복수의 로봇들(210,220) 중 적어도 하나는 인공지능 기반의 디바이스 또는 로봇일 수 있다. 예를 들어, 운용 디바이스(110)는 운용자로부터의 명령을 받을 수 있는 디바이스일 수 있고, 운용 디바이스(120)는 인공지능 기반의 디바이스일 수 있다. 예를 들어, 복수의 로봇들(210,220) 중 적어도 하나는 드론일 수 있다.At least one of the plurality of operating devices 110 and 120 and the plurality of robots 210 and 220 may be an artificial intelligence-based device or a robot. For example, the operating device 110 may be a device capable of receiving a command from an operator, and the operating device 120 may be an artificial intelligence-based device. For example, at least one of the plurality of robots 210 and 220 may be a drone.

제1 운용 디바이스(110)는 제1로봇(210)으로부터 특정 상황에 관한 정보를 획득하고, 특정 상황에 관한 정보에 기초하여, 최적화 및 심층강화학습 중 적어도 하나의 방법을 선택하고, 선택된 방법에 따라 목표 임무를 확인할 수 있다. 구체적으로, 제1 운용 디바이스(110)는 특정 상황에 관한 해결에 있어서 계산 복잡도가 소정 기준 이상인 경우, 심층강화학습을 선택하고, 계산 복잡도가 소정 기준 미만인 경우, 최적화 방법을 선택할 수 있다. 예를 들어, 제1 운용 디바이스(110)는 특정 상황에 관한 해결에 있어 수식화가 가능한 경우 최적화 문제 해결 방법으로 목표 임무를 설정할 수 있고, 특정 상황에 관한 해결에 있어 수식화가 불가한 경우 심층강화학습된 알고리즘을 이용하여 목표 임무를 설정할 수 있다. 일 예에 따라, 제1 운용 디바이스(110)는 방해물 출현으로 인한 제1로봇(210)의 정찰 동선을 수정할 필요가 있는 경우, 최적화 문제 해결 방법으로 목표 임무를 수정하여 수정된 목표 임무를 제1로봇(210)에게 전송할 수 있다. 다른 예에 따라, 제1 운용 디바이스(110)는 예상치 못한 적군 로봇의 출현으로 인한 대응 방안을 마련하기 위해 심층강화학습된 알고리즘을 이용하여 목표 임무를 설정할 수 있고, 설정된 목표 임무를 제1로봇(210)에게 전송할 수 있다.The first operating device 110 acquires information about a specific situation from the first robot 210, selects at least one of optimization and deep reinforcement learning based on the information about the specific situation, and selects the selected method. You can check the target mission accordingly. Specifically, in solving a specific situation, the first operation device 110 may select deep reinforcement learning when the computational complexity is greater than or equal to a predetermined criterion, and select an optimization method when the computational complexity is less than a predetermined criterion. For example, the first operation device 110 may set a target task as an optimization problem solving method when formulating is possible in solving a specific situation, and deep reinforcement learning when formulating is impossible in solving a specific situation The target mission can be set using the algorithm. According to an example, when there is a need to modify the reconnaissance movement line of the first robot 210 due to the appearance of an obstacle, the first operation device 110 modifies the target mission as an optimization problem solving method to perform the modified target mission first. It can be transmitted to the robot 210. According to another example, the first operation device 110 may set a target mission using an algorithm that has been in-depth reinforcement learning in order to prepare a response plan due to the unexpected appearance of an enemy robot, and the set target mission 210).

따라서, 운용 시스템(10)을 통해 다수의 운용 디바이스가 로봇 군집을 운용하는 개념(Many-to-Many)을 포함한 제어 구조를 구현할 수 있으므로, 다수의 운용자가 다양한 형태로(인간-인간, 인간-AI, AI-AI 등) 대규모 무인 로봇 군집 체계를 운용할 수 있다. Therefore, through the operation system 10, a control structure including a concept (Many-to-Many) in which a plurality of operation devices operate a robot cluster can be implemented, so that a plurality of operators can be used in various forms (human-human, human- AI, AI-AI, etc.) can operate a large-scale unmanned robot cluster system.

도 2는 운용 시스템의 계층적인 제어 구조의 실시예를 나타낸다.2 shows an embodiment of a hierarchical control structure of an operating system.

도 2를 참조하면, 복수의 운용 디바이스들(110,120)은 임무(Mission)를 확인할 수 있으며, 임무에 관한 정보를 복수의 로봇들(210,220) 중 적어도 하나에 전송할 수 있다. 복수의 로봇들(210,220) 중 적어도 하나는 임무에 관한 정보에 기초하여 과업(Goal), 작업(Task), 및 행위(Behavior)를 순차적으로 선정할 수 있다. 또한, 복수의 로봇들(210,220) 중 행위(Behavior)에 따른 행동(Action)을 수행할 수 있다.Referring to FIG. 2, a plurality of operating devices 110 and 120 may check a mission and transmit information on a mission to at least one of the plurality of robots 210 and 220. At least one of the plurality of robots 210 and 220 may sequentially select a task, a task, and a behavior based on the information on the task. In addition, among the plurality of robots 210 and 220, an action according to a behavior may be performed.

도 3은 운용 시스템의 구체적인 실시예를 나타낸다. 3 shows a specific embodiment of an operating system.

운용 시스템(30)은 운용 디바이스(300) 및 로봇(350)을 포함할 수 있다. 운용 시스템(10)은 도 1의 운용 시스템(10)과 대응될 수 있는 바, 중복되는 내용에 대한 설명은 생략한다.The operating system 30 may include an operating device 300 and a robot 350. Since the operating system 10 may correspond to the operating system 10 of FIG. 1, a description of overlapping contents will be omitted.

운용 디바이스(300)는 통신 모듈(310) 및 전역 상황 인식 모듈(global situational awareness module)(320)을 포함할 수 있다. The operating device 300 may include a communication module 310 and a global situational awareness module 320.

통신 모듈(310)은 제1 통신 모듈(312), 제2 통신 모듈(314), 및 보안 모듈(316)을 포함할 수 있다. The communication module 310 may include a first communication module 312, a second communication module 314, and a security module 316.

제1 통신 모듈(312)은 운용 디바이스 간의 통신을 위한 모듈일 수 있다. 다시 말해, 복수의 운용 디바이스들 간의 통신은 복수의 운용 디바이스들 각각의 제1 통신 모듈을 통해 수행될 수 있다. 제2 통신 모듈(314)은 로봇(350)과의 통신을 위한 모듈일 수 있다. 다시 말해, 복수의 운용 디바이스들과 복수의 로봇들 간의 통신은 제2 통신 모듈을 통해 수행될 수 있다. 일 실시예에 따라, 도 2에서는 제1 통신 모듈(312)과 제2 통신 모듈(314)이 서로 구분되게 도시되었지만, 다른 실시예에 따라 제1 통신 모듈(312)과 제2 통신 모듈(314)은 일체형의 통신 모듈일 수 있다. The first communication module 312 may be a module for communication between operating devices. In other words, communication between the plurality of operating devices may be performed through the first communication module of each of the plurality of operating devices. The second communication module 314 may be a module for communication with the robot 350. In other words, communication between the plurality of operating devices and the plurality of robots may be performed through the second communication module. According to an embodiment, in FIG. 2, the first communication module 312 and the second communication module 314 are shown to be separated from each other, but according to another embodiment, the first communication module 312 and the second communication module 314 ) May be an integrated communication module.

보안 모듈(316)은 제1 통신 모듈(312) 및 제2 통신 모듈(314) 각각으로부터 수신된 데이터가 정상적인지 여부를 판단하는 보안(security) 기능을 수행할 수 있다. 따라서, 운용 디바이스(300)는 보안 모듈(316)을 통해 통신에서 신뢰도 높은 보안을 확보할 수 있다.The security module 316 may perform a security function of determining whether data received from each of the first communication module 312 and the second communication module 314 is normal. Accordingly, the operating device 300 can secure high reliability security in communication through the security module 316.

전역 상황 인식 모듈(320)은 임무 관련 전반적인 상황을 파악하기 위한 기능을 수행할 수 있다. 예를 들어, 전역 상황 인식 모듈(320)은 관찰(Observation)을 통해 수신 받은 임무 상태 데이터를 분석할 수 있고, 모니터링(Monitoring)을 통해 글로벌 맵(Global map)과 같이 임무 수행 상태를 표시할 수 있다.The global context recognition module 320 may perform a function for grasping the overall situation related to the mission. For example, the global context recognition module 320 can analyze the mission status data received through observation, and display the mission performance status like a global map through monitoring. have.

로봇(350)은 통신 모듈(360), 지역 상황 인식 모듈(370), 과업 레이어(380), 작업 레이어(390), 및 제어 레이어(395)를 포함할 수 있다.The robot 350 may include a communication module 360, a local context recognition module 370, a task layer 380, a work layer 390, and a control layer 395.

통신 모듈(360)은 제1 통신 모듈(362), 제2 통신 모듈(364), 및 보안 모듈(366)을 포함할 수 있다. 제1 통신 모듈(362)은 운용 디바이스(300)와의 통신을 위한 모듈일 수 있다. 제2 통신 모듈(364)은 다른 로봇과의 통신을 위한 모듈일 수 있다. 보안 모듈(366)은 제1 통신 모듈(362) 및 제2 통신 모듈(364) 각각으로부터 수신된 데이터가 정상적인지 여부를 판단하는 보안(security) 기능을 수행할 수 있다.The communication module 360 may include a first communication module 362, a second communication module 364, and a security module 366. The first communication module 362 may be a module for communication with the operating device 300. The second communication module 364 may be a module for communication with another robot. The security module 366 may perform a security function of determining whether data received from each of the first communication module 362 and the second communication module 364 is normal.

지역 상황 인식 모듈(370)은 주변 상황을 지엽적으로 파악하기 위한 기능을 수행할 수 있다. 예를 들어, 전장에서 임무를 수행 중인 로봇은 개별 정보(local information)를 획득할 수 있다. 예를 들어, 지역 상황 인식 모듈(370)은 관찰(Observation)을 통해 수신 받은 임무 상태 데이터를 분석할 수 있고, 로컬 맵(local map)과 같이 상황 인식을 위한 지역적 지도를 생성할 수 있다.The local situation recognition module 370 may perform a function of localizing the surrounding situation. For example, a robot performing a mission on the battlefield can acquire local information. For example, the local context recognition module 370 can analyze the mission status data received through observation and generate a local map for context recognition, such as a local map.

로봇(350)은 운용 디바이스(300)로부터 전송 받은 임무에 관한 정보에 따라 임무를 수행해야 하고, 과업을 설정하고, 과업에 따른 작업 및 행위를 선택하고, 선택된 작업을 수행하기 위한 행위 기반의 제어를 순차적으로 수행할 수 있다. 이러한 과정이 로봇(350) 내 과업 레이어(380), 작업 레이어(390), 및 제어 레이어(395)로 모듈화될 수 있다. 예를 들어, 과업 레이어(380), 작업 레이어(390), 및 제어 레이어(395) 각각은 로봇(350) 내 각 동작을 수행하는 모듈일 수 있다.The robot 350 must perform a task according to the information on the task transmitted from the operating device 300, set the task, select tasks and actions according to the task, and action-based control to perform the selected task Can be performed sequentially. This process may be modularized into a task layer 380, a work layer 390, and a control layer 395 in the robot 350. For example, each of the task layer 380, the work layer 390, and the control layer 395 may be a module that performs each operation in the robot 350.

과업 레이어(380)는 과업 데이터베이스로부터 과업을 선정할 수 있고, 새로운 과업이 판별되었을 때 새로운 과업을 데이터베이스화하여, 이를 추후 임무에 사용할 수 있다. 또한, 과업 레이어(380)는 과업을 수행하기 위한 전역 경로점(즉, global path)을 계산할 수 있다. The task layer 380 may select a task from the task database, convert the new task into a database when a new task is determined, and use it for a future task. In addition, the task layer 380 may calculate a global path point (ie, a global path) for performing the task.

작업 레이어(390)는 행위 데이터베이스로부터 경로점 추종 및 충돌회피 등의 행위를 선정할 수 있고, 새로운 작업이 식별되었을 때 이를 데이터베이스화하여 추후 임무에 사용할 수 있다. 또한, 작업 레이어(390)는 행위 선별을 통해 계산된 실제 수행해야할 지역 경로점(즉, local path)을 계산할 수 있다.The task layer 390 may select actions such as path point tracking and collision avoidance from the action database, and when a new task is identified, it can be converted into a database and used for future tasks. In addition, the work layer 390 may calculate a local path point (ie, a local path) to be actually performed calculated through action selection.

제어 레이어(395)는 계획된 경로점(waypoint)으로부터의 제어를 위한 GNC(Guidance/Navigation/Control)를 수행할 수 있다. 또한, 제어 레이어(395)는 액츄에이터(actuator) 및 센서(sensor)를 통해 계산된 제어 입력으로부터 로봇(350)의 행동(action)을 제어하고, 센서 데이터를 획득할 수 있다.The control layer 395 may perform Guidance/Navigation/Control (GNC) for control from a planned route point. Also, the control layer 395 may control an action of the robot 350 from a control input calculated through an actuator and a sensor, and obtain sensor data.

운용 디바이스(300) 및 로봇(350)의 모듈들 각각은 신기술이 개발되면 신속히 접목하여 쓸 수 있는 플러그 앤 플레이(plug-and-play)로 구현될 수 있다. Each of the modules of the operating device 300 and the robot 350 may be implemented as plug-and-play that can be quickly grafted and used when a new technology is developed.

도 4는 운용 시스템이 동작하는 제1실시예를 나타낸다.4 shows a first embodiment in which the operating system operates.

운용 디바이스(300)는 임무 상황을 접수할 수 있다. 일 실시예에 따라, 운용 디바이스(300)는 운용자로부터 임무 상황을 접수할 수 있고, 다른 실시예에 따라, 운용 디바이스(300)는 다른 운용 디바이스로부터 임무 상황을 전달받을 수 있다. 운용 디바이스(300)는 과업 및 작업 DB(402)에 관한 정보를 전달받을 수 있다. 구체적으로, 운용 디바이스(300)는 다른 운용 디바이스로부터 임무 상황에 관한 정보와 함께 과업 및 작업 DB(402)에 관한 정보를 전달받을 수 있다.The operating device 300 may receive a mission situation. According to an embodiment, the operating device 300 may receive a mission situation from an operator, and according to another embodiment, the operating device 300 may receive a mission situation from another operating device. The operating device 300 may receive information about the task and task DB 402. Specifically, the operating device 300 may receive information on the task and work DB 402 together with information on the mission situation from another operating device.

운용 디바이스(300)는 임무 중에 핸드오버(hand-over)와 같은 개념으로 로봇의 운용 권한을 전달 받을 수 있다.The operation device 300 may receive the operation authority of the robot through a concept such as hand-over during a mission.

도 5는 운용 시스템의 동작 시나리오에 관한 제1실시예를 나타낸다.5 shows a first embodiment of an operation scenario of an operating system.

운용 디바이스(300)는 로봇들인 방어 드론 군집(510)을 이용하여 공격 드론 군집(520)의 공격을 막는 임무에 관한 정보를 전달 받을 수 있다. 도 5에서는 설명의 편의상 10개 로봇의 방어 드론 군집(510) 및 10개 로봇의 공격 드론 군집(520)이 도시되었지만, 개수는 이에 제한되지 않는다. 도 5에서 부채꼴로 표시된 영역은 방어 드론의 탐색 영역을 나타낸다.The operating device 300 may receive information on a mission to prevent an attack of the attacking drone cluster 520 using the defense drone cluster 510 which is robots. In FIG. 5, for convenience of explanation, a defensive drone cluster 510 of 10 robots and an attack drone cluster 520 of 10 robots are illustrated, but the number is not limited thereto. In FIG. 5, an area marked with a fan shape represents a search area of a defense drone.

운용 디바이스(300)는 임무에 관한 정보를 전달 받을 때, 과업 및 작업의 데이터베이스에 관한 정보를 함께 전달 받을 수 있다. 예를 들어, 과업은 요격 및 정찰을 포함할 수 있고, 작업은 경로점 추적 및 충돌 회피를 포함할 수 있다.When receiving information about a task, the operating device 300 may receive information about a database of tasks and tasks together. For example, tasks may include intercept and reconnaissance, and tasks may include path point tracking and collision avoidance.

도 6은 운용 시스템이 동작하는 제2실시예를 나타낸다.6 shows a second embodiment in which the operating system operates.

운용 디바이스(300)는 접수 받은 임무에 관한 정보를 로봇(350)에게 전달할 때 주변 환경 정보 또한 함께 로봇(350)에게 전달할 수 있다. 주변 환경 정보는 날씨 예보에 관한 정보 및 지형 정보를 포함할 수 있다. 또한, 운용 디바이스(300)는 주변 환경 정보에 기초하여 전역 상황을 인식할 수 있고 임무 상태를 파악할 수 있다. 운용 디바이스(300)는 주변 환경 정보에 관한 정상성(security)을 검토하고 정상적인 주변 환경 정보가 로봇(350)으로 전달되도록 할 수 있다. 다수의 운용 디바이스들이, 웹에 연결되어 있지 않거나, 데이터베이스가 내장되어 있지 않더라도, 제1 통신 모듈을 통해 서로 정보를 전달할 수 있다.When the operation device 300 transmits information on the received task to the robot 350, the surrounding environment information may also be transmitted to the robot 350. The surrounding environment information may include information on weather forecasts and terrain information. In addition, the operating device 300 may recognize the global situation based on the surrounding environment information and may determine the mission state. The operating device 300 may review the security of the surrounding environment information and allow the normal surrounding environment information to be transmitted to the robot 350. Even if a plurality of operating devices are not connected to the web or do not have a built-in database, information can be transmitted to each other through the first communication module.

로봇(350)은 제1 통신 모듈(362)을 통해 임무에 관한 정보 및 주변 환경에 관한 정보를 획득할 수 있다. 또한, 로봇(350)은 제2 통신 모듈(364)를 통해 주변 로봇으로부터 상태 및 임무 정보를 획득할 수 있다. 또한, 로봇(350)은 보안 모듈(366)를 통해 획득된 정보에 대한 정상성 검토를 수행할 수 있다. 또한, 로봇(350)은 획득된 정보에 대한 정상성 검토 시, 단순히 체크섬(checksum)과 같은 기능뿐만 아니라 통신 및 무인 시스템 분야에서 개발 중인 다양한 정상성 검토 및 보안 모듈들을 실행할 수 있다. 예를 들어, 로봇(350)은 운용 디바이스(300)로부터 받은 임무 및 데이터베이스와 주변 로봇으로부터 받은 임무 및 데이터베이스가 일치하는지 여부를 확인 및 검증하여, 일치하는 경우 획득된 정보가 안전하다고 판단하여 합의(consensus)에 도달한 후 임무를 수행할 수 있다. 또한, 로봇(350)은 프로토콜 내 암호화 코드 등을 활용할 수 있다.The robot 350 may acquire information about a mission and information about a surrounding environment through the first communication module 362. In addition, the robot 350 may obtain status and mission information from a surrounding robot through the second communication module 364. In addition, the robot 350 may perform a normality review on the information acquired through the security module 366. In addition, the robot 350 may execute not only functions such as a checksum, but also various normality review and security modules being developed in the field of communication and unmanned systems when reviewing the normality of the acquired information. For example, the robot 350 checks and verifies whether the mission and database received from the operation device 300 and the mission and database received from the surrounding robot match, and if they do match, the acquired information is determined to be safe and agreed ( consensus), you can perform your mission. In addition, the robot 350 may utilize an encryption code within the protocol.

도 7은 운용 시스템의 동작 시나리오에 관한 제2실시예를 나타낸다.7 shows a second embodiment of an operation scenario of an operating system.

운용 디바이스(300)는 임무에 관한 정보 및 주변 환경 정보를 방어 드론 군집(510) 중 제1드론(712) 및 제2드론(714)에게 전송할 수 있다.The operating device 300 may transmit information on a mission and information about a surrounding environment to the first drone 712 and the second drone 714 of the defense drone cluster 510.

주변 로봇을 정의할 수 있는 기준은 다양할 수 있지만, 일 실시예에 따라 물리적 거리 및 통신 연결 여부에 따라 주변 로봇을 정의할 수 있다. 도 7에서 상정한 통신은 자신을 기준으로 양 옆의 드론과만 정보를 주고받을 수 있는 통신 연결 그래프이며, 실선으로 연결된 드론 간에만 통신이 가능하다고 설정되었다. 연결된 그래프(connected graph)는 임의의 노드에서부터 다른 이웃한 임의의 노드까지 연결이 되어 있음을 의미한다. 즉, 도 7에서 제1드론(712)과 제2드론(714)에게만 임무가 전달되더라도 이웃한 드론에게 임무를 전달하는 여러 번의 과정을 거친다면 모든 드론들이 임무를 취득할 수 있다. 예를 들어, 통신 연결 그래프를 통해 모든 드론들이 정상성이 검토를 통해 통신 여부를 확인하여 비상 상황에 대한 복귀(homing) 등과 같은 사전에 약속된 행동을 할 수 있다.Criteria for defining a surrounding robot may vary, but according to an embodiment, a surrounding robot may be defined according to a physical distance and whether or not a communication connection is made. The communication assumed in FIG. 7 is a communication connection graph in which information can only be exchanged with drones on both sides of the self, and communication is possible only between drones connected by a solid line. A connected graph means that a node is connected from an arbitrary node to another neighboring node. That is, even if the mission is transmitted only to the first drone 712 and the second drone 714 in FIG. 7, all drones can acquire the mission if the mission is transmitted to neighboring drones several times. For example, through a communication connection graph, all drones can check whether they are communicating through a normality review and take pre-promised actions, such as homing to an emergency situation.

도 8은 운용 시스템이 동작하는 제3실시예를 나타낸다.8 shows a third embodiment in which the operating system operates.

로봇(350)은 과업 데이터베이스 내에서 특정 작업을 추출하여 할당 및 계획(assignment & planner) 절차를 수행할 수 있다. 구체적으로, 과업 레이어(380)는 내장된 과업 할당 알고리즘에 의해 과업을 선정할 수 있고, 과업을 수행하기 위해 필요한 경로점을 계산하여 전역 경로(global path)를 계산할 수 있다. 이 과정에서 과업 레이어(380)는 새로운 과업이 필요하다고 식별이 되면 이에 대한 데이터베이스화를 진행하여 제1 통신 모듈(362)을 통해 운용 디바이스(300)로 데이터베이스화된 정보를 전송할 수 있다. 예를 들어, 운용 디바이스(300)가 로봇(350) 보다 하드웨어 또는 소프트웨어의 기능이 더 나을 수 있으므로, 운용 디바이스(300)는 데이터베이스화된 정보에 기초하여 더 효과적인 과업 선정 알고리즘을 적용할 수 있다. 다른 실시예로서, 과업 레이어(380)는 사전에 동기화되지 않은 과업의 발생 시 데이터베이스화를 진행할 뿐만 아니라 과업 레이어(380)가 자체적으로 발생된 과업에 대한 할당 및 계획을 수행할 수 있다. 이를 통해 좀 더 실시간으로 변화는 환경에 잘 대응할 수 있는 운용 시스템을 구축할 수 있다.The robot 350 may perform an assignment and planner procedure by extracting a specific task from the task database. Specifically, the task layer 380 may select a task using a built-in task assignment algorithm, and calculate a global path by calculating a path point required to perform the task. In this process, when it is identified that a new task is required, the task layer 380 may convert the databaseized information to the operating device 300 through the first communication module 362 by performing database conversion. For example, since the operating device 300 may have a better function of hardware or software than the robot 350, the operating device 300 may apply a more effective task selection algorithm based on database information. As another embodiment, the task layer 380 may not only perform database creation when a task that is not synchronized in advance occurs, but also the task layer 380 may perform allocation and planning for tasks that have been generated by itself. Through this, it is possible to build an operating system that can respond well to the environment that changes in real time.

도 9는 할당 및 계획 모듈의 실시예를 나타낸다.9 shows an embodiment of an allocation and planning module.

로봇(350)은 할당 및 계획 모듈(910)을 포함할 수 있다. 할당 및 계획 모듈(910)은 플러그 앤 플레이(plug and play)가 가능하므로, 새로운 알고리즘을 신속하게 접목할 수 있다. 예를 들어, 할당 및 계획 모듈(910)은 최적화 방법(Optimization), 심층강화학습(Deep Reinforcement Learning), 베이지안 강화학습(Bayesian Reinforcement Learning), 및 휴리스틱 방법(heuristic approach) 중 어느 하나를 선택할 수 있다. 예를 들어, 최적화 방법은 CBBA(Consensus Based Bundle Algorithm)을 포함할 수 있다. 예를 들어, 할당 및 계획 모듈(910)은 특정 상황에 대한 계산 복잡도를 고려하여, 최적화 방법, 심층강화학습, 베이지안 강화학습, 및 휴리스틱 방법 중 어느 하나를 적용하여 과업을 결정할 수 있다.The robot 350 may include an allocation and planning module 910. The allocation and planning module 910 is plug-and-play, so that new algorithms can be quickly applied. For example, the allocation and planning module 910 may select any one of an optimization method (Optimization), deep reinforcement learning, Bayesian reinforcement learning, and a heuristic approach. . For example, the optimization method may include a Consensus Based Bundle Algorithm (CBBA). For example, the allocation and planning module 910 may determine a task by applying any one of an optimization method, deep reinforcement learning, Bayesian reinforcement learning, and a heuristic method in consideration of computational complexity for a specific situation.

도 10은 운용 시스템의 동작 시나리오에 관한 제3실시예를 나타낸다.10 shows a third embodiment of an operation scenario of an operating system.

과업 데이터베이스는 요격과 정찰에 대한 과업으로 설정될 수 있다. 방어 드론들 내의 센서의 탐지 범위는 거리와 화각으로 설정될 수 있다. 요격은 방어 드론이 공격 드론에 직접 부딪히는 요격을 의미할 수 있고, 방어 드론이 일정 거리 내 공격 드론을 탐지하였을 때, 방어 드론이 기 설정된 확률로 공격 드론을 격추할 수 있다. 방어 드론들은 운동체 별 과업을 선정하기 위해 합의 기반 할당 알고리즘(예를 들어, CBBA)을 사용하여 탐지 범위 안에 들어오는 공격 드론에 대해서 요격 과업을 수행할 방어 드론을 선정할 수 있고, 나머지 방어 드론은 정찰 임무를 수행할 수 있다.The task database can be set up as tasks for interception and reconnaissance. The detection range of sensors in defense drones can be set by distance and angle of view. Interception can mean an intercept in which the defensive drone hits the attacking drone directly, and when the defensive drone detects the attacking drone within a certain distance, the defensive drone can shoot down the attacking drone with a preset probability. Defensive drones can use a consensus-based allocation algorithm (e.g., CBBA) to select tasks for each vehicle to select defensive drones to perform intercept tasks for attacking drones that come within the detection range, and reconnaissance drones. You can do your job.

도 10을 참조하면, 공격 드론들(A1,A2,A3)와 방어 드론들(D1,D2,D3,D4)이 존재할 수 있다. 이 때, 방어 드론(D1)은 공격 드론(A1)을 탐지할 수 있고, 방어 드론(D2)는 공격 드론(A1)을 탐지할 수 있고, 방어 드론(D3)는 공격 드론(A2,A3)를 탐지할 수 있고, 방어 드론(D4)는 공격 드론을 탐지하지 못할 수 있다. 방어 드론들(D1,D2,D3,D4)은 이웃 드론과만 통신이 가능할 수 있기 때문에, 방어 드론들(D1,D2,D3,D4)은 이웃 드론과 각각 요격의 대상이 되는 공격 드론에 대한 입찰 시트(bidding sheet)를 통해 합의를 수행할 수 있다. 그 결과, D1-A1, D3-A2, D4-A3와 같이 할당이 이루어져 요격 과업이 수행될 수 있고, 과업이 할당되지 않은 D2는 정찰 임무를 계속 수행할 수 있다. 방어 드론들(D1,D2,D3,D4)은 과업을 할당하는 알고리즘을 통해 각각 수행하고자 하는 과업을 선정할 수 있고, 과업을 수행하기 위해 필요한 경로점(waypoint)을 계산하여 전역 경로(global path) 형태로 계산 및 작업 선정 과정을 수행할 수 있다. Referring to FIG. 10, attack drones A1, A2, A3 and defense drones D1, D2, D3, and D4 may exist. At this time, the defense drone (D1) can detect the attack drone (A1), the defense drone (D2) can detect the attack drone (A1), and the defense drone (D3) can detect the attack drone (A2, A3). Can be detected, and the defense drone (D4) may not be able to detect the attacking drone. Defensive drones (D1, D2, D3, D4) can communicate only with neighboring drones, so the defensive drones (D1, D2, D3, D4) are Consensus can be reached through a bidding sheet. As a result, assignments are made like D1-A1, D3-A2, and D4-A3, so that the intercept task can be performed, and D2 who is not assigned the task can continue to perform the reconnaissance task. Defensive drones (D1, D2, D3, D4) can select each task to be performed through an algorithm that allocates the task, and calculates the required waypoint to perform the task and calculates the global path. ), you can perform the calculation and task selection process.

도 11은 운용 시스템이 동작하는 제4실시예를 나타낸다.11 shows a fourth embodiment in which the operating system operates.

로봇(350)은 계산된 전역 경로로부터 로봇(350)이 수행하고자 하는 행위를 선정할 수 있다. 구체적으로, 입력된 작업의 데이터베이스로서 경로점 추적과 충돌 회피 두가지가 있다고 가정하면, 작업 레이어(390)는 이전의 과업 선정 단계에서 계산된 전역 경로를 추종하고자 하는 작업과 예상치 않게 등장하는 장애물(pop-up & unknown obstacle)을 회피하기 위한 작업을 고려하여 지역 경로를 생성하여 행위를 결정할 수 있고, 결정된 행위에 따라 적절한 행동을 수행할 수 있다. 예를 들어, 제어 레이어(395)는 가장 적절한 행동들의 집합을 도출할 수 있다.The robot 350 may select an action to be performed by the robot 350 from the calculated global path. Specifically, assuming that there are two types of path point tracking and collision avoidance as a database of input tasks, the task layer 390 is a task that attempts to follow the global path calculated in the previous task selection step, and an obstacle that unexpectedly appears. -up & unknown obstacle), it is possible to determine the action by creating a local path in consideration of the work to avoid the action, and to perform an appropriate action according to the determined action. For example, the control layer 395 can derive the most appropriate set of actions.

작업 레이어(390)는 새로운 작업이 식별되면 새로운 작업에 대한 데이터베이스화를 수행할 수 있고, 이러한 데이터베이스를 운용 디바이스(300)로 전송할 수 있다. 구체적으로, 작업에 대한 데이터베이스와 과업에 대한 데이터베이스가 함께 운용 디바이스(300)로 전달될 수 있다. 제어 레이어(395)는 지역 경로(local path)에 따라 GNC(Guidance, Navigation, Control)를 수행하여 로봇(350)을 제어할 수 있다. 이러한 제어 정보는 지역 상황 인식 모듈(370)로 전송될 수 있고, 지역 상황 인식 모듈(370)은 지역 상황 인식 결과를 제1 통신 모듈(362)을 통해 운용 디바이스(300)로 전송할 수 있다. 제어 레이어(395)는 센서를 통해 주변 환경을 센싱할 수 있다.When a new job is identified, the job layer 390 may perform databaseization on the new job, and may transmit the database to the operating device 300. Specifically, a database for a task and a database for a task may be transmitted to the operating device 300 together. The control layer 395 may control the robot 350 by performing Guidance, Navigation, Control (GNC) according to a local path. Such control information may be transmitted to the local context recognition module 370, and the local context recognition module 370 may transmit the local context recognition result to the operating device 300 through the first communication module 362. The control layer 395 may sense the surrounding environment through a sensor.

도 12는 운용 시스템의 동작 시나리오에 관한 제4실시예를 나타낸다.12 shows a fourth embodiment of an operation scenario of an operating system.

도 12를 참조하면, 방어 드론(D4)은 계산된 전역 경로로부터 수행하고자 하는 행위를 선정하여 제어를 수행할 수 있다. 입력된 작업의 데이터베이스(DB)는 경로점 추적과 충돌 회피이며, 방어 드론(D4)은 이전 과업 선정 단계에서 계산된 전역 경로를 추종하고자 하는 작업과 알려지지 않은 물체를 회피하기 위한 작업을 고려하여 지역 경로를 생성할 수 있고, 행위를 결정하여 적절한 행동을 수행할 수 있다.Referring to FIG. 12, the defense drone D4 may perform control by selecting an action to be performed from the calculated global path. The database (DB) of the input task is route point tracking and collision avoidance, and the defense drone (D4) considers the task to follow the global route calculated in the previous task selection step and the task to avoid unknown objects. Paths can be created, actions can be determined, and appropriate actions can be performed.

도 13은 일 실시예에 따른 운용 디바이스를 나타낸다.13 shows an operating device according to an embodiment.

운용 디바이스(1300)는 통신부(communication device)(1310) 및 제어부(controller)(1320)를 포함할 수 있다. 도 13에 도시된 운용 디바이스(1300)는 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 13에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 운용 디바이스(1300)는 운용 디바이스(110,300)에 관한 내용을 포함할 수 있는 바, 중복되는 내용에 대해서는 설명을 생략한다.The operating device 1300 may include a communication device 1310 and a controller 1320. In the operating device 1300 illustrated in FIG. 13, only components related to the present embodiment are shown. Accordingly, it can be understood by those of ordinary skill in the art related to the present embodiment that other general-purpose components may be further included in addition to the components shown in FIG. 13. Since the operating device 1300 may include contents related to the operating devices 110 and 300, descriptions of overlapping contents will be omitted.

통신부(1310)는 무선 통신을 수행하기 위한 장치로서, 외부의 전자 장치와 통신할 수 있다. 또한, 통신부(1310)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있을 수 있다.The communication unit 1310 is a device for performing wireless communication and may communicate with an external electronic device. In addition, communication technologies used by the communication unit 1310 include Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Long Term Evolution (LTE), 5G, Wireless LAN (WLAN), and Wireless-Fidelity (Wi-Fi). ), Bluetooth™, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), ZigBee, Near Field Communication (NFC), and the like.

제어부(1320)는 운용 디바이스(1300)의 전반의 동작을 제어하고 데이터 및 신호를 처리할 수 있다. 제어부(1320)는 적어도 하나의 하드웨어 유닛으로 구성될 수 있다. 또한, 제어부(1320)는 메모리에 저장된 프로그램 코드를 실행하여 생성되는 하나 이상의 소프트웨어 모듈에 의해 동작할 수 있다. 제어부(1320)는 프로세서 및 메모리를 포함할 수 있는 바, 프로세서는 메모리에 저장된 프로그램 코드를 실행하여 운용 디바이스(1300)의 전반의 동작을 제어하고 데이터 및 신호를 처리할 수 있다.The controller 1320 may control the overall operation of the operating device 1300 and process data and signals. The control unit 1320 may be configured with at least one hardware unit. In addition, the controller 1320 may operate by one or more software modules generated by executing program codes stored in the memory. The controller 1320 may include a processor and a memory, and the processor may control the overall operation of the operating device 1300 and process data and signals by executing program codes stored in the memory.

제어부(1320)는 통신부(1310)를 통해 다른 운용 디바이스로부터 임무 관련 정보를 획득할 수 있고, 임무 관련 정보에 기초하여 목표 임무를 확인할 수 있고, 통신부(1310)를 통해 목표 임무에 관한 정보를 복수의 로봇들 중 적어도 하나로 전송할 수 있다.The control unit 1320 can obtain mission-related information from other operating devices through the communication unit 1310, can check the target mission based on the mission-related information, and multiple information on the target mission through the communication unit 1310 It can be transmitted to at least one of the robots.

임무 관련 정보는, 복수의 로봇들 중 제1로봇을 운용할 수 있는 권한에 관한 정보를 포함할 수 있고, 제어부(1320)는 통신부(1310)를 통해 목표 임무에 관한 정보를 제1로봇으로 전송할 수 있다.The mission-related information may include information on the authority to operate the first robot among a plurality of robots, and the control unit 1320 transmits information on the target mission to the first robot through the communication unit 1310. I can.

제어부(1320)는 통신부(1310)를 통해 다른 운용 디바이스와 임무 관련 정보를 공유하여, 제1 목표 임무를 확인할 수 있고, 제1 목표 임무에 관한 정보를 복수의 로봇들 중 일부로 전송할 수 있다. 또한, 다른 운용 디바이스는 제어부(1320)와 임무 관련 정보를 공유하여, 제2 목표 임무를 확인하고, 제2 목표 임무에 관한 정보를 복수의 로봇들 중 다른 일부로 전송할 수 있다.The controller 1320 may share mission-related information with other operating devices through the communication unit 1310 to identify a first target task, and transmit information on the first target task to some of the plurality of robots. In addition, the other operating device may share mission-related information with the controller 1320 to confirm the second target task and transmit information on the second target task to another part of the plurality of robots.

제어부(1320)는 복수의 로봇들 중 제1로봇을 또 다른 운용 디바이스로 인식할 수 있고, 제1 임무 관련 정보를 제1로봇에게 전송할 수 있다. 제1로봇은 제1 임무 관련 정보에 기초하여 제1 목표 임무를 확인하고, 제1 목표 임무에 관한 정보를 적어도 하나의 로봇에게 전송할 수 있다.The control unit 1320 may recognize the first robot among the plurality of robots as another operating device, and may transmit first mission-related information to the first robot. The first robot may check the first target mission based on the first mission related information and transmit information on the first target mission to at least one robot.

제어부(1320)는 통신부(1310)를 통해 복수의 로봇들 중 제1로봇으로부터 특정 상황에 관한 정보를 획득하고, 특정 상황에 관한 정보에 기초하여, 최적화(optimization) 및 심층강화학습(deep reinforcement learning) 중 적어도 하나의 방법을 선택하고, 선택된 방법에 따라 상기 목표 임무를 확인할 수 있다. 제어부(1320)는 특정 상황에 대한 해결에 있어서 계산 복잡도가 소정 기준 이상인 경우, 심층강화학습을 선택하고, 계산 복잡도가 소정 기준 미만인 경우, 최적화 방법을 선택할 수 있다.The control unit 1320 obtains information on a specific situation from a first robot among a plurality of robots through the communication unit 1310, and based on the information on the specific situation, optimization and deep reinforcement learning ), it is possible to select at least one method and check the target mission according to the selected method. In solving a specific situation, the controller 1320 may select deep reinforcement learning when the computational complexity is greater than or equal to a predetermined criterion, and select an optimization method when the computational complexity is less than a predetermined criterion.

통신부(1310)는 복수의 로봇들 중 적어도 하나로부터 획득된 정보 또는 상기 다른 운용 디바이스로부터 획득된 정보가 정상적인지 여부를 판단하는 보안 모듈을 포함할 수 있다.The communication unit 1310 may include a security module that determines whether information obtained from at least one of the plurality of robots or information obtained from the other operating device is normal.

제어부(1320)는 통신부(1310)를 통해 복수의 로봇들 중 적어도 하나로부터 과업(goal) 또는 작업(task)에 대해 데이터베이스화된 정보를 수신할 수 있고, 데이터베이스화된 정보에 기초하여 목표 임무를 확인할 수 있다.The control unit 1320 may receive databased information on a task or task from at least one of a plurality of robots through the communication unit 1310, and perform a target task based on the databased information. I can confirm.

도 14는 일 실시예에 따른 운용 디바이스의 동작 방법을 나타낸다.14 illustrates a method of operating an operating device according to an embodiment.

도 14의 동작 방법의 각 단계는 도 13의 운용 디바이스(1300)에 의해 수행될 수 있으므로, 도 13과 중복되는 내용에 대해서는 설명을 생략한다. Since each step of the operation method of FIG. 14 may be performed by the operating device 1300 of FIG. 13, descriptions of contents overlapping with those of FIG. 13 will be omitted.

단계 S1410에서, 운용 디바이스(1300)는 다른 운용 디바이스로부터 임무 관련 정보를 획득할 수 있다.In step S1410, the operating device 1300 may acquire mission-related information from another operating device.

단계 S1420에서, 운용 디바이스(1300)는 임무 관련 정보에 기초하여 목표 임무를 확인할 수 있다.In step S1420, the operating device 1300 may check the target mission based on the mission-related information.

단계 S1430에서, 운용 디바이스(1300)는 목표 임무에 관한 정보를 복수의 로봇들 중 적어도 하나로 전송할 수 있다.In step S1430, the operating device 1300 may transmit information on the target task to at least one of the plurality of robots.

전술한 실시예들에 따른 운용 디바이스 또는 로봇은, 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-Access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. The operating device or robot according to the above-described embodiments includes a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, and a key. ), a user interface device such as a button, and the like. Methods implemented as software modules or algorithms may be stored on a computer-readable recording medium as computer-readable codes or program instructions executable on the processor. Here, the computer-readable recording medium is a magnetic storage medium (e.g., read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and optical reading medium (e.g., CD-ROM ) And DVD (Digital Versatile Disc). The computer-readable recording medium is distributed over network-connected computer systems, so that computer-readable codes can be stored and executed in a distributed manner. The medium is readable by a computer, stored in memory, and executed on a processor.

본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.This embodiment may be represented by functional block configurations and various processing steps. These functional blocks may be implemented with various numbers of hardware or/and software configurations that perform specific functions. For example, the embodiment is an integrated circuit configuration such as memory, processing, logic, a look-up table, etc., capable of executing various functions by controlling one or more microprocessors or other control devices Can be hired. Similar to how components can be implemented with software programming or software elements, this embodiment includes various algorithms implemented with a combination of data structures, processes, routines or other programming components, including C, C++, Java ( Java), an assembler, etc. may be implemented in a programming or scripting language. Functional aspects can be implemented with an algorithm running on one or more processors. In addition, the present embodiment may employ a conventional technique for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means”, and “composition” can be used widely, and are not limited to mechanical and physical configurations. The term may include a meaning of a series of routines of software in connection with a processor or the like.

전술한 실시예들은 일 예시일 뿐 후술하는 청구항들의 범위 내에서 다른 실시예들이 구현될 수 있다.The above-described embodiments are only examples, and other embodiments may be implemented within the scope of the claims to be described later.

Claims (10)

목표 임무를 위해 서로 협력 가능한 복수의 로봇들을 위한 운용 디바이스(operation device)로서,
상기 복수의 로봇들 중 적어도 하나와의 통신이 가능하고, 상기 복수의 로봇들을 위한 다른 운용 디바이스와의 통신이 가능한 통신부; 및
상기 통신부와 연결된 제어부를 포함하고,
상기 제어부는,
상기 통신부를 통해 상기 다른 운용 디바이스로부터 임무 관련 정보를 획득하고,
상기 임무 관련 정보에 기초하여 상기 목표 임무를 확인하고,
상기 통신부를 통해 상기 목표 임무에 관한 정보를 상기 복수의 로봇들 중 적어도 하나로 전송하고,
상기 제어부는,
상기 통신부를 통해 상기 복수의 로봇들 중 제1로봇으로부터 특정 상황에 관한 정보를 획득하고,
상기 특정 상황에 관한 정보에 기초하여, 최적화(optimization) 및 심층강화학습(deep reinforcement learning) 중 적어도 하나의 방법을 선택하고,
상기 선택된 방법에 따라 상기 목표 임무를 확인하고,
상기 제어부는,
상기 특정 상황에 대한 해결에 있어서 계산 복잡도가 소정 기준 이상인 경우, 심층강화학습을 선택하고, 계산 복잡도가 소정 기준 미만인 경우, 최적화 방법을 선택하는, 운용 디바이스.
As an operation device for a plurality of robots that can cooperate with each other for a target mission,
A communication unit capable of communicating with at least one of the plurality of robots and capable of communicating with other operating devices for the plurality of robots; And
It includes a control unit connected to the communication unit,
The control unit,
Obtaining mission-related information from the other operating device through the communication unit,
Check the target mission based on the mission-related information,
Transmitting information on the target mission to at least one of the plurality of robots through the communication unit,
The control unit,
Obtaining information about a specific situation from the first robot among the plurality of robots through the communication unit,
Selecting at least one method of optimization and deep reinforcement learning, based on the information on the specific situation,
Identify the target mission according to the selected method,
The control unit,
In the case of solving the specific situation, when the computational complexity is greater than or equal to a predetermined criterion, deep reinforcement learning is selected, and when the computational complexity is less than a predetermined criterion, an optimization method is selected.
제1항에 있어서,
상기 임무 관련 정보는,
상기 복수의 로봇들 중 제2로봇을 운용할 수 있는 권한에 관한 정보를 포함하고,
상기 제어부는,
상기 통신부를 통해 상기 목표 임무에 관한 정보를 상기 제2로봇으로 전송하는, 운용 디바이스.
The method of claim 1,
The above mission related information,
Including information on the authority to operate a second robot among the plurality of robots,
The control unit,
An operating device that transmits information on the target task to the second robot through the communication unit.
제1항에 있어서,
상기 제어부는,
상기 통신부를 통해 상기 다른 운용 디바이스와 상기 임무 관련 정보를 공유하여, 제1 목표 임무를 확인하고,
상기 제1 목표 임무에 관한 정보를 상기 복수의 로봇들 중 일부로 전송하고,
상기 다른 운용 디바이스는 상기 운용 디바이스와 상기 임무 관련 정보를 공유하여, 제2 목표 임무를 확인하고, 상기 제2 목표 임무에 관한 정보를 상기 복수의 로봇들 중 다른 일부로 전송하는, 운용 디바이스.
The method of claim 1,
The control unit,
By sharing the mission-related information with the other operating device through the communication unit, confirming the first target mission,
Transmit information on the first target mission to some of the plurality of robots,
The other operating device shares the task-related information with the operating device, confirms a second target task, and transmits information on the second target task to another part of the plurality of robots.
제1항에 있어서,
상기 제어부는,
상기 복수의 로봇들 중 제2로봇을 또 다른 운용 디바이스로 인식하고,
제1 임무 관련 정보를 상기 제2로봇에게 전송하고,
상기 제2로봇은,
상기 제1 임무 관련 정보에 기초하여 제1 목표 임무를 확인하고, 상기 제1 목표 임무에 관한 정보를 적어도 하나의 로봇에게 전송하는, 운용 디바이스.
The method of claim 1,
The control unit,
Recognizing the second robot among the plurality of robots as another operating device,
Transmits the first mission-related information to the second robot,
The second robot,
An operating device for confirming a first target task based on the first task-related information, and transmitting information about the first target task to at least one robot.
삭제delete 삭제delete 제1항에 있어서,
상기 통신부는,
상기 복수의 로봇들 중 적어도 하나로부터 획득된 정보 또는 상기 다른 운용 디바이스로부터 획득된 정보가 정상적인지 여부를 판단하는 보안 모듈을 포함하는, 운용 디바이스.
The method of claim 1,
The communication unit,
And a security module that determines whether information obtained from at least one of the plurality of robots or information obtained from the other operating device is normal.
제1항에 있어서,
상기 제어부는,
상기 통신부를 통해 상기 복수의 로봇들 중 적어도 하나로부터 과업(goal) 또는 작업(task)에 대해 데이터베이스화된 정보를 수신할 수 있고, 상기 데이터베이스화된 정보에 기초하여 목표 임무를 확인하는, 운용 디바이스.
The method of claim 1,
The control unit,
An operating device that can receive databaseized information on a task or task from at least one of the plurality of robots through the communication unit, and confirms a target task based on the databased information .
목표 임무를 위해 서로 협력 가능한 복수의 로봇들을 위한 운용 디바이스(operation device)의 동작 방법으로서,
다른 운용 디바이스로부터 임무 관련 정보를 획득하는 단계;
상기 임무 관련 정보에 기초하여 상기 목표 임무를 확인하는 단계; 및
상기 목표 임무에 관한 정보를 상기 복수의 로봇들 중 적어도 하나로 전송하는 단계를 포함하고,
상기 목표 임무를 확인하는 단계는,
상기 복수의 로봇들 중 제1로봇으로부터 특정 상황에 관한 정보를 획득하는 단계;
상기 특정 상황에 관한 정보에 기초하여, 최적화(optimization) 및 심층강화학습(deep reinforcement learning) 중 적어도 하나의 방법을 선택하는 단계; 및
상기 선택된 방법에 따라 상기 목표 임무를 확인하는 단계를 포함하고,
상기 적어도 하나의 방법을 선택하는 단계는,
상기 특정 상황에 대한 해결에 있어서 계산 복잡도가 소정 기준 이상인 경우, 심층강화학습을 선택하고, 계산 복잡도가 소정 기준 미만인 경우, 최적화 방법을 선택하는 단계를 포함하는, 동작 방법.
As a method of operating an operation device (operation device) for a plurality of robots that can cooperate with each other for a target mission,
Obtaining mission-related information from another operating device;
Identifying the target mission based on the mission-related information; And
Transmitting information on the target mission to at least one of the plurality of robots,
The step of confirming the target mission,
Obtaining information on a specific situation from a first robot among the plurality of robots;
Selecting at least one of optimization and deep reinforcement learning based on the information on the specific situation; And
Confirming the target mission according to the selected method,
Selecting the at least one method,
And selecting deep reinforcement learning when the computational complexity is greater than or equal to a predetermined criterion in solving the specific situation, and selecting an optimization method when the computational complexity is less than a predetermined criterion.
목표 임무를 위해 서로 협력 가능한 복수의 로봇들을 위한 운용 디바이스(operation device)의 동작 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 비일시적 기록매체로서,
상기 동작 방법은,
다른 운용 디바이스로부터 임무 관련 정보를 획득하는 단계;
상기 임무 관련 정보에 기초하여 상기 목표 임무를 확인하는 단계; 및
상기 목표 임무에 관한 정보를 상기 복수의 로봇들 중 적어도 하나로 전송하는 단계를 포함하고,
상기 목표 임무를 확인하는 단계는,
상기 복수의 로봇들 중 제1로봇으로부터 특정 상황에 관한 정보를 획득하는 단계;
상기 특정 상황에 관한 정보에 기초하여, 최적화(optimization) 및 심층강화학습(deep reinforcement learning) 중 적어도 하나의 방법을 선택하는 단계; 및
상기 선택된 방법에 따라 상기 목표 임무를 확인하는 단계를 포함하고,
상기 적어도 하나의 방법을 선택하는 단계는,
상기 특정 상황에 대한 해결에 있어서 계산 복잡도가 소정 기준 이상인 경우, 심층강화학습을 선택하고, 계산 복잡도가 소정 기준 미만인 경우, 최적화 방법을 선택하는 단계를 포함하는, 비일시적 기록매체.
As a non-transitory recording medium that can be read by a computer, a program for executing an operation method of an operation device for a plurality of robots that can cooperate with each other for a target mission is recorded on a computer,
The operation method,
Obtaining mission-related information from another operating device;
Identifying the target mission based on the mission-related information; And
Transmitting information on the target mission to at least one of the plurality of robots,
The step of confirming the target mission,
Obtaining information on a specific situation from a first robot among the plurality of robots;
Selecting at least one of optimization and deep reinforcement learning based on the information on the specific situation; And
Confirming the target mission according to the selected method,
Selecting the at least one method,
And selecting deep reinforcement learning when the computational complexity is greater than or equal to a predetermined criterion in solving the specific situation, and selecting an optimization method when the computational complexity is less than a predetermined criterion.
KR1020200089690A 2020-07-20 2020-07-20 Operation device for plurality of robots and operation method thereof KR102203015B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200089690A KR102203015B1 (en) 2020-07-20 2020-07-20 Operation device for plurality of robots and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200089690A KR102203015B1 (en) 2020-07-20 2020-07-20 Operation device for plurality of robots and operation method thereof

Publications (1)

Publication Number Publication Date
KR102203015B1 true KR102203015B1 (en) 2021-01-14

Family

ID=74141419

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200089690A KR102203015B1 (en) 2020-07-20 2020-07-20 Operation device for plurality of robots and operation method thereof

Country Status (1)

Country Link
KR (1) KR102203015B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102508952B1 (en) * 2022-08-08 2023-03-14 국방과학연구소 Electronic apparatus for allocating task to multiple robots and operation method thereof
KR102520643B1 (en) * 2022-11-07 2023-04-12 국방과학연구소 Electronic apparatus for allocating task to robot in consideration of geological image information and properties information of robot, and operation method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101091723B1 (en) * 2011-04-07 2011-12-08 국방과학연구소 System for integrated operating of unmanned robot and method for operating of the system
KR101851237B1 (en) * 2017-07-21 2018-04-23 주식회사 블루젠드론 Drone system based on commercial mobile communication wireless network dedicated to drone
KR101871430B1 (en) * 2011-11-14 2018-06-26 한국전자통신연구원 Method and system for multi-small robots control
KR101963826B1 (en) * 2018-06-22 2019-03-29 전북대학교 산학협력단 System for flying safety and fault recovery in swarm flight of unmanned aerial vehicles and method thereof
KR20200080396A (en) * 2018-12-18 2020-07-07 삼성전자주식회사 Autonomous driving method and apparatus thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101091723B1 (en) * 2011-04-07 2011-12-08 국방과학연구소 System for integrated operating of unmanned robot and method for operating of the system
KR101871430B1 (en) * 2011-11-14 2018-06-26 한국전자통신연구원 Method and system for multi-small robots control
KR101851237B1 (en) * 2017-07-21 2018-04-23 주식회사 블루젠드론 Drone system based on commercial mobile communication wireless network dedicated to drone
KR101963826B1 (en) * 2018-06-22 2019-03-29 전북대학교 산학협력단 System for flying safety and fault recovery in swarm flight of unmanned aerial vehicles and method thereof
KR20200080396A (en) * 2018-12-18 2020-07-07 삼성전자주식회사 Autonomous driving method and apparatus thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102508952B1 (en) * 2022-08-08 2023-03-14 국방과학연구소 Electronic apparatus for allocating task to multiple robots and operation method thereof
KR102520643B1 (en) * 2022-11-07 2023-04-12 국방과학연구소 Electronic apparatus for allocating task to robot in consideration of geological image information and properties information of robot, and operation method thereof

Similar Documents

Publication Publication Date Title
Batth et al. Internet of robotic things: driving intelligent robotics of future-concept, architecture, applications and technologies
Yu et al. Cooperative path planning for target tracking in urban environments using unmanned air and ground vehicles
EP2362951B1 (en) Apparatus and method of controlling an unmanned vehicle
KR102203015B1 (en) Operation device for plurality of robots and operation method thereof
Muñoz et al. Adaptive consensus algorithms for real‐time operation of multi‐agent systems affected by switching network events
Suresh et al. UAV grouping and coordination tactics for ground attack missions
Johnson et al. Artificial intelligence—an enabler of naval tactical decision superiority
Farmani et al. Tracking multiple mobile targets using cooperative unmanned aerial vehicles
Wang et al. An optimal guidance strategy for moving-target interception by a multirotor unmanned aerial vehicle swarm
Young et al. A survey of research on control of teams of small robots in military operations
Longpre et al. Lethal autonomous weapons systems & artificial intelligence: Trends, challenges, and policies
Wicks Radar the next generation-sensors as robots
SE2050258A1 (en) Machine learning based system, methods, and control arrangement for positioning of an agent
US9007257B2 (en) Method for variable control of a zone sensor in a combat aircraft
de Barros Correia et al. Decentralized formation tracking for groups of mobile robots with consensus and mpc
Lyons et al. WAVN: Wide area visual navigation for large-scale, GPS-denied environments
Wicks et al. Distributed and layered sensing
Vachtsevanos et al. Modeling and Control of Unmanned Aerial Vehicles: Current Status and Future Directions
Sapaty Providing Spatial Integrity for Distributed Unmanned Systems.
Nardi et al. Nostop: an open source framework for design and test of coordination protocol for asymmetric threats protection in marine environment
Verret et al. Multi-unmanned vehicle systems (nUxVs) at Defence R&D Canada
KR102478931B1 (en) Method for performing autonomous mission of intelligent UAV through intelligent framework based on context reasoning, apparatus and computer program for performing the method
KR102407726B1 (en) Apparatus and method for determining leader robot
Baranzadeh Decentralized Autonomous Navigation Strategies for Multi-Robot Search and Rescue
Al-nabhan Security, Safety and Privacy Issues of Unmanned Aerial Vehicle Systems

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant