KR20200051923A - Method for controlling a security robot, apparatus for supporting the same - Google Patents

Method for controlling a security robot, apparatus for supporting the same Download PDF

Info

Publication number
KR20200051923A
KR20200051923A KR1020180134843A KR20180134843A KR20200051923A KR 20200051923 A KR20200051923 A KR 20200051923A KR 1020180134843 A KR1020180134843 A KR 1020180134843A KR 20180134843 A KR20180134843 A KR 20180134843A KR 20200051923 A KR20200051923 A KR 20200051923A
Authority
KR
South Korea
Prior art keywords
security robot
priority
risk
security
data
Prior art date
Application number
KR1020180134843A
Other languages
Korean (ko)
Other versions
KR102138006B1 (en
Inventor
김진효
Original Assignee
주식회사 도구공간
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 도구공간 filed Critical 주식회사 도구공간
Priority to KR1020180134843A priority Critical patent/KR102138006B1/en
Publication of KR20200051923A publication Critical patent/KR20200051923A/en
Application granted granted Critical
Publication of KR102138006B1 publication Critical patent/KR102138006B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

Provided are a security robot control method and an apparatus supporting the method. The security robot control method performed by a control device according to one embodiment of the present invention comprises the following steps of: obtaining a first risk level for a security robot input through a remote control device; obtaining a second risk level for the security robot generated by an autonomous security module; determining a weight based on situation complexity of the security robot; and generating a priority based on the weight, the first risk, and the second risk.

Description

보안 로봇 제어 방법 및 그 방법을 지원하는 장치{METHOD FOR CONTROLLING A SECURITY ROBOT, APPARATUS FOR SUPPORTING THE SAME}Security robot control method and a device supporting the method {METHOD FOR CONTROLLING A SECURITY ROBOT, APPARATUS FOR SUPPORTING THE SAME}

본 발명은 보안 로봇의 제어 방법 및 그 방법을 지원하는 장치에 관한 것이다. 보다 자세하게는, 원격 제어 시스템을 통한 보안 로봇의 제어 방법 및 그 방법을 지원하는 장치를 이용하여 하나 이상의 로봇을 이용한 다양한 보안 시스템에 관한 것이다.The present invention relates to a control method of a security robot and an apparatus supporting the method. More specifically, the present invention relates to various security systems using one or more robots using a control method of a security robot through a remote control system and an apparatus supporting the method.

근래에 자율 주행 차량과 같은 자율 보안 로봇에 대한 관심이 커지고 있다. 그러나, 자율 보안 로봇에 대한 연구는 아직 초기 단계에 불과하며, 대부분의 자율 주행 로봇은 인공지능(AI)만 가지고 주행을 하여 판단 착오를 일으키는 문제점이 있다.In recent years, interest in autonomous security robots such as autonomous vehicles has grown. However, research on autonomous security robots is still only in the early stages, and most autonomous driving robots have a problem of driving judgment with only artificial intelligence (AI).

이에 원격 제어 기술이 도입되었으나, 복수의 장소에 존재하는 복수의 원격 로봇을 제어하는 방법에 있어서는 연구가 필요하다. Although a remote control technology has been introduced, research on a method of controlling a plurality of remote robots existing in a plurality of places is required.

도 1에 도시된 바와 같이, 복수의 장소에 존재하는 복수의 보안 로봇이 동시에 데이터를 송신하는 경우, 데이터 간의 모니터링의 어려움이 발생한다. 뿐만 아니라, 모니터링의 어려움은 결국 도 2에 도시된 바와 같이 제어 딜레이(delay control)를 발생시켜 조종자의 제어 신호가 뒤늦게 보안 로봇에 도달할 수 있어 위험도를 증가시키는 주된 요인이 된다.As shown in FIG. 1, when a plurality of security robots present in a plurality of places transmit data at the same time, difficulty in monitoring between data occurs. In addition, the difficulty of monitoring is, as shown in FIG. 2, a control delay, which causes the control signal of the driver to reach the security robot lately, thereby increasing the risk.

따라서, 제어하는 각각의 로봇이 안정되게 구동되고, 사용자는 빠르게 의사 결정을 하여 제어 신호를 제공할 수 있는 제어 방법 및 그 방법을 지원하는 장치가 필요하다.Therefore, each robot to be controlled is stably driven, and a user needs a control method capable of quickly providing a control signal by making a decision and an apparatus supporting the method.

한국등록특허 제10-2006-1293247호Korean Registered Patent No. 10-2006-1293247

본 발명이 해결하고자 하는 기술적 과제는, 자율주행을 기반하되 원격 제어가 동시에 가능한 보안 로봇 제어 방법 및 그 장치를 제공하는 것이다.The technical problem to be solved by the present invention is to provide a security robot control method and apparatus based on autonomous driving but capable of remote control simultaneously.

본 발명이 해결하고자 하는 다른 기술적 과제는, 한 사람이 동시에 복수의 로봇을 원격 제어가 가능하여 보다 효율적으로 보안 로봇을 제어하는 방법 및 그 장치를 제공하는 것이다.Another technical problem to be solved by the present invention is to provide a method and apparatus for controlling a security robot more efficiently by enabling one person to remotely control a plurality of robots simultaneously.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술된 문제점들을 해결하기 위한 본 발명의 일 실시예에 따른 보안 로봇의 제어 방법은, 제어 장치에 의해 수행되는 보안 로봇의 제어 방법에 있어서, 원격 제어 장치를 통해 입력된 상기 보안 로봇에 대한 제1 위험도를 획득하는 단계, 자율 보안 모듈에 의해 생성된 상기 보안 로봇에 대한 제2 위험도를 획득하는 단계, 상기 보안 로봇의 상황 복잡도에 기초하여 가중치를 결정하는 단계 및 상기 결정된 가중치, 상기 제1 위험도 및 상기 제2 위험도에 기초하여 우선 순위를 생성하는 단계를 포함한다.The control method of the security robot according to an embodiment of the present invention for solving the above-described problems is a control method of the security robot performed by the control device, the control method for the security robot input through the remote control device Obtaining a first risk, obtaining a second risk for the security robot generated by the autonomous security module, determining a weight based on the situation complexity of the security robot, and determining the weight, the first risk And generating a priority based on the second risk.

상기 기술된 문제점들을 해결하기 위한 본 발명의 다른 실시예에 따른 보안 로봇의 제어 장치는 프로세서, 메모리 및 상기 메모리에 저장되고, 상기 프로세서에 의해 실행되는 하나 이상의 프로그램들을 포함하되, 상기 하나 이상의 프로그램들은, 원격 제어 장치를 통해 입력된 상기 보안 로봇에 대한 제1 위험도를 획득하는 동작, 자율 보안 모듈에 의해 생성된 상기 보안 로봇에 대한 제2 위험도를 획득하는 동작, 상기 보안 로봇의 상황 복잡도에 기초하여 각 위험도에 대한 가중치를 결정하는 동작 및 상기 결정된 가중치, 상기 제1 위험도 및 상기 제2 위험도에 기초하여 상기 보안 로봇의 우선 순위를 생성하는 동작을 수행하도록 하는 인스트럭션들(instructions)을 포함하되, 상기 상황 복잡도는 상기 보안 로봇의 센싱 데이터에 기초하여, 상기 보안 로봇의 주변 환경에 대한 복잡도이다.A control device for a security robot according to another embodiment of the present invention for solving the above-described problems includes a processor, a memory, and one or more programs stored in the memory and executed by the processor, wherein the one or more programs , Obtaining a first risk for the security robot input through a remote control device, obtaining a second risk for the security robot generated by the autonomous security module, based on the situation complexity of the security robot And instructions for performing an operation of determining a weight for each risk and an operation of generating a priority of the security robot based on the determined weight, the first risk, and the second risk, The situation complexity is based on the sensing data of the security robot, Of the complexity of the environment.

상기 기술된 문제점들을 해결하기 위한 본 발명의 또 다른 실시예에 따른 보안 로봇의 제어 방법은 보안 로봇을 원격으로 제어하는 원격 제어 장치가 상기 보안 로봇에 대한 제1 위험도를 송신하는 단계 상기 보안 로봇으로부터 우선 순위에 따른 데이터를 수신하는 단계 및 상기 우선 순위에 따라 상기 데이터를 순차적으로 디스플레이 하는 단계를 포함한다.A control method of a security robot according to another embodiment of the present invention for solving the above-described problems includes: a remote control device remotely controlling the security robot transmitting a first risk for the security robot from the security robot And receiving data according to priority and sequentially displaying the data according to the priority.

도 1 및 도 2는 종래의 원격 제어 방식의 문제점을 설명하기 위한 예시도이다.
도 3 및 도 4는 본 발명의 몇몇 실시예에 따른 로봇 제어 시스템의 구성도이다.
도 5는 본 발명의 몇몇 실시예에 따른 로봇 제어 방법의 순서도이다.
도 6은 도 5를 참조하여 설명되는 방법에 따라 제2 위험도를 획득하는 방법의 예시도이다.
도 7은 도 5를 참조하여 설명되는 방법에 따라 제2 위험도 예측을 학습하는 방법의 예시도이다.
도 8은 도 5를 참조하여 설명되는 방법에 따라 상황 복잡도에 기초하여 가중치를 결정하는 방법의 순서도이다.
도 9는 도 8을 참조하여 설명되는 방법에 따라 센싱 데이터를 분석하는 방법의 순서도이다.
도 10은 도 5를 참조하여 설명되는 방법에 따라 우선 순위를 결정하는 방법의 순서도이다.
도 11은 본 발명의 몇몇 실시예에 따른 보안 로봇 제어 방법을 지원하는 시스템의 구성도이다.
도 12는 몇몇 실시예에 따른 보안 로봇 제어 방법을 지원하는 방법의 순서도이다.
도 13은 도 12를 참조하여 설명되는 방법에 따라 우선 순위에 따라 데이터를 수신하는 방법의 예시도이다.
도 14 내지 도 16은 도 12를 참조하여 설명되는 방법에 따라 우선 순위에 따라 상기 데이터를 순차적으로 디스플레이 하는 방법에 대한 예시도이다.
도 17은 본 발명의 또 다른 실시예에 따른 공공기관과 협력하는 방법의 예시도이다.
도 18은 본 발명의 다양한 실시예들에 따른 장치 및/또는 시스템을 구현할 수 있는 예시적인 컴퓨팅 장치를 나타내는 하드웨어 구성도이다.
1 and 2 are exemplary views for explaining the problems of the conventional remote control method.
3 and 4 are configuration diagrams of a robot control system according to some embodiments of the present invention.
5 is a flowchart of a robot control method according to some embodiments of the present invention.
6 is an exemplary view of a method of obtaining a second risk according to the method described with reference to FIG. 5.
7 is an exemplary view of a method of learning a second risk prediction according to the method described with reference to FIG. 5.
8 is a flowchart of a method for determining weights based on situational complexity according to the method described with reference to FIG. 5.
9 is a flowchart of a method of analyzing sensing data according to the method described with reference to FIG. 8.
10 is a flowchart of a method for determining priority according to the method described with reference to FIG. 5.
11 is a configuration diagram of a system supporting a security robot control method according to some embodiments of the present invention.
12 is a flowchart of a method for supporting a security robot control method according to some embodiments.
13 is an exemplary view of a method of receiving data according to priority according to a method described with reference to FIG. 12.
14 to 16 are exemplary views of a method of sequentially displaying the data according to priority according to the method described with reference to FIG. 12.
17 is an exemplary view of a method of cooperating with a public institution according to another embodiment of the present invention.
18 is a hardware configuration diagram illustrating an exemplary computing device capable of implementing an apparatus and / or system according to various embodiments of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명이 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the technical spirit of the present invention is not limited to the following embodiments, but may be implemented in various different forms, and only the present embodiments allow the present invention to be completed, and general knowledge in the technical field to which the present invention pertains. It is provided to fully inform the person having the scope of the present invention, and the technical spirit of the present invention is only defined by the scope of the claims.

각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.It should be noted that in adding reference numerals to the components of each drawing, the same components have the same reference numerals as possible even though they are displayed on different drawings. In addition, in describing the present invention, when it is determined that detailed descriptions of related well-known structures or functions may obscure the subject matter of the present invention, detailed descriptions thereof will be omitted.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used in a sense that can be commonly understood by those skilled in the art to which the present invention pertains. In addition, terms defined in the commonly used dictionary are not ideally or excessively interpreted unless specifically defined. The terminology used herein is for describing the embodiments and is not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only for distinguishing the component from other components, and the nature, order, or order of the component is not limited by the term. When a component is described as being "connected", "coupled" or "connected" to another component, the component may be directly connected to or connected to the other component, but another component between each component It will be understood that elements may be "connected", "coupled" or "connected".

명세서에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.As used herein, "comprises" and / or "comprising" refers to the components, steps, operations and / or elements mentioned above, the presence of one or more other components, steps, operations and / or elements Or do not exclude additions.

본 명세서에 대한 설명에 앞서, 본 명세서에서 사용되는 몇몇 용어들에 대하여 명확하게 하기로 한다.Prior to the description of the present specification, some terms used in the specification will be clarified.

본 명세서에서, 보안 로봇이란, 이동(즉, 주행) 기능이 구비된 모든 종류의 로봇을 총칭한다. 상기 보안 로봇은 지상 이동 기능이 구비된 지상 로봇과 공중 이동 기능이 구비된 드론(drone)을 포함할 수 있다. 또한, 상기 보안 로봇은 원격 제어 장치(또는 시스템)에 의해 제어되는 원격 제어 로봇, 자율적인 판단에 따라 이동하는 자율 로봇, 원격 제어 및 자율 이동 기능이 모두 구비된 반자율 로봇을 모두 포함할 수 있다. In the present specification, the security robot refers to all kinds of robots equipped with a movement (ie, driving) function. The security robot may include a ground robot equipped with a ground movement function and a drone equipped with an aerial movement function. In addition, the security robot may include a remote control robot controlled by a remote control device (or system), an autonomous robot moving according to autonomous judgment, and a semi-autonomous robot equipped with both remote control and autonomous movement functions. .

또한, 본 명세서에서, 보안 로봇의 순찰과 관련된 기능을 예를 들어 설명하고 있지만, 이에 한정되지 않으며, 출동 요청 기능, CPR 등의 응급 처치 기능, 방범 효과를 위한 시청각 효과를 발생시키는 기능 등 다양한 기능을 함께 수행할 수 있다.In addition, in this specification, functions related to patrol of a security robot are described as an example, but are not limited thereto, and various functions such as a dispatch request function, a first aid function such as CPR, and a function to generate an audio-visual effect for a crime prevention effect Together.

본 명세서에서 인스트럭션(instruction)이란, 기능을 기준으로 묶인 일련의 명령어들로서 컴퓨터 프로그램의 구성 요소이자 프로세서에 의해 실행되는 것을 가리킨다.In this specification, an instruction is a series of instructions grouped based on a function and refers to a component of a computer program and executed by a processor.

이하, 본 발명의 몇몇 실시예들에 대하여 첨부된 도면에 따라 상세하게 설명한다.Hereinafter, some embodiments of the present invention will be described in detail according to the accompanying drawings.

도 3은 본 발명의 몇몇 실시예에 따른 보안 로봇 제어 시스템을 나타내는 예시적인 구성도이다.3 is an exemplary configuration diagram illustrating a security robot control system according to some embodiments of the present invention.

도 3을 참조하면, 상기 로봇 제어 시스템은 원격 제어 시스템(20), 보안 로봇(100, 200), 제어 장치(미도시) 및 서버(10)를 포함하도록 구성될 수 있다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일뿐이며, 필요에 따라 일부 구성 요소가 추가되거나 삭제될 수 있음은 물론이다. 또한, 도 3에 도시된 로봇 제어 시스템의 각각의 구성 요소들은 기능적으로 구분되는 기능 요소들을 나타낸 것으로서, 적어도 하나의 구성 요소가 실제 물리적 환경에서는 서로 통합되는 형태로 구현될 수도 있음에 유의한다. 예를 들어, 제어 장치는 원격 제어 시스템(20) 또는 보안 로봇의 특정 로직(logic)으로 구현될 수도 있다.Referring to FIG. 3, the robot control system may be configured to include a remote control system 20, security robots 100 and 200, a control device (not shown), and a server 10. However, this is only a preferred embodiment for achieving the object of the present invention, and of course, some components may be added or deleted as necessary. In addition, it is noted that each of the components of the robot control system shown in FIG. 3 is functionally divided functional elements, and at least one component may be implemented in an integrated form in a physical environment. For example, the control device may be implemented with a remote control system 20 or a specific logic of the security robot.

또한, 실제 물리적 환경에서 상기 각각의 구성 요소들은 복수의 세부 기능 요소로 분리되는 형태로 구현될 수도 있다. 예컨대, 서버(10)의 제1 기능은 제1 컴퓨팅 장치에서 구현되고, 제2 기능은 제2 컴퓨팅 장치에서 구현될 수도 있다. 이하, 상기 로봇 제어 시스템의 각 구성 요소에 대하여 설명하도록 한다.Further, in the actual physical environment, each of the components may be implemented in a form of being divided into a plurality of detailed functional elements. For example, the first function of the server 10 may be implemented in the first computing device, and the second function may be implemented in the second computing device. Hereinafter, each component of the robot control system will be described.

상기 로봇 제어 시스템에서, 원격 제어 시스템(20)은 보안 로봇을 원격 제어하기 위해 조종자에 의해 이용되는 장치이다. 원격 제어 시스템(20)은 조종자에 의해 입력된 제어 값(e.g. 조향각, 속도)을 실시간으로 보안 로봇으로 전송함으로써, 원격지에 위치한 보안 로봇을 제어할 수 있다. 이하에서는, 설명의 편의상, 원격 제어 시스템(20)를 통해 조종자에 의해 입력된 제어 값을 “원격 제어 값”으로 명명하도록 한다.In the robot control system, the remote control system 20 is a device used by a manipulator to remotely control the security robot. The remote control system 20 may control the security robot located at a remote location by transmitting the control value (e.g. steering angle, speed) input by the operator to the security robot in real time. Hereinafter, for convenience of description, the control value input by the operator through the remote control system 20 will be referred to as a “remote control value”.

편의성 향상을 위해, 원격 제어 시스템(20)은 핸들, 페달과 같은 햅틱 인터페이스 장치를 포함하도록 구성될 수 있다. 예컨대, 조종자는 핸들을 통해 보안 로봇의 조향각을 제어하고, 페달을 통해 보안 로봇의 속도를 제어할 수 있다. 단, 본 발명의 기술적 범위가 이에 한정되는 것은 아니며, 원격 제어 시스템(20)의 사용자 인터페이스 장치는 어떠한 방식으로 구현되더라도 무방하다.For convenience, the remote control system 20 may be configured to include a haptic interface device such as a handle and a pedal. For example, the operator may control the steering angle of the security robot through the handle and the speed of the security robot through the pedal. However, the technical scope of the present invention is not limited to this, and the user interface device of the remote control system 20 may be implemented in any way.

또한, 원격 제어 시스템(20)은 보안 로봇에 의해 촬영된 주변 영상 데이터를 표시하는 디스플레이 장치를 포함하도록 구성될 수 있다. 따라서, 조종자는 상기 디스플레이 장치를 통해 보안 로봇의 주변 환경을 인지하고, 적절하게 원격 제어를 수행할 수 있다.In addition, the remote control system 20 may be configured to include a display device that displays surrounding image data captured by a security robot. Therefore, the operator can recognize the surrounding environment of the security robot through the display device and perform remote control as appropriate.

상기 로봇 제어 시스템에서, 보안 로봇은 원격 제어 시스템(20)에 의해 제어되는 로봇이다. 특히, 도 3에 도시된 바와 같이 보안 로봇은 지상 로봇(200), 드론(100) 등과 같이 모든 형태의 로봇을 포함할 수 있다.In the robot control system, the security robot is a robot controlled by the remote control system 20. In particular, as illustrated in FIG. 3, the security robot may include all types of robots, such as the ground robot 200 and the drone 100.

상기 로봇 제어 시스템에서, 제어 장치는 다양한 제어 값을 기초로 보안 로봇을 제어하기 위한 목표 제어 값을 생성하는 컴퓨팅 장치이다. 여기서, 상기 컴퓨팅 장치는, 노트북, 데스크톱(desktop), 랩탑(laptop) 등이 될 수 있으나, 이에 국한되는 것은 아니며 연산 수단이 구비된 모든 종류의 장치를 포함할 수 있다. 상기 컴퓨팅 장치의 일 예는 도 18을 참조하도록 한다.In the robot control system, the control device is a computing device that generates a target control value for controlling the security robot based on various control values. Here, the computing device may be a laptop, a desktop, a laptop, or the like, but is not limited thereto, and may include all kinds of devices equipped with computing means. An example of the computing device will be described with reference to FIG. 18.

상기 목표 제어 값은 보안 로봇의 목표 제어 상태(e.g. 조향각, 속도)를 가리키는 값이기 때문에, 보안 로봇에 입력되는 최종 제어 값은 상기 목표 제어 값과 다를 수 있다. 예를 들어, 상기 최종 제어 값은 보안 로봇의 현재 제어 상태(e.g. 현재 속도, 현재 조향각)와 상기 목표 제어 값 기반으로 다양한 제어 알고리즘에 의해 생성될 수 있다. 다만, 본 발명의 논지를 흐리지 않기 위해 이에 대한 자세한 설명은 생략하도록 한다.Since the target control value is a value indicating the target control state (e.g. steering angle, speed) of the security robot, the final control value input to the security robot may be different from the target control value. For example, the final control value may be generated by various control algorithms based on the current control state (e.g. current speed, current steering angle) of the security robot and the target control value. However, a detailed description thereof will be omitted so as not to obscure the subject matter of the present invention.

도 4는 본 발명의 몇몇 실시예에 따른 또 다른 보안 로봇 제어 시스템을 나타내는 예시적인 구성도이다.4 is an exemplary configuration diagram showing another security robot control system according to some embodiments of the present invention.

도 4를 참조하면, 로봇 제어 시스템에는 운영 관제 서버와 LTE 라우터 그리고 사용자 단말이 더 포함될 수 있다. LTE 라우터는 드론 및 주행 로봇의 영상을 수신하고 이들의 상태나 경로 정보에 대해 실시간으로 수신하여 운영 관제 서버나 운영 관리 서버로 송신할 수 있다. Referring to FIG. 4, the robot control system may further include an operation control server, an LTE router, and a user terminal. The LTE router may receive images of drones and driving robots and receive the status or route information of them in real time and transmit them to an operation control server or operation management server.

도 3 내지 도 4에 도시된 시스템을 통해 원격 제어 장치를 통해 입력된 상기 보안 로봇에 대한 제1 위험도를 획득하는 단계, 자율 보안 모듈에 의해 생성된 상기 보안 로봇에 대한 제2 위험도를 획득하는 단계, 상기 보안 로봇의 상황 복잡도에 기초하여 가중치를 결정하는 단계 및 상기 결정된 가중치, 상기 제1 위험도 및 상기 제2 위험도에 기초하여 우선 순위를 생성하는 단계가 수행될 수 있다.Obtaining a first risk for the security robot input through a remote control device through the system shown in Figures 3 to 4, obtaining a second risk for the security robot generated by the autonomous security module A step of determining a weight based on the situation complexity of the security robot and a step of generating a priority based on the determined weight, the first risk, and the second risk may be performed.

도 5는 본 발명의 몇몇 실시예에 따른 보안 로봇 제어 방법의 순서도이다.5 is a flowchart of a security robot control method according to some embodiments of the present invention.

단계 S100에서 제1 위험도를 획득한다. 제1 위험도란, 사용자가 원격제어 장치를 통해 입력하는 위험도를 말한다. In step S100, a first risk level is obtained. The first risk refers to the risk entered by the user through the remote control device.

제1 위험도는 보안 로봇의 순찰 지역 환경 기본 정보에 기반하여 결정될 수 있다. 예를 들어 순찰 지역이 화학 공장인지, 우범 지역인지 또는 주거 지역인지 등에 따라 위험도가 결정될 수 있다. 화학 공장인 경우 주거 지역보다는 높고 우범 지역보다는 낮은 위험도가 결정될 수 있다. The first risk may be determined based on basic information of the patrol area environment of the security robot. For example, the risk may be determined by whether the patrol area is a chemical plant, an off-site area, or a residential area. For chemical plants, risks higher than residential areas and lower than vulnerable areas can be determined.

상기 제1 위험도는 누적된 데이터에 따라 결정될 수 있다. 예를 들어 운영 관리 서버에서 해당 위험도가 지속적으로 저장되며 그에 따라 별도의 입력 없이도 해당 지역의 위험도가 업데이트 될 수 있다. The first risk may be determined according to accumulated data. For example, the corresponding risk is continuously stored in the operation management server, and accordingly, the risk of the corresponding region can be updated without additional input.

단계 S200에서 제2 위험도가 획득된다. 제2 위험도는 보안 로봇이 해당 순찰 지역을 순찰하면서 획득하는 위험도를 말한다. 이하, 도 6 내지 도 7을 참조하여 설명한다. In step S200, a second risk is obtained. The second risk refers to the risk that the security robot acquires while patrolling the patrol area. Hereinafter, it will be described with reference to FIGS. 6 to 7.

도 6은 도 5를 참조하여 설명되는 방법에 따라 제2 위험도를 획득하는 방법의 예시도이다. 도 6에는 지상 로봇(200, 201, 202)과 드론(100,101) 두 종류의 보안 로봇이 도시되어 있으나, 이는 예시적인 것이며 이에 한정되는 것은 아니다. 지상 로봇(200,201,202)은 순찰 지역을 주행하는 방식을 통해, 드론(100, 101)은 상공을 비행하는 방식을 통해 제2 위험도를 획득한다. 또는, 드론(100, 101)이 주행 로봇(200,201, 202)에 부착된 상태로 순찰하다 제2 위험도가 임계값 이상이 되는 경우, 상공으로 띄워지도록 설정될 수도 있다. 6 is an exemplary view of a method of obtaining a second risk according to the method described with reference to FIG. 5. In FIG. 6, two types of security robots are illustrated, such as the ground robots 200, 201, 202, and the drones 100, 101, but are not limited thereto. The ground robots 200, 201, and 202 acquire a second risk through a method of driving the patrol area, and the drones 100 and 101 fly through the air. Alternatively, when the drones 100 and 101 patrol in a state attached to the driving robots 200, 201 and 202, the second danger level may be set to float above the threshold.

다만, 제1 위험도와 제2 위험도 외에도 우선 순위를 생성하는 단계에 제3 위험도를 더 기반할 수 있다. 제3 위험도란, 원격 제어 장치를 제어하는 사용자의 패턴을 학습한 기계 학습 모델에 기초하여 생성된 위험도를 말한다.However, in addition to the first risk and the second risk, the third risk may be further based on the step of generating the priority. The third risk refers to a risk generated based on a machine learning model that has learned a pattern of a user who controls a remote control device.

도 7을 참조하여 제3 위험도에 대해 좀 더 자세히 설명한다. The third risk will be described in more detail with reference to FIG. 7.

도 7은 기 학습된 CNN(convolutional neural network)을 이용하여 영상 데이터(701)로부터 다양한 주변 환경 특징(706)을 추출하는 것을 예로써 도시하고 있으나, 본 발명의 기술적 범위가 이에 한정되는 것은 아니다. 예컨대, 당해 기술 분야에서 널리 알려진 컴퓨터 비전 알고리즘(computer vision algorithm)을 이용하여 주변 환경 특징(706)이 추출될 수도 있다.7 illustrates an example of extracting various surrounding environment features 706 from the image data 701 using a pre-trained convolutional neural network (CNN), but the technical scope of the present invention is not limited thereto. For example, the surrounding environment feature 706 may be extracted using a computer vision algorithm well known in the art.

상기 학습 과정은 주변 환경 특징(706)에 대한 기계 학습을 수행하는 과정이다. 이때, 주변 환경 특징(706) 등은 기계 학습 모델의 입력 데이터로 이용되고, 원격 제어 값(미도시)는 출력 레이어의 예측 제어 값(73)과 비교를 통해 기계 학습 모델의 가중치를 갱신하는 용도로 이용될 수 있다. 도 7은 ANN(artificial neural network) 기반의 딥 러닝 모델을 이용하여 기계 학습이 수행되는 것을 예로써 도시하고 있으나, 본 발명의 기술적 범위가 이에 한정되는 것은 아니다. 얼마든지 다른 종류의 기계 학습 알고리즘을 이용하여 패턴에 대한 학습이 수행될 수도 있다.The learning process is a process of performing machine learning on the environment feature 706. At this time, the surrounding environment feature 706 is used as input data of the machine learning model, and the remote control value (not shown) is used to update the weight of the machine learning model through comparison with the prediction control value 73 of the output layer. Can be used as 7 illustrates an example in which machine learning is performed using an artificial neural network (ANN) -based deep learning model, but the technical scope of the present invention is not limited thereto. Pattern learning may be performed using any other type of machine learning algorithm.

복수의 사용자에 대한 패턴 학습은 학습 데이터가 복수의 사용자에 대한 학습 데이터로 확장되는 것일 뿐이므로, 이에 대한 설명은 생략하도록 한다. 물론, 실시예에 따라, 개별 사용자의 패턴을 학습한 복수의 기계 학습 모델이 구축될 수도 있고, 복수의 사용자의 주행 패턴을 학습한 단일 기계 학습 모델이 구축될 수도 있다. 복수의 기계 학습 모델이 구축된 경우, 복수의 사용자에 대한 패턴 제어 값은 개별 사용자의 패턴 제어 값의 평균, 가중 평균 등에 기초하여 결정될 수 있다. 이때, 상기 가중 평균에 이용되는 가중치는 예컨대 각 기계 학습 모델의 정확도, 학습 성숙도 등이 이용될 수 있다.Since pattern learning for a plurality of users is only that learning data is extended to learning data for a plurality of users, a description thereof will be omitted. Of course, depending on the embodiment, a plurality of machine learning models learning the patterns of individual users may be built, or a single machine learning model learning the driving patterns of multiple users may be built. When a plurality of machine learning models are constructed, the pattern control values for the plurality of users may be determined based on the average, weighted average, etc. of the pattern control values of individual users. In this case, the weight used for the weighted average may be, for example, accuracy of each machine learning model, learning maturity, and the like.

다시 도 5를 참조하면, 단계 S300에서 상황 복잡도에 기초하여 가중치가 결정된다. 상황 복잡도란, 보안 로봇의 주변 환경 및 현재 미션의 중요도 등에 따른 종합적인 사항을 말한다. 이에 대해 도 8 내지 도 9를 참조하여 설명한다.Referring back to FIG. 5, in step S300, a weight is determined based on the situation complexity. Situation complexity refers to the overall matters according to the security robot's surroundings and the importance of the current mission. This will be described with reference to FIGS. 8 to 9.

도 8은 일 실시예에 따라 주변 객체에 대한 센싱 데이터에 기초하여 상황 복잡도를 결정하는 방법의 순서도이다.8 is a flowchart of a method for determining situation complexity based on sensing data for surrounding objects according to an embodiment.

먼저, 단계 S301에서 센싱 데이터가 수신된다. 센싱 데이터란 보안 로봇에 부착된 센서를 통해 수신되는 모든 종류의 데이터를 의미한다. 예를 들어 상기 데이터에는 음성 데이터, 영상 데이터, 360도 파노라마 영상 데이터 또는 적외선 탐지 데이터 등이 포함될 수 있다. 단계 S302에서 상기 수신된 센싱 데이터가 분석된다. 센싱 데이터 분석에는 머신 러닝이 이용될 수 있다. 단계 S303에서 상황 복잡도가 결정된다. 단계 S304에서 상황 복잡도에 따른 가중치가 결정된다.First, in step S301, sensing data is received. Sensing data means all kinds of data received through sensors attached to security robots. For example, the data may include audio data, image data, 360-degree panoramic image data, or infrared detection data. In step S302, the received sensing data is analyzed. Machine learning can be used to analyze sensing data. In step S303, the situation complexity is determined. In step S304, the weight according to the situation complexity is determined.

이에 대하여 도 9를 참조하여 자세히 설명한다. 도 9에는 센싱 데이터의 예로 영상 데이터(900)인 경우가 도시되어 있다. 먼저, 영상 데이터(900)가 수신된다. 이 때, 영상 데이터(900)는 복수의 센서로부터 수신된 데이터 일 수 있다. 상기 수신된 영상 데이터(900)는 학습 데이터(901)로 송신된다. 학습 데이터(901)는 수신된 영상 데이터(900)를 기반으로 객체 인식 결과, 장애물 유무, 충돌 위험도 등을 학습하여 주변 환경의 특징을 분석한다. 상기 분석에 대하여는 전술한 방법과 동일한 방법이 이용될 수 있다. This will be described in detail with reference to FIG. 9. 9 illustrates an example of sensing data as image data 900. First, image data 900 is received. At this time, the image data 900 may be data received from a plurality of sensors. The received image data 900 is transmitted as learning data 901. The learning data 901 analyzes the characteristics of the surrounding environment by learning the object recognition result, the presence or absence of an obstacle, and the risk of collision based on the received image data 900. For the analysis, the same method as described above can be used.

다시, 도 5를 참조하면, 단계 S400에서 우선 순위가 생성된다. 우선 순위는 긴급한 사안인지의 정도에 따라 숫자로 설정될 수도 있고, '긴급, 순차, 안전'의 단계로 설정될 수도 있다. 또는 '긴급, 순차, 안전'의 대분류를 나누고, 우선순위 점수에 따라 각 분류 내에서 숫자로 설정될 수도 있다. 이 외에도 다양한 방식으로 사용자가 설정할 수 있다.Referring again to FIG. 5, priority is generated in step S400. The priority may be set as a number according to the degree of emergency awareness, or may be set as a step of 'urgent, sequential, safety'. Or, it can be divided into major categories of 'emergency, sequential, and safety', and can be set as numbers within each category according to the priority score. In addition to this, it can be set by the user in various ways.

도 10은 일 실시예에 따라 우선 순위가 결정되는 방법에 대한 순서도이다.10 is a flowchart of a method for determining priority according to an embodiment.

단계 S401에서 우선 순위가 결정된다. 단계 S402에서 상기 결정된 우선 순위와 제1 위험도의 차이가 임계값 이상인지 판단된다. Priority is determined in step S401. In step S402, it is determined whether the difference between the determined priority and the first risk is greater than or equal to a threshold.

예를 들어 결정된 우선 순위가 대분류는 순차에 속하고, 순차 안에서 가장 높은 점수를 가진다고 가정한다. 이 때 제1 위험도가 우발 지역이거나 위험 지역인 경우는 제1 위험도 자체에 부여된 우선 점수가 높을 것이기 때문에 상기 결정된 우선 순위와 제1 위험도의 차이가 임계값 이하일 것이다. 이와 반대로 제1 위험도가 안전 지역인 경우에도 상기 우선 순위가 결정되는 경우는 제1 위험도 자체에 부여된 우선 점수가 낮았을 것이기 때문에 결정된 우선 순위와 제1 위험도의 차이가 임계값 이상이다. 이 경우 안전 지대임에도 긴급한 상황이 발생했을 가능성이 매우 크다.For example, suppose that the determined priority belongs to the sequential order and has the highest score in the sequential order. At this time, if the first risk is a contingency area or a danger area, the priority score given to the first risk itself will be high, so the difference between the determined priority and the first risk will be below the threshold. On the contrary, when the priority is determined even when the first risk is a safe area, the difference between the determined priority and the first risk is greater than or equal to the threshold because the priority score given to the first risk itself would have been low. In this case, it is very likely that an emergency occurred despite being a safety zone.

따라서 결정된 우선 순위와 제1 위험도의 차이가 임계값 이상인 경우, 단계 S403에서 이벤트를 송신한다. 이벤트란 별도의 신호를 송신하는 모든 동작을 의미한다. 예를 들어, 이벤트는 관제 센터의 원격 조종사에게 현장의 상황을 좀 더 주의 깊게 판단해야 한다는 알림을 의미한다. 또는 상기 보안 로봇 주위에 있는 사람들에게 알리기 위한 상기 보안 로봇에 부착된 LED알림이나 사운드 알림을 의미할 수도 있다. Therefore, when the difference between the determined priority and the first risk is greater than or equal to a threshold, an event is transmitted in step S403. An event means any operation that transmits a separate signal. For example, an event means a notification to a remote pilot in the control center that the situation in the field needs to be judged more carefully. Alternatively, it may mean an LED notification or a sound notification attached to the security robot for notifying people around the security robot.

다시 도 5를 참조하면, 단계 S500에서 우선 순위에 따른 데이터가 송신된다. 우선 순위에 따른 데이터란, 사용자의 설정에 따라 다양한 방식으로 지정될 수 있다. Referring again to FIG. 5, data according to priority is transmitted in step S500. Data according to priority may be specified in various ways according to a user's setting.

예를 들어 우선 순위가 높을수록 빠른 전송 속도로 데이터를 송신할 수 있다. 또는 전송 주기(1hz~60hz 등)를 다르게 적용하는 알고리즘을 통해 차별화할 수도 있다.For example, the higher the priority, the faster the data can be transmitted. Alternatively, the transmission cycle (1hz to 60hz, etc.) may be differentiated through an algorithm that applies differently.

다른 예로 우선 순위가 높을수록 음성, 이미지, 영상의 순으로 데이터의 종류를 차등화하여 송신할 수 있다. 즉, 위험도가 낮은 경우에는 로봇의 현재 위치 정보만 송신하고, 위험도가 증가할수록 추가적으로 로봇의 배터리, 구동 상태 등을 송신하도록 할 수 있다. As another example, the higher the priority, the different types of data can be transmitted in order of voice, image, and video. That is, when the risk is low, only the current location information of the robot is transmitted, and as the risk increases, the robot's battery, driving state, and the like can be additionally transmitted.

또 다른 예로 우선 순위가 높을수록 송신할 데이터의 압축을 하지 않아 높은 해상도의 데이터를 송신할 수도 있다. 즉, 위험도가 상승할수록 저해상도(e.g 24fps)에서 고해상도(e.g 120fps)의 데이터를 송신할 수 있다.As another example, the higher the priority, the higher the resolution of the data to be transmitted without compressing the data to be transmitted. That is, as the risk increases, data of high resolution (e.g. 120 fps) can be transmitted at low resolution (e.g. 24 fps).

도 5에는 미도시 되었지만, 상기 송신한 데이터에 대해 오퍼레이션이 수신된다. 상기 오퍼레이션이란, 보안 로봇이 수행할 수 있는 다양한 동작을 의미한다. 예를 들어, 화제 진압, 관제 시스템에 연락, CPR 등의 응급처치, 방범 효과를 위한 시청각 효과 디스플레이 등이 있다.Although not shown in FIG. 5, an operation is received for the transmitted data. The operation means various operations that the security robot can perform. Examples include suppression of topics, contact with the control system, first aid such as CPR, and audiovisual effects display for crime prevention effects.

상기 수신된 오퍼레이션에 따라 보안 로봇은 각 오퍼레이션을 수행한다. 이 때 상기 오퍼레이션을 수행함에 있어서도 상기 송신한 데이터의 우선순위에 따를 수 있다.The security robot performs each operation according to the received operation. At this time, even in performing the operation, it is possible to follow the priority of the transmitted data.

예를 들어 긴급에 해당하는 데이터에 대한 오퍼레이션과 보통에 해당하는 데이터에 대한 오퍼레이션이 동시에 수신되는 경우, 상기 긴급에 해당하는 데이터에 대한 오퍼레이션을 먼저 수행하는 것이다. 즉, 동시에 여러 오퍼레이션이 수신된 경우에도 긴급한 사건부터 먼저 처리할 수 있게 되는 것이다.For example, when an operation for data corresponding to an emergency and an operation for data corresponding to a normal are simultaneously received, the operation for the data corresponding to the emergency is performed first. That is, even if multiple operations are simultaneously received, it is possible to process an urgent event first.

또한, 상기 오퍼레이션을 수행하는 동작은 보안 로봇의 머신 러닝 등의 학습에 의하여 이루어질 수 있다. 이에 대해서는 전술한 바, 생략한다.In addition, the operation for performing the operation may be performed by learning, for example, machine learning of a security robot. As described above, it is omitted.

도 11은 또 다른 실시예에 따른 보안 로봇의 제어 방법의 시스템 구성도이다.11 is a system configuration diagram of a method for controlling a security robot according to another embodiment.

도 11은 서비스 서버(10)와 원격 제어 시스템(20) 외에도 관제 시스템이 더 도시되어 있으며, 이들은 네트워크를 통해 연결될 수 있다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일뿐이며 필요에 따라 일부 구성 요소가 추가되거나 삭제될 수 있음은 물론이다.11 shows a control system in addition to the service server 10 and the remote control system 20, which can be connected via a network. However, this is only a preferred embodiment for achieving the object of the present invention, and of course, some components may be added or deleted as necessary.

각 구성 요소에 대하여 간략하게 살펴보면, 서비스 서버(10)는 보안 요청을 위한 웹 페이지를 관리하거나, 보안 요청 이력을 관리하는 등 보안 서비스와 연관된 전반적인 기능을 수행하는 컴퓨팅 장치이다. 서비스 서버(10)는 사용자 단말(미도시)로부터 보안 요청을 수신하고, 상시 보안 요청에 따른 임무 생성을 관제 시스템으로 요청할 수 있다.Looking briefly about each component, the service server 10 is a computing device that performs overall functions related to security services, such as managing a web page for a security request or managing a history of security requests. The service server 10 may receive a security request from a user terminal (not shown), and request a control system to generate a task according to the security request at all times.

다음으로 관제 시스템은, 보안 로봇의 임무 생성, 임무 할당, 보안 로봇의 모니터링과 같이 보안 로봇에 대한 전반적인 관제 기능을 수행하는 시스템이다. 관제 시스템은 보안 로봇과의 실시간 통신을 수행하며 각종 모니터링 및 제어 기능을 수행할 수 있다. 도 11에 도시된 바와 같이, 관제 시스템은 다수의 로봇을 모니터링 하기 위해 가수의 디스플레이를 포함하도록 구현할 수 있다. Next, the control system is a system that performs overall control functions for the security robot, such as task creation, task assignment, and security robot monitoring. The control system performs real-time communication with the security robot and can perform various monitoring and control functions. As shown in FIG. 11, the control system can be implemented to include a singer's display to monitor multiple robots.

또한 몇몇 실시예에 따르면, 관제 시스템은 실시간으로 보안 로봇에서 수집한 많은 데이터들을 저장할 수 있다. 예를 들어, 상기 보안 로봇의 데이터는 주기적으로 압축된다. 또는 작은 이벤트 발생 시 그 발생 시점까지의 데이터가 압축될 수도 있다. 상기 압축된 데이터는 관제실로 송부된다. 상기 송부된 데이터는 보안 로봇의 우선 순위 등이 증가 시 관제실에서 추가 압축 해제되어 바로 reply된다. 즉, 보안 로봇의 우선 순위 증가시 추가 입력 없이도 관제실에서 바로 상황을 reply 할 수 있다.In addition, according to some embodiments, the control system may store a lot of data collected by the security robot in real time. For example, data of the security robot is periodically compressed. Alternatively, when a small event occurs, data up to the time of occurrence may be compressed. The compressed data is sent to the control room. When the priority of the security robot increases, the transmitted data is additionally decompressed in the control room and immediately returned. That is, when the priority of the security robot is increased, the situation can be replied immediately in the control room without additional input.

다음으로, 원격 제어 시스템은 보안 로봇에 대한 원격 제어 기능이 구비된 시스템이다. 몇몇 실시예에서 조종자가 원격 제어 시스템을 통해 직접 보안 로봇을 제어하며 보안 서비스를 제공할 수도 있다. 원격 제어 시스템에 대한 설명은 전술한 설명 부분을 참조하도록 한다.Next, the remote control system is a system equipped with a remote control function for the security robot. In some embodiments, the operator may directly control the security robot through a remote control system and provide security services. For the description of the remote control system, refer to the above description.

도 12는 본 발명의 또 다른 실시예에 따른 보안 로봇 제어 방법에 대한 순서도이다. 단계 S1000에서 제1 위험도를 송신한다. 단계 S2000에서 우선 순위에 따른 데이터를 수신한다. 이에 대해 도 13을 참조하여 자세히 설명한다.12 is a flowchart of a method for controlling a security robot according to another embodiment of the present invention. In step S1000, the first risk level is transmitted. In step S2000, data according to priority is received. This will be described in detail with reference to FIG. 13.

단계 S2001에서 우선 순위가 긴급에 해당하는지 판단된다. 우선 순위가 긴급에 해당하는 경우, 단계 S2002에서 처리 가능한지 판단된다. 처리 불가능하다고 판단되는 경우, 단계 S2003에서 다른 원격 장치로 데이터가 송신된다. 상기 송신되는 다른 원격 장치란, 동급의 관제 센터에 속하는 것일 수도 있고 상위 관제 센터에 속하는 것일 수도 있다. In step S2001, it is determined whether the priority is urgent. If the priority is urgent, it is determined whether it can be processed in step S2002. When it is determined that processing is impossible, data is transmitted to another remote device in step S2003. The other remote device to be transmitted may belong to a control center of the same class or may belong to a higher level control center.

도 13은 이에 대한 예시도이다. 데이터를 송신 받은 관제 센터(1201)에 긴급한 사건이 동시에 발생하여 처리가 불가능한 경우, 상기 처리 불가능한 사건에 관한 데이터를 송부하고 이에 대한 제어권을 다른 관제 센터(1202)로 이양하는 것이다. 이러한 동작을 통해 동시 다발적으로 일어나는 긴급 상황에 대해서도 모두 딜레이 없이 처리 가능한 효과가 있다. 13 is an example of this. When an urgent event occurs simultaneously in the control center 1201 that has received the data, and processing is impossible, data on the unprocessable event is transmitted and control is transferred to another control center 1202. Through this operation, there is an effect that can be processed without delay even for emergency situations that occur simultaneously.

상기 제어권 이양을 위해 각 제어 장치별, 각 로봇의 수행 미션 별, 각 로봇의 로케이션 별로 비상상황 시 제어를 담당할 오퍼레이터 우선 순위가 미리 계산되어 저장되어 있을 수 있다. 즉, 제어권 이양시 상기 저장된 오퍼레이터 우선 순위에 따라 딜레이 없이 제어권이 이양될 수 있다.In order to transfer the control right, the priority of the operator in charge of control in an emergency situation for each control device, for each robot's execution mission, and for each robot's location may be calculated and stored in advance. That is, when the control right is transferred, the control right can be transferred without delay according to the stored operator priority.

다시 도 14로 돌아오면, 단계 S3000에서 상기 우선 순위에 따라 상기 데이터가 순차적으로 디스플레이 된다. 전술한 바와 같이, 우선 순위에 따라 수신되는 데이터는 다양하므로 각 데이터에 따라 디스플레이 되는 방식 또한 다양할 수 있다.14, the data is sequentially displayed according to the priority in step S3000. As described above, the data received according to the priority is various, so the manner of being displayed according to each data may also vary.

도 14 내지 도 15는 송신된 데이터가 360도 파노라마 영상인 경우, 원격 제어 장치에 VR 화면이 디스플레이 되는 예시도이다. 14 to 15 are exemplary views in which a VR screen is displayed on a remote control device when the transmitted data is a 360-degree panoramic image.

도 14는 1인칭 시점의 예시도이다. 상기 1인칭 조종사는 보안 로봇의 위치에서 좀 더 효율적이고 생생하게 주변 환경을 순찰할 수 있을 것이다. 이에 반해 도 15는 3인칭 시점의 예시도이다. 이러한 3인칭 시점은 드론의 위치에서 주변 환경을 순찰하는 경우의 시점일 수도 있다. 원격 로봇 관점에서, 사용자가 인지하지 못하는 원격지, 즉 보안 로봇의 주변 환경 변수로 인한 위험을 줄이는 효과가 있다.  14 is an exemplary view of the first person view. The first person pilot will be able to patrol the surrounding environment more efficiently and vividly from the position of the security robot. In contrast, FIG. 15 is an exemplary view of the third person view. This third person view may be a view of patrolling the surrounding environment from the position of the drone. From a remote robot perspective, there is an effect of reducing the risk due to the environment variables of the security robot, that is, a remote location that the user is not aware of.

또한, 주변 환경 변수로 인한 위험을 줄임으로써 정확한 제어 요청이 가능하고, 정확한 제어 요청은 사고 위험도를 줄이는 효과로 이어질 것이다.In addition, it is possible to request an accurate control by reducing the risk due to environmental variables, and an accurate control request will lead to an effect of reducing the risk of an accident.

본 발명의 몇몇 실시예에 따르면, 보안 로봇의 제어 방법을 통해 공공기관과의 협력이 가능하다. 이하, 도 17을 참조하여 설명한다.According to some embodiments of the present invention, cooperation with a public institution is possible through a control method of a security robot. It will be described below with reference to FIG. 17.

도 17에는 지상 로봇(200)과 드론(100)이 보안을 위한 순찰을 수행하고 있다. 이 때 돌발상황이 발생한다. 보안 로봇(100, 200)은 본 발명의 몇몇 실시예에 따른 제어 방법에 따라 상기 돌발상황의 우선 순위를 결정하고, 결정된 우선순위에 따라 관제 센터에 이에 대한 데이터를 전송할 수 있다. 이 때, 결정된 우선 순위에 따라 보안 로봇이 관제기관에도 데이터를 전송하여 돌발 상황에 대해 제보할 수 있다. 관제 기관의 예로는 관할 경찰서, 관할 소방서 등이 해당할 수 있다. 또는 관제 센터에서 관제 기관으로 제보할 수도 있을 것이다. 관제 기관과의 협력을 통해 돌발 상황에 대해 빠르고 정확하게 대처할 수 있는 효과를 얻을 수 있다.17, the ground robot 200 and the drone 100 perform patrol for security. At this time, an unexpected situation occurs. The security robots 100 and 200 may determine the priority of the unexpected situation according to a control method according to some embodiments of the present invention, and transmit data to the control center according to the determined priority. At this time, according to the determined priority, the security robot may transmit data to the control authority to report the unexpected situation. An example of a control agency may include a police station having jurisdiction, a fire department having jurisdiction, and the like. Alternatively, the control center may report to the control organization. Through cooperation with the control organization, it is possible to obtain an effect to quickly and accurately respond to an unexpected situation.

이하에서는, 도 18을 참조하여 본 발명의 다양한 실시예들에 따른 장치 및/또는 시스템을 구현할 수 있는 예시적인 컴퓨팅 장치(2000)에 대하여 설명하도록 한다.Hereinafter, an exemplary computing device 2000 capable of implementing an apparatus and / or system according to various embodiments of the present invention will be described with reference to FIG. 18.

도 18은 상기 예시적인 컴퓨팅 장치(2000)를 나타내는 예시적인 하드웨어 구성도이다.18 is an exemplary hardware configuration diagram illustrating the exemplary computing device 2000.

도 18에 도시된 바와 같이, 컴퓨팅 장치(2000)는 하나 이상의 프로세서(2001), 버스(2005), 통신 인터페이스(2007), 프로세서(2001)에 의하여 수행되는 컴퓨터 프로그램(2009a)을 로드(load)하는 메모리(2003)와, 컴퓨터 프로그램(2009a)을 저장하는 스토리지(2009)를 포함할 수 있다. 다만, 도 19에는 본 발명의 실시예와 관련 있는 구성요소들 만이 도시되어 있다. 따라서, 본 발명이 속한 기술분야의 통상의 기술자라면 도 19에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.As shown in FIG. 18, the computing device 2000 loads one or more processors 2001, buses 2005, communication interfaces 2007, and computer programs 2009a performed by the processors 2001. It may include a memory (2003) and a storage (2009) for storing a computer program (2009a). However, only components related to the embodiment of the present invention are illustrated in FIG. 19. Therefore, it can be seen that a person skilled in the art to which the present invention pertains may include other general-purpose components in addition to the components shown in FIG. 19.

프로세서(2001)는 컴퓨팅 장치(2000)의 각 구성의 전반적인 동작을 제어한다. 프로세서(2001)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 프로세서(2001)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 컴퓨팅 장치(2000)는 하나 이상의 프로세서를 구비할 수 있다.The processor 2001 controls the overall operation of each component of the computing device 2000. The processor 2001 includes a CPU (Central Processing Unit), an MPU (Micro Processor Unit), an MCU (Micro Controller Unit), a GPU (Graphic Processing Unit), or any type of processor well known in the art. Can be. Further, the processor 2001 may perform operations on at least one application or program for executing the method according to embodiments of the present invention. Computing device 2000 may include one or more processors.

메모리(2003)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(2003)는 본 발명의 다양한 실시예들에 따른 방법/동작을 수행하기 위해 스토리지(2009)로부터 컴퓨터 프로그램(2009a)을 로드할 수 있다. 메모리(2003)는 RAM과 같은 휘발성 메모리로 구현될 수 있으나, 본 발명의 기술적 범위가 이에 한정되는 것은 아니다.The memory 2003 stores various data, commands and / or information. The memory 2003 can load the computer program 2009a from the storage 2009 to perform a method / operation according to various embodiments of the present invention. The memory 2003 may be implemented as a volatile memory such as RAM, but the technical scope of the present invention is not limited thereto.

버스(2005)는 컴퓨팅 장치(2000)의 구성 요소 간 통신 기능을 제공한다. 버스(2005)는 주소 버스(Address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.The bus 2005 provides communication functions between components of the computing device 2000. The bus 2005 may be implemented as various types of buses such as an address bus, a data bus, and a control bus.

통신 인터페이스(2007)는 컴퓨팅 장치(2000)의 유무선 인터넷 통신을 지원한다. 또한, 통신 인터페이스(2007)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(2007)는 본 발명의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다.The communication interface 2007 supports wired and wireless Internet communication of the computing device 2000. In addition, the communication interface 2007 may support various communication methods other than Internet communication. To this end, the communication interface 2007 may include a communication module well known in the technical field of the present invention.

스토리지(2009)는 하나 이상의 프로그램(2009a)을 비임시적으로 저장할 수 있다. 스토리지(2009)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.The storage 2009 may store one or more programs 2009a non-temporarily. Storage (2009) is a non-volatile memory such as Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EPMROM), flash memory, or the like, well in the technical field to which the present invention pertains. And any known form of computer-readable recording media.

컴퓨터 프로그램(2009a)은 메모리(2003)에 로드될 때, 프로세서(2001)로 하여금 본 발명의 다양한 실시예들에 따른 동작/방법을 수행하도록 하는 하나 이상의 인스트럭션들을 포함할 수 있다. 프로세서(2001)는 상기 하나 이상의 인스트럭션들을 실행함으로써, 본 발명의 다양한 실시예들에 따른 동작/방법을 수행할 수 있다.Computer program 2009a, when loaded into memory 2003, may include one or more instructions that cause processor 2001 to perform an operation / method in accordance with various embodiments of the present invention. The processor 2001 may execute operations / methods according to various embodiments of the present invention by executing the one or more instructions.

예를 들어, 컴퓨터 프로그램(2009a)은 원격 제어 시스템(20)를 통해 입력된 보안 로봇(30)에 대한 원격 제어 장치를 통해 입력된 상기 보안 로봇에 대한 제1 위험도를 획득하는 동작, 자율 보안 모듈에 의해 생성된 상기 보안 로봇에 대한 제2 위험도를 획득하는 동작, 상기 보안 로봇의 상황 복잡도에 기초하여 각 위험도에 대한 가중치를 결정하는 동작 및 상기 결정된 가중치, 상기 제1 위험도 및 상기 제2 위험도에 기초하여 상기 보안 로봇의 우선 순위를 생성하는 동작을 수행하도록 하는 인스트럭션들(instructions)을 포함할 수 있다. 이와 같은 경우, 컴퓨팅 장치(2000)를 통해 제어 장치가 구현될 수 있다.For example, the computer program 2009a is an operation for acquiring a first risk level for the security robot input through the remote control device for the security robot 30 input through the remote control system 20, an autonomous security module Acquiring a second risk for the security robot generated by, determining a weight for each risk based on the situation complexity of the security robot, and determining the weight, the first risk, and the second risk It may include instructions to perform an operation for generating the priority of the security robot on the basis of. In this case, the control device may be implemented through the computing device 2000.

지금까지 도 18를 참조하여 본 발명의 다양한 실시예들에 따른 장치 및/또는 시스템들을 구현할 수 있는 예시적인 컴퓨팅 장치(2000)에 대하여 설명하였다.So far, an exemplary computing device 2000 capable of implementing devices and / or systems according to various embodiments of the present invention has been described with reference to FIG. 18.

지금까지 도 1 내지 도 18를 참조하여 본 발명의 몇몇 실시예들 및 상기 실시예들에 따른 효과들을 언급하였다. 본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.So far, some embodiments of the present invention and effects according to the above embodiments have been described with reference to FIGS. 1 to 18. The effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

지금까지 도 1 내지 도 18를 참조하여 설명된 본 발명의 개념은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.The concept of the present invention described so far with reference to FIGS. 1 to 18 may be embodied as computer readable code on a computer readable medium. The computer-readable recording medium may be, for example, a removable recording medium (CD, DVD, Blu-ray Disc, USB storage device, removable hard disk), or a fixed recording medium (ROM, RAM, computer-equipped hard disk). Can be. The computer program recorded on the computer-readable recording medium may be transmitted to another computing device through a network such as the Internet and installed on the other computing device, and thus used on the other computing device.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.In the above, even if all the components constituting the embodiments of the present invention are described as being combined or operated as one, the present invention is not necessarily limited to these embodiments. That is, within the object scope of the present invention, all of the components may be selectively combined and operated.

도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티 태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.Although the operations in the drawings are shown in a specific order, it should not be understood that the operations must be performed in a specific order or in a sequential order, or that all the illustrated actions must be executed to obtain a desired result. In certain situations, multitasking and parallel processing may be advantageous. Moreover, the separation of various configurations in the above-described embodiments should not be understood as such separation is necessary, and the described program components and systems may generally be integrated together into a single software product or packaged into multiple software products. It should be understood that there is.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, a person skilled in the art to which the present invention pertains may be implemented in other specific forms without changing the technical concept or essential features of the present invention. Can understand. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive. The scope of protection of the present invention should be interpreted by the claims below, and all technical spirits within the equivalent range should be interpreted as being included in the scope of the present invention.

Claims (16)

제어 장치에 의해 수행되는 보안 로봇의 제어 방법에 있어서,
원격 제어 장치를 통해 입력된 상기 보안 로봇에 대한 제1 위험도를 획득하는 단계;
자율 보안 모듈에 의해 생성된 상기 보안 로봇에 대한 제2 위험도를 획득하는 단계;
상기 보안 로봇의 상황 복잡도에 기초하여 가중치를 결정하는 단계; 및
상기 결정된 가중치, 상기 제1 위험도 및 상기 제2 위험도에 기초하여 우선 순위를 생성하는 단계를 포함하는,
보안 로봇의 제어 방법.
In the control method of the security robot performed by the control device,
Obtaining a first risk level for the security robot input through a remote control device;
Obtaining a second risk for the security robot generated by the autonomous security module;
Determining a weight based on the situation complexity of the security robot; And
Generating a priority based on the determined weight, the first risk and the second risk,
Security robot control method.
제1 항에 있어서,
상기 우선 순위를 생성하는 단계는,
상기 우선 순위와 상기 제1 위험도의 차이가 임계 값 이상이라는 판정에 응답하여, 이벤트를 송신하는 단계를 더 포함하는,
보안 로봇의 제어 방법.
According to claim 1,
The step of generating the priority,
And in response to determining that the difference between the priority and the first risk is greater than or equal to a threshold, sending an event.
Security robot control method.
제1 항에 있어서,
상기 가중치를 결정하는 단계는,
상기 보안 로봇의 주변 객체에 대한 센싱 데이터에 기초하여 상기 상황 복잡도를 결정하는 단계를 포함하는,
보안 로봇의 제어 방법.
According to claim 1,
Determining the weight,
Determining the complexity of the situation based on the sensing data for the surrounding objects of the security robot,
Security robot control method.
제3 항에 있어서,
상기 보안 로봇의 센싱 데이터는 영상 데이터를 포함하고,
상기 주변 객체에 대한 상황 복잡도를 결정하는 단계는,
상기 영상 데이터로부터 상기 보안 로봇의 주변 객체의 인식 결과를 획득하는 단계; 및
상기 인식 결과에 기초하여 상기 복잡도를 결정하는 단계를 포함하는,
보안 로봇의 제어 방법.
According to claim 3,
The sensing data of the security robot includes image data,
Determining the situation complexity for the surrounding object,
Obtaining a recognition result of the surrounding object of the security robot from the image data; And
And determining the complexity based on the recognition result.
Security robot control method.
제1 항에 있어서,
상기 가중치를 결정하는 단계는,
상기 보안 로봇의 센싱 데이터에 기초하여, 상기 보안 로봇의 주변 객체에 대한 충돌 위험도를 결정하는 단계; 및
상기 충돌 위험도에 더 기초하여, 상기 각 위험도에 대한 가중치를 결정하는 단계를 포함하는,
보안 로봇의 제어 방법.
According to claim 1,
Determining the weight,
Determining a collision risk of surrounding objects of the security robot based on the sensing data of the security robot; And
And determining a weight for each risk based on the collision risk.
Security robot control method.
제1 항에 있어서,
상기 원격 제어 장치를 제어하는 사용자의 패턴을 학습한 기계 학습 모델에 기초하여 생성된 상기 보안 로봇에 대한 제3 위험도를 획득하는 단계를 더 포함하되,
상기 보안 로봇의 우선 순위를 생성하는 단계는,
상기 제3 위험도에 더 기초하여, 상기 우선 순위를 생성하는 단계를 포함하는,
보안 로봇의 제어 방법.
According to claim 1,
Further comprising the step of obtaining a third risk for the security robot generated based on the machine learning model learning the pattern of the user controlling the remote control device,
Generating the priority of the security robot,
Based on the third risk, generating the priority,
Security robot control method.
제1 항에 있어서,
상기 원격 제어 장치를 제어하는 복수의 사용자의 패턴을 학습한 기계 학습 모델에 기초하여 생성된 상기 보안 로봇에 대한 제3 위험도를 획득하는 단계를 더 포함하되,
상기 보안 로봇의 우선 순위를 생성하는 단계는,
상기 제3 위험도에 더 기초하여, 상기 우선 순위를 생성하는 단계를 포함하는,
보안 로봇의 제어 방법.
According to claim 1,
The method further includes acquiring a third risk level for the security robot generated based on a machine learning model learning patterns of a plurality of users controlling the remote control device.
Generating the priority of the security robot,
Based on the third risk, generating the priority,
Security robot control method.
제1 항에 있어서,
상기 우선 순위에 따라 데이터를 송신하는 단계를 더 포함하는,
보안 로봇의 제어 방법.
According to claim 1,
Further comprising the step of transmitting data according to the priority,
Security robot control method.
제8 항에 있어서,
상기 우선 순위에 따라 데이터를 송신하는 단계는,
상기 우선 순위가 높을 수록, 빠른 전송 속도로 데이터를 송신하는 단계를 포함하는,
보안 로봇의 제어 방법.
The method of claim 8,
The step of transmitting data according to the priority,
The higher the priority, the higher the speed of transmitting data, including the step of transmitting,
Security robot control method.
제8 항에 있어서,
상기 우선 순위에 따라 데이터를 송신하는 단계는,
상기 우선 순위에 따라 송신할 데이터의 종류를 결정하는 단계를 포함하는,
보안 로봇의 제어 방법.
The method of claim 8,
The step of transmitting data according to the priority,
Determining the type of data to be transmitted according to the priority,
Security robot control method.
제8 항에 있어서,
상기 우선 순위에 따라 데이터를 송신하는 단계는,
상기 우선 순위에 따라 송신할 데이터의 압축률을 결정하는 단계를 포함하는,
보안 로봇의 제어 방법.
The method of claim 8,
The step of transmitting data according to the priority,
And determining a compression rate of data to be transmitted according to the priority,
Security robot control method.
제1 항에 있어서,
상기 송신한 데이터에 대한 오퍼레이션을 수신하는 단계; 및
상기 송신한 데이터의 우선순위에 따라 상기 오퍼레이션을 수행하는 단계를 더 포함하는,
보안 로봇의 제어 방법.
According to claim 1,
Receiving an operation on the transmitted data; And
Further comprising the step of performing the operation according to the priority of the transmitted data,
Security robot control method.
보안 로봇의 제어 장치에 있어서,
프로세서;
메모리; 및
상기 메모리에 저장되고, 상기 프로세서에 의해 실행되는 하나 이상의 프로그램들을 포함하되,
상기 하나 이상의 프로그램들은,
원격 제어 장치를 통해 입력된 상기 보안 로봇에 대한 제1 위험도를 획득하는 동작,
자율 보안 모듈에 의해 생성된 상기 보안 로봇에 대한 제2 위험도를 획득하는 동작,
상기 보안 로봇의 상황 복잡도에 기초하여 각 위험도에 대한 가중치를 결정하는 동작 및
상기 결정된 가중치, 상기 제1 위험도 및 상기 제2 위험도에 기초하여 상기 보안 로봇의 우선 순위를 생성하는 동작을 수행하도록 하는 인스트럭션들(instructions)을 포함하되,
상기 상황 복잡도는 상기 보안 로봇의 센싱 데이터에 기초하여, 상기 보안 로봇의 주변 환경에 대한 복잡도인,
보안 로봇의 제어 장치.
In the control device of the security robot,
Processor;
Memory; And
Including one or more programs stored in the memory and executed by the processor,
The one or more programs,
Obtaining a first risk level for the security robot input through a remote control device,
Obtaining a second risk level for the security robot generated by the autonomous security module,
Determining a weight for each risk based on the situation complexity of the security robot, and
Including instructions to perform the operation of generating the priority of the security robot based on the determined weight, the first risk and the second risk,
The situation complexity is a complexity for the surrounding environment of the security robot, based on the sensing data of the security robot,
Security robot control unit.
보안 로봇을 원격으로 제어하는 원격 제어 장치가,
상기 보안 로봇에 대한 제1 위험도를 송신하는 단계;
상기 보안 로봇으로부터 우선 순위에 따른 데이터를 수신하는 단계; 및
상기 우선 순위에 따라 상기 데이터를 순차적으로 디스플레이 하는 단계를 포함하는,
보안 로봇의 제어 방법.
A remote control device that remotely controls the security robot,
Transmitting a first risk level for the security robot;
Receiving data according to priority from the security robot; And
And sequentially displaying the data according to the priority,
Security robot control method.
제14 항에 있어서,
상기 우선 순위에 따른 데이터를 수신하는 단계는,
상기 원격 제어 장치가 상기 데이터를 상기 우선 순위에 따라 처리 불가능한 경우 상기 데이터를 다른 원격 제어 장치로 송신하는 단계를 포함하는,
보안 로봇의 제어 방법.
The method of claim 14,
The step of receiving the data according to the priority,
And when the remote control device is unable to process the data according to the priority, transmitting the data to another remote control device.
Security robot control method.
제14 항에 있어서,
상기 우선 순위에 따라 상기 데이터를 순차적으로 디스플레이 하는 단계는,
상기 데이터가 360도 파노라마 영상이고, VR 시스템을 통해 제어 가능하도록 디스플레이 하는 단계를 포함하는,
보안 로봇의 제어 방법.
The method of claim 14,
The step of sequentially displaying the data according to the priority,
And displaying the data as a 360-degree panoramic image and controllable through a VR system.
Security robot control method.
KR1020180134843A 2018-11-06 2018-11-06 Method for controlling a security robot, apparatus for supporting the same KR102138006B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180134843A KR102138006B1 (en) 2018-11-06 2018-11-06 Method for controlling a security robot, apparatus for supporting the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180134843A KR102138006B1 (en) 2018-11-06 2018-11-06 Method for controlling a security robot, apparatus for supporting the same

Publications (2)

Publication Number Publication Date
KR20200051923A true KR20200051923A (en) 2020-05-14
KR102138006B1 KR102138006B1 (en) 2020-07-28

Family

ID=70737130

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180134843A KR102138006B1 (en) 2018-11-06 2018-11-06 Method for controlling a security robot, apparatus for supporting the same

Country Status (1)

Country Link
KR (1) KR102138006B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240058570A (en) 2022-10-26 2024-05-03 한국디지털포렌식센터 주식회사 System for security robots through selectively event collection and target data selection

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06155350A (en) * 1992-11-13 1994-06-03 Matsushita Electric Works Ltd Remote control robot device
JPH11149315A (en) * 1997-11-19 1999-06-02 Mitsubishi Heavy Ind Ltd Robot control system
KR100914904B1 (en) * 2009-03-13 2009-08-31 국방과학연구소 Unmanned vehicle machine, unmanned vehicle system and control method of unmanned vehicle machine
KR20110060342A (en) * 2009-11-30 2011-06-08 에스케이 텔레콤주식회사 Cctv camera device and server of safety management center using location based service, intelligent security system using the same and method thereof
KR20120131284A (en) * 2011-05-25 2012-12-05 한국폴리텍Iv대학 산학협력단 Unmanned surveillance equipment
KR101377029B1 (en) * 2013-11-29 2014-03-20 주식회사 에보시스 The apparatus and method of monitoring cctv with control moudule
JP2018018150A (en) * 2016-07-25 2018-02-01 ユニティガードシステム株式会社 Crime prevention system, crime prevention method, and robot
KR20180134155A (en) * 2017-06-08 2018-12-18 엘지전자 주식회사 Robot cleaner and robot cleaning system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06155350A (en) * 1992-11-13 1994-06-03 Matsushita Electric Works Ltd Remote control robot device
JPH11149315A (en) * 1997-11-19 1999-06-02 Mitsubishi Heavy Ind Ltd Robot control system
KR100914904B1 (en) * 2009-03-13 2009-08-31 국방과학연구소 Unmanned vehicle machine, unmanned vehicle system and control method of unmanned vehicle machine
KR20110060342A (en) * 2009-11-30 2011-06-08 에스케이 텔레콤주식회사 Cctv camera device and server of safety management center using location based service, intelligent security system using the same and method thereof
KR20120131284A (en) * 2011-05-25 2012-12-05 한국폴리텍Iv대학 산학협력단 Unmanned surveillance equipment
KR101377029B1 (en) * 2013-11-29 2014-03-20 주식회사 에보시스 The apparatus and method of monitoring cctv with control moudule
JP2018018150A (en) * 2016-07-25 2018-02-01 ユニティガードシステム株式会社 Crime prevention system, crime prevention method, and robot
KR20180134155A (en) * 2017-06-08 2018-12-18 엘지전자 주식회사 Robot cleaner and robot cleaning system

Also Published As

Publication number Publication date
KR102138006B1 (en) 2020-07-28

Similar Documents

Publication Publication Date Title
US11940797B2 (en) Navigating semi-autonomous mobile robots
US11455792B2 (en) Robot capable of detecting dangerous situation using artificial intelligence and method of operating the same
US11457788B2 (en) Method and apparatus for executing cleaning operation
KR102414902B1 (en) Method for recommending artificial intelligence model for analyzing vedio data according to camera installation environment and purpose
KR102350038B1 (en) Work management system for determining risk of target work and method there of
CN109571468A (en) Security protection crusing robot and security protection method for inspecting
Witwicki et al. Autonomous surveillance robots: A decision-making framework for networked muiltiagent systems
JP6900918B2 (en) Learning device and learning method
US20210216770A1 (en) Method and system for smart living safety response from control center and savior in view of facility and industrial safety based on extended reality and internet of thing
CN112106075A (en) Extending previously trained deep neural networks
KR20220059210A (en) System and method for vision managing of workplace and computer-readable recording medium thereof
KR102585665B1 (en) Risk Situation Analysis and Hazard Object Detection System
KR102138006B1 (en) Method for controlling a security robot, apparatus for supporting the same
KR20190094313A (en) Robot providing guide service using artificial intelligence and operating method thereof
CN113554364A (en) Disaster emergency management method, device, equipment and computer storage medium
KR102502922B1 (en) Method, device and system for alarming and monitoring of emergency situation
JP6897593B2 (en) Learning target device and operation method
KR20210004173A (en) Apparatus and method for user monitoring
KR20220063865A (en) System and method for vision managing of workplace and computer-readable recording medium thereof
WO2022242827A1 (en) Information aggregation in a multi-modal entity-feature graph for intervention prediction
JP7330758B2 (en) Information processing method and information processing system
US10824126B2 (en) Device and method for the gesture control of a screen in a control room
KR101861097B1 (en) School safety management system, method and program using robot
KR102647135B1 (en) Real-time crack detection system for construction site using artificial intelligence-based object detection algorithm and operation method therefor
WO2018168537A1 (en) Learning target apparatus and operating method

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant