KR20220035767A - Electronic apparatus and controlling method thereof - Google Patents

Electronic apparatus and controlling method thereof Download PDF

Info

Publication number
KR20220035767A
KR20220035767A KR1020200117915A KR20200117915A KR20220035767A KR 20220035767 A KR20220035767 A KR 20220035767A KR 1020200117915 A KR1020200117915 A KR 1020200117915A KR 20200117915 A KR20200117915 A KR 20200117915A KR 20220035767 A KR20220035767 A KR 20220035767A
Authority
KR
South Korea
Prior art keywords
robot
space
information
controlling
electronic device
Prior art date
Application number
KR1020200117915A
Other languages
Korean (ko)
Inventor
김현준
김의식
이예나
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020200117915A priority Critical patent/KR20220035767A/en
Priority to PCT/KR2021/009249 priority patent/WO2022055117A1/en
Publication of KR20220035767A publication Critical patent/KR20220035767A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72415User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치의 제어 방법이 개시된다. 본 개시에 따른 전자 장치의 제어 방법은 제1 공간에 위치하는 제1 로봇을 제어하기 위한 UI를 표시하는 단계, 사용자 조작 명령에 기초하여 제1 로봇을 제어하기 위한 제어 명령을 제1 로봇에 전송하는 단계, 제1 로봇이 제1 공간과 다른 제2 공간으로 이동하기 어려우면, 제2 공간에 위치하는 제2 로봇을 확인하는 단계 및 확인된 제2 로봇을 제어하기 위한 UI를 표시하는 단계를 포함한다. A method for controlling an electronic device is disclosed. The control method of an electronic device according to the present disclosure includes displaying a UI for controlling a first robot located in a first space, and transmitting a control command for controlling the first robot to the first robot based on a user manipulation command. If it is difficult for the first robot to move to a second space different from the first space, confirming the second robot located in the second space and displaying a UI for controlling the confirmed second robot. Includes.

Description

전자 장치 및 이의 제어 방법 { ELECTRONIC APPARATUS AND CONTROLLING METHOD THEREOF }Electronic device and control method thereof { ELECTRONIC APPARATUS AND CONTROLLING METHOD THEREOF }

본 개시는 전자 장치 및 이의 제어 방법으로, 더욱 상세하게는 로봇을 제어하는 전자 장치 및 이의 제어 방법에 관한 것이다. The present disclosure relates to an electronic device and a control method thereof, and more particularly, to an electronic device for controlling a robot and a control method thereof.

로봇 관련 기술이 발전하면서 다양한 로봇이 등장하고 있으며, 로봇을 이용한 서비스도 등장하고 있다. 가령, 사용자는 박물관, 쇼핑 센터와 같은 장소를 직접 방문하지 않더라도 박물관, 미술관, 쇼핑 센터에 존재하는 로봇의 비전 기술을 이용하여 박물관, 미술관의 작품을 감상하거나, 쇼핑 센터에 존재하는 물건을 보고 구입하면서 박물관, 미술관, 쇼핑 센터와 같은 장소를 직접 방문한 것과 동일한 효과를 누릴 수 있다. As robot-related technology develops, various robots are appearing, and services using robots are also appearing. For example, even if users do not visit places such as museums or shopping centers in person, they can view works in museums, art galleries, or purchase items in shopping centers using the vision technology of robots present in museums, art galleries, or shopping centers. While doing so, you can enjoy the same effects as visiting places such as museums, art galleries, and shopping centers in person.

이외에도 사람이 직접 들어가기 위험한 공사 현장이나 작업 현장에서 로봇을 사용함으로써 사용자는 원하는 작업을 수행할 수 있다. In addition, by using robots at construction sites or work sites where it is dangerous for people to enter directly, users can perform the desired tasks.

한편, 이와 같은 로봇의 경우, 사용자 제어에 따른 이동이 용이해야 하기 때문에 계단, 에스컬레이터와 같은 장애물을 통과할 수 있는 로봇으로 제작되는 경우가 많다. Meanwhile, in the case of such robots, they are often manufactured as robots that can pass obstacles such as stairs and escalators because they must be easy to move under user control.

그러나, 장애물을 통과하는 로봇의 경우, 로봇의 관절을 위한 장치, 로봇의 평행 유지를 위한 장치와 같은 복잡한 기술을 요하는 장치를 필요로 한다는 점에서 비용이 비싸고, 로봇이 장애물을 통과하는 과정에서 전복될 가능성이 있다는 단점이 존재한다. However, in the case of a robot that passes obstacles, it is expensive in that it requires devices that require complex technology, such as devices for the robot's joints and devices for maintaining the robot's parallelism, and in the process of the robot passing the obstacle, The downside is that there is a possibility of it being overturned.

본 개시는 상술한 문제점을 해결하기 위한 것으로, 복수의 로봇을 제어하는 UI를 제공하여, 로봇이 이동하지 못하는 상황에서도 사용자가 끊김없이 서비스를 제공받도록 하는 전자 장치 및 이의 제어 방법에 관한 것이다. The present disclosure is intended to solve the above-mentioned problems and relates to an electronic device and a control method thereof that provide a UI for controlling a plurality of robots so that a user can receive uninterrupted service even in situations where robots cannot move.

본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은, 제1 공간에 위치하는 제1 로봇을 제어하기 위한 UI를 표시하는 단계, 사용자 조작 명령에 기초하여 상기 제1 로봇을 제어하기 위한 제어 명령을 상기 제1 로봇에 전송하는 단계, 상기 제1 로봇이 상기 제1 공간과 다른 제2 공간으로 이동하기 어려우면, 상기 제2 공간에 위치하는 제2 로봇을 확인하는 단계 및 상기 확인된 제2 로봇을 제어하기 위한 UI를 표시하는 단계를 포함한다. A method of controlling an electronic device according to an embodiment of the present disclosure includes displaying a UI for controlling a first robot located in a first space, and a control command for controlling the first robot based on a user manipulation command. transmitting to the first robot, if it is difficult for the first robot to move to a second space different from the first space, confirming a second robot located in the second space, and the confirmed second robot It includes the step of displaying a UI for controlling the robot.

한편, 본 개시의 다른 일 실시 예에 따른 전자 장치는, 통신 인터페이스, 디스플레이 및 제1 공간에 위치하는 제1 로봇을 제어하기 위한 UI를 표시하도록 상기 디스플레이를 제어하고, 사용자 조작 명령에 기초하여 상기 제1 로봇을 제어하기 위한 제어 명령을 상기 제1 로봇에 전송하도록 상기 통신 인터페이스를 제어하고, 상기 제1 로봇이 상기 제1 공간과 다른 제2 공간으로 이동하기 어려우면, 상기 제2 공간에 위치하는 제2 로봇을 확인하고, 상기 확인된 제2 로봇을 제어하기 위한 UI를 표시하도록 상기 디스플레이를 제어하는 프로세서를 포함한다. Meanwhile, an electronic device according to another embodiment of the present disclosure controls the display to display a communication interface, a display, and a UI for controlling a first robot located in a first space, and controls the display based on a user manipulation command. The communication interface is controlled to transmit a control command for controlling the first robot to the first robot, and if it is difficult for the first robot to move to a second space different from the first space, it is located in the second space. and a processor that controls the display to check a second robot and display a UI for controlling the confirmed second robot.

도 1은 본 개시의 일 실시 예에 따른 시스템을 설명하기 위한 도면,
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도,
도 3은 본 개시의 일 실시 예에 따른 로봇의 구성을 설명하기 위한 블록도,
도 4는 본 개시의 일 실시 예에 따라 서버 및 전자 장치와 통신을 수행하는 전자 장치를 설명하기 위한 시퀀스도,
도 5a는 장애물이 존재하는 공간에 존재하는 로봇을 설명하기 위한 도면,
도 5b는 로봇으로부터 수신한 이미지를 표시하는 전자 장치를 설명하기 위한 도면,
도 5c는 장애물이 포함된 이미지를 표시하는 전자 장치를 설명하기 위한 도면,
도 5d는 로봇이 존재하는 공간과 다른 공간에 존재하는 다른 로봇을 표시하는 전자 장치를 설명하기 위한 도면,
도 5e는 도 5d의 다른 공간에 존재하는 다른 로봇으로부터 수신한 이미지를 표시하는 전자 장치를 설명하기 위한 도면,
도 6a는 장애물이 포함된 이미지를 로봇으로부터 수신하여 표시하는 전자 장치를 설명하기 위한 도면,
도 6b는 장애물이 포함된 이미지에서 장애물을 식별하고, 다른 공간의 이미지를 표시하는 전자 장치를 설명하기 위한 도면,
도 7은 본 개시의 일 실시 예에 따라 공간 정보를 수집하여 저장하는 서버를 설명하기 위한 도면,
도 8은 본 개시의 일 실시 예에 따른 공간 수집 장치를 설명하기 위한 도면, 및
도 9는 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
1 is a diagram for explaining a system according to an embodiment of the present disclosure;
2 is a block diagram for explaining the configuration of an electronic device according to an embodiment of the present disclosure;
3 is a block diagram for explaining the configuration of a robot according to an embodiment of the present disclosure;
4 is a sequence diagram illustrating an electronic device that communicates with a server and an electronic device according to an embodiment of the present disclosure;
Figure 5a is a diagram for explaining a robot existing in a space where obstacles exist;
5B is a diagram for explaining an electronic device that displays an image received from a robot;
FIG. 5C is a diagram for explaining an electronic device that displays an image containing an obstacle;
5D is a diagram for explaining an electronic device that displays another robot existing in a space different from the space where the robot exists;
FIG. 5E is a diagram for explaining an electronic device that displays an image received from another robot existing in a different space of FIG. 5D;
FIG. 6A is a diagram for explaining an electronic device that receives an image containing an obstacle from a robot and displays it;
FIG. 6B is a diagram for explaining an electronic device that identifies an obstacle in an image containing the obstacle and displays an image of another space;
7 is a diagram for explaining a server that collects and stores spatial information according to an embodiment of the present disclosure;
8 is a diagram for explaining a space collection device according to an embodiment of the present disclosure, and
FIG. 9 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.

이하, 본 문서의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 문서의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, various embodiments of this document are described with reference to the attached drawings. However, this is not intended to limit the technology described in this document to specific embodiments, and should be understood to include various modifications, equivalents, and/or alternatives to the embodiments of this document. . In connection with the description of the drawings, similar reference numbers may be used for similar components.

본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as “have,” “may have,” “includes,” or “may include” refer to the existence of the corresponding feature (e.g., a numerical value, function, operation, or component such as a part). , and does not rule out the existence of additional features.

본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as “A or B,” “at least one of A or/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” (1) includes at least one A, (2) includes at least one B, or (3) it may refer to all cases including both at least one A and at least one B.

본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as “first,” “second,” “first,” or “second,” used in this document can modify various components regardless of order and/or importance, and can refer to one component. It is only used to distinguish from other components and does not limit the components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, a first component may be renamed a second component without departing from the scope of rights described in this document, and similarly, the second component may also be renamed the first component.

본 문서에서 사용된 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.Terms such as “module,” “unit,” and “part” used in this document are terms to refer to components that perform at least one function or operation, and these components are implemented in hardware or software. Alternatively, it can be implemented through a combination of hardware and software. In addition, a plurality of "modules", "units", "parts", etc. are integrated into at least one module or chip, except in cases where each needs to be implemented with individual specific hardware, and is integrated into at least one processor. It can be implemented as:

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (e.g., a first component) is “(operatively or communicatively) coupled with/to” another component (e.g., a second component). When referred to as being “connected to,” it should be understood that any component may be directly connected to the other component or may be connected through another component (e.g., a third component). On the other hand, when a component (e.g., a first component) is said to be “directly connected” or “directly connected” to another component (e.g., a second component), It may be understood that no other component (e.g., a third component) exists between other components.

본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.Terms used in this document are merely used to describe specific embodiments and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions, unless the context clearly indicates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the technical field described in this document. Among the terms used in this document, terms defined in general dictionaries may be interpreted to have the same or similar meaning as the meaning they have in the context of related technology, and unless clearly defined in this document, have an ideal or excessively formal meaning. It is not interpreted as In some cases, even terms defined in this document cannot be interpreted to exclude embodiments of this document.

한편, 본 개시에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.Meanwhile, in the present disclosure, the term user may refer to a person using an electronic device or a device (eg, an artificial intelligence electronic device) using the electronic device.

이하에서는 도면을 참조하여 본 개시에 대해 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the drawings.

도 1은 본 개시의 일 실시 예에 따른 시스템을 설명하기 위한 도면이다. 1 is a diagram for explaining a system according to an embodiment of the present disclosure.

도 1에 도시된 바와 같이 본 개시의 일 실시 예에 따른 시스템(1000)은 전자 장치(100), 제1 로봇(200-1), 제2 로봇(200-2) 및 서버(300)를 포함한다. 도 1에서는 제1 로봇(200-1) 및 제2 로봇(200-2), 두 개의 로봇만이 도시되었으나, 시스템(1000)은 N개의 로봇을 포함할 수 있다. As shown in FIG. 1, the system 1000 according to an embodiment of the present disclosure includes an electronic device 100, a first robot 200-1, a second robot 200-2, and a server 300. do. Although only two robots, the first robot 200-1 and the second robot 200-2, are shown in FIG. 1, the system 1000 may include N robots.

전자 장치(100)는 제1 로봇(200-1), 제2 로봇(200-2) 및 서버(300)와 통신을 수행할 수 있다. The electronic device 100 may communicate with the first robot 200-1, the second robot 200-2, and the server 300.

도 1에서 전자 장치(100)는 스마트폰으로 도시되었으나, 본 개시의 다양한 실시 예들에 따른 전자 장치(100)는 태블릿 PC, 휴대폰, TV, 전자 칠판, 모니터, 랩탑 PC, 카메라 또는 웨어러블 장치(가령, 시계, 안경, 머리 착용형 장치(Head-mounted-device)(HMD))를 포함할 수 있다. 한편, 전자 장치(100)는 반드시 이에 한하는 것은 아니며, 디스플레이를 포함하면서 외부 장치와 통신을 수행할 수 있는 장치라면 본 개시의 전자 장치(100)가 될 수 있다. Although the electronic device 100 in FIG. 1 is shown as a smartphone, the electronic device 100 according to various embodiments of the present disclosure may be a tablet PC, a mobile phone, a TV, an electronic whiteboard, a monitor, a laptop PC, a camera, or a wearable device (e.g. , watches, glasses, and head-mounted-device (HMD)). Meanwhile, the electronic device 100 is not necessarily limited to this, and any device that includes a display and can communicate with an external device can be the electronic device 100 of the present disclosure.

전자 장치(100)는 제1 로봇(200-1) 또는 제2 로봇(200-2)을 제어할 수 있다. 구체적으로, 전자 장치(100)는 제1 로봇(200-1) 또는 제2 로봇(200-2)에 제어 명령을 전송할 수 있다. 이를 위하여 전자 장치(100)는 제1 로봇(200-1) 또는 제2 로봇(200-2)을 제어하기 위한 UI(User Interface)를 표시할 수 있다. The electronic device 100 can control the first robot 200-1 or the second robot 200-2. Specifically, the electronic device 100 may transmit a control command to the first robot 200-1 or the second robot 200-2. To this end, the electronic device 100 may display a user interface (UI) for controlling the first robot 200-1 or the second robot 200-2.

전자 장치(100)는 제1 로봇(200-1) 또는 제2 로봇(200-2)이 특정 공간을 이동하면서 특정 공간의 이미지를 촬상하도록 제어할 수 있다. 그리고, 전자 장치(100)는 제1 로봇(200-1) 또는 제2 로봇(200-2)이 촬상한 이미지를 제1 로봇(200-1) 또는 제2 로봇(200-2)로부터 수신하여 표시할 수 있다. 이에 따라, 전자 장치(100)는 제1 로봇(200-1) 또는 제2 로봇(200-2)이 위치하는 공간에 존재하지 않더라도, 제1 로봇(200-1) 또는 제2 로봇(200-2)를 통하여 제1 로봇(200-1) 또는 제2 로봇(200-2)가 위치하는 특정 공간의 이미지를 표시할 수 있다. The electronic device 100 may control the first robot 200-1 or the second robot 200-2 to capture an image of a specific space while moving in the specific space. And, the electronic device 100 receives the image captured by the first robot 200-1 or the second robot 200-2 from the first robot 200-1 or the second robot 200-2. It can be displayed. Accordingly, even if the electronic device 100 does not exist in the space where the first robot 200-1 or the second robot 200-2 is located, the electronic device 100 is connected to the first robot 200-1 or the second robot 200-2. Through 2), an image of a specific space where the first robot 200-1 or the second robot 200-2 is located can be displayed.

제1 로봇(200-1) 또는 제2 로봇(200-2)는 동일한 공간에 존재할 수 있으나, 서로 다른 공간에 존재할 수도 있다. 가령, 제1 로봇(200-1)이 이동하지 못하는 공간에 제2 로봇(200-2)이 존재할 수 있다. The first robot 200-1 or the second robot 200-2 may exist in the same space, but may also exist in different spaces. For example, the second robot 200-2 may exist in a space where the first robot 200-1 cannot move.

제1 로봇(200-1) 또는 제2 로봇(200-2)은 전자 장치(100)로부터 수신한 제어 명령에 따라 동작할 수 있다. 제1 로봇(200-1) 또는 제2 로봇(200-2)은 제어 명령에 따라 특정 공간을 이동하거나, 특정 공간의 이미지를 촬영할 수 있다. 뿐만 아니라, 특정 공간에서 발생되는 소리를 수집하여 전자 장치(100)에 전송하거나, 전자 장치(100)의 사용자가 발화한 음성 신호를 수신하고, 이를 출력할 수도 있다. The first robot 200-1 or the second robot 200-2 may operate according to control commands received from the electronic device 100. The first robot 200-1 or the second robot 200-2 can move a specific space or take an image of a specific space according to a control command. In addition, sounds generated in a specific space can be collected and transmitted to the electronic device 100, or voice signals uttered by the user of the electronic device 100 can be received and output.

제1 로봇(200-1) 또는 제2 로봇(200-2)은 다양한 형태가 될 수 있다. 구체적으로, 제1 로봇(200-1) 또는 제2 로봇(200-2)은 사람의 형태와 비슷한 관절형 로봇(보행형 로봇)일 수도 있으며, 바퀴/캐터필러형 로봇, 비행형 로봇(가령, 드론), 수중에서 동작하는 수영형 로봇일 수도 있다. 다만, 반드시 이에 한하는 것은 아니며, 전자 장치(100)의 사용자의 제어 명령을 수신하고, 수신된 제어 명령에 따라 동작할 수 있는 장치라면 본 개시에 따른 로봇이 될 수 있다. The first robot 200-1 or the second robot 200-2 may have various forms. Specifically, the first robot 200-1 or the second robot 200-2 may be an articulated robot (walking robot) similar to the shape of a human, a wheeled/caterpillar type robot, or a flying robot (e.g., Drone), it may be a swimming robot that operates underwater. However, it is not necessarily limited to this, and any device that can receive a control command from the user of the electronic device 100 and operate according to the received control command can be a robot according to the present disclosure.

한편, 전자 장치(100)는 서버(300)로부터 제1 로봇(200-1) 또는 제2 로봇(200-2)의 정보를 수신할 수 있다. 서버(300)는 전자 장치(100)로부터 수신된 다양한 요청을 처리할 수 있는 장치로, 전자 장치(100)로부터 다양한 정보를 수신하거나, 전자 장치(100)에 다양한 정보를 전송할 수 있다. Meanwhile, the electronic device 100 may receive information about the first robot 200-1 or the second robot 200-2 from the server 300. The server 300 is a device that can process various requests received from the electronic device 100, and can receive various information from the electronic device 100 or transmit various information to the electronic device 100.

구체적으로, 전자 장치(100)는 서버(300)에 특정 공간에 위치하는 로봇에 관한 정보를 요청할 수 있으며, 요청에 대한 응답으로 서버(300)로부터 제1 로봇(200-1) 또는 제2 로봇(200-2)의 위치 정보를 수신할 수 있다. Specifically, the electronic device 100 may request information about a robot located in a specific space from the server 300, and in response to the request, the first robot 200-1 or the second robot may be sent from the server 300. Location information of (200-2) can be received.

또는, 전자 장치(100)는 서버(300)로부터 제1 로봇(200-1) 또는 제2 로봇(200-2)이 위치하는 공간의 이미지를 수신할 수도 있다. 전자 장치(100)는 제1 로봇(200-1) 또는 제2 로봇(200-2)로부터 이미지를 수신하기 이전에 서버(300)로부터 제1 로봇(200-1) 또는 제2 로봇(200-2)이 존재하는 공간의 이미지를 수신할 수 있다. Alternatively, the electronic device 100 may receive an image of the space where the first robot 200-1 or the second robot 200-2 is located from the server 300. The electronic device 100 receives the first robot 200-1 or the second robot 200-2 from the server 300 before receiving the image from the first robot 200-1 or the second robot 200-2. 2) You can receive an image of the space where it exists.

한편, 서버(300)는 제1 로봇(200-1) 또는 제2 로봇(200-2)으로부터 제1 로봇(200-1) 또는 제2 로봇(200-2)의 위치 정보를 수신할 수 있다. 구체적으로, 서버(300)는 주기적으로 제1 로봇(200-1) 또는 제2 로봇(200-2)로부터 제1 로봇(200-1) 또는 제2 로봇(200-2)의 위치 정보를 수신할 수 있다. 또는 서버(300)는 제1 로봇(200-1) 또는 제2 로봇(200-2)로부터 제1 로봇(200-1) 또는 제2 로봇(200-2)이 위치하는 공간의 이미지 정보를 수신할 수도 있다. Meanwhile, the server 300 may receive location information of the first robot 200-1 or the second robot 200-2 from the first robot 200-1 or the second robot 200-2. . Specifically, the server 300 periodically receives location information of the first robot 200-1 or the second robot 200-2 from the first robot 200-1 or the second robot 200-2. can do. Or, the server 300 receives image information of the space where the first robot 200-1 or the second robot 200-2 is located from the first robot 200-1 or the second robot 200-2. You may.

이하에서는 도면을 통하여 본 개시의 전자 장치(100), 로봇(200) 및 서버(300)의 동작에 대하여 구체적으로 설명하도록 한다. Hereinafter, the operations of the electronic device 100, robot 200, and server 300 of the present disclosure will be described in detail through the drawings.

도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다. Figure 2 is a block diagram for explaining the configuration of an electronic device according to an embodiment of the present disclosure.

도 2에 도시된 바와 같이, 전자 장치(100)는 통신 인터페이스(110), 디스플레이(120) 및 프로세서(130)를 포함할 수 있다. As shown in FIG. 2 , the electronic device 100 may include a communication interface 110, a display 120, and a processor 130.

통신 인터페이스(110)는 전자 장치(100)가 로봇(200) 또는 서버(300)와 같은 외부 전자 장치(미도시)와 통신을 수행하기 위한 구성 요소이다. 전자 장치(100)는 통신 인터페이스(110)를 통하여 로봇(200)에 제어 명령을 전송하고, 로봇(200)으로부터 로봇(200)이 촬상한 이미지를 수신할 수 있다. 또한, 전자 장치(100)는 통신 인터페이스(110)를 통하여 서버(300)에 특정 공간에 대한 정보 또는 특정 공간에 위치하는 로봇에 관한 정보를 요청할 수 있으며, 서버(300)로부터 특정 공간에 대한 정보 또는 특정 공간에 위치하는 로봇에 관한 정보를 수신할 수도 있다. The communication interface 110 is a component that allows the electronic device 100 to communicate with an external electronic device (not shown) such as the robot 200 or the server 300. The electronic device 100 may transmit a control command to the robot 200 through the communication interface 110 and receive an image captured by the robot 200 from the robot 200 . In addition, the electronic device 100 may request information about a specific space or information about a robot located in a specific space from the server 300 through the communication interface 110, and receive information about the specific space from the server 300. Alternatively, information about a robot located in a specific space may be received.

통신 인터페이스(110)는 유선 통신 모듈(미도시), 근거리 무선 통신 모듈(미도시), 무선 통신 모듈(미도시) 등과 같은 다양한 통신 모듈을 포함할 수 있다. The communication interface 110 may include various communication modules, such as a wired communication module (not shown), a short-range wireless communication module (not shown), and a wireless communication module (not shown).

여기에서, 유선 통신 모듈은 유선 이더넷(Ethernet)과 같이 유선 통신 방식에 따라 외부 장치(미도시)와 통신을 수행하기 위한 모듈이다. 그리고, 근거리 무선 통신 모듈이란 블루투스(Bluetooth, BT), BLE(Bluetooth Low Energy), ZigBee 방식 등과 같은 근거리 무선 통신 방식에 따라 근거리에 위치한 외부 장치(미도시)와 통신을 수행하기 위한 모듈이다. 또한, 무선 통신 모듈이란 WiFi, IEEE 등과 같은 무선 통신 프로토콜에 따라 외부 네트워크에 연결되어 외부 장치(미도시)와 통신을 수행하는 모듈이다. 이 밖에 무선 통신 모듈은 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), LTE-A(LTE Advanced), 5세대 네트워크(5G Networks) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신망에 접속하여 통신을 수행하는 이동 통신 모듈을 더 포함할 수도 있다. Here, the wired communication module is a module for communicating with an external device (not shown) according to a wired communication method, such as wired Ethernet. Additionally, the short-range wireless communication module is a module for communicating with an external device (not shown) located nearby according to a short-range wireless communication method such as Bluetooth (BT), BLE (Bluetooth Low Energy), or ZigBee. Additionally, a wireless communication module is a module that is connected to an external network and communicates with an external device (not shown) according to a wireless communication protocol such as WiFi or IEEE. In addition, wireless communication modules comply with various mobile communication standards such as 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), LTE (Long Term Evolution), LTE-A (LTE Advanced), and 5G Networks. It may further include a mobile communication module that connects to a mobile communication network and performs communication.

디스플레이(120)는 전자 장치(100)를 통해 제공 가능한 다양한 컨텐츠 화면을 제공할 수 있다. 본 개시에서 디스플레이(120)는 로봇(200)을 제어하기 위한 UI를 표시하거나, 로봇(200)으로부터 수신한 이미지를 포함하는 UI를 표시할 수 있다. 또는, 디스플레이(120)는 전자 장치(100)에서 생성된 증강 현실 이미지를 표시할 수도 있다. The display 120 can provide various content screens that can be provided through the electronic device 100. In the present disclosure, the display 120 may display a UI for controlling the robot 200 or may display a UI including an image received from the robot 200. Alternatively, the display 120 may display an augmented reality image generated by the electronic device 100.

디스플레이(120)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, PDP(Plasma Display Panel), Wall, Micro LED 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(120) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(120)는 터치 센서와 결합된 터치 스크린, 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등으로 구현될 수 있다.The display 120 may be implemented as various types of displays, such as Liquid Crystal Display (LCD), Organic Light Emitting Diodes (OLED) display, Plasma Display Panel (PDP), Wall, Micro LED, etc. The display 120 may also include a driving circuit and a backlight unit that may be implemented in the form of a-si TFT, low temperature poly silicon (LTPS) TFT, or organic TFT (OTFT). Meanwhile, the display 120 may be implemented as a touch screen combined with a touch sensor, a flexible display, a 3D display, etc.

프로세서(130)는 메모리(미도시)와 전기적으로 연결되어 전자 장치(100)의 전반적인 동작 및 기능을 제어할 수 있다. 예를 들어, 프로세서(130)는 운영 체제 또는 응용 프로그램을 구동하여 프로세서(130)에 연결된 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 또한, 프로세서(130)는 다른 구성요소들 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장할 수 있다. The processor 130 is electrically connected to a memory (not shown) and can control the overall operation and functions of the electronic device 100. For example, the processor 130 can control hardware or software components connected to the processor 130 by running an operating system or application program, and can perform various data processing and calculations. Additionally, the processor 130 may load and process commands or data received from at least one of the other components into volatile memory and store various data in non-volatile memory.

이를 위해, 프로세서(130)는 해당 동작을 수행하기 위한 전용 프로세서(예, 임베디드 프로세서) 또는 메모리 디바이스에 저장된 하나 이상의 소프트웨어 프로그램을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU (Central Processing Unit) 또는 어플리케이션 프로세서 (application processor (AP))로 구현될 수 있다. To this end, the processor 130 is a dedicated processor (e.g., embedded processor) or a general-purpose processor (e.g., CPU (Central)) capable of performing the operations by executing one or more software programs stored in a memory device. Processing Unit) or application processor (AP).

본 개시에서, 프로세서(130)는 디지털 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP)), 마이크로프로세서(microprocessor), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), GPU(graphics-processing unit) 또는 커뮤니케이션 프로세서(communication processor(CP)), ARP 프로세서(Address Resolution Protocol processor) 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(130)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.In the present disclosure, the processor 130 may be implemented as a digital signal processor (DSP), a microprocessor, or a time controller (TCON) that processes digital signals. However, it is not limited to this, and includes central processing unit (CPU), MCU (Micro Controller Unit), MPU (micro processing unit), controller, application processor (AP), GPU It may include one or more of a graphics-processing unit (graphics-processing unit), a communication processor (CP), or an ARP processor (Address Resolution Protocol processor), or may be defined by those terms. Additionally, the processor 130 may be implemented as a System on Chip (SoC) or large scale integration (LSI) with a built-in processing algorithm, or may be implemented in the form of a Field Programmable Gate Array (FPGA).

프로세서(130)는 제1 공간에 위치하는 제1 로봇(200-1)을 제어할 수 있다. 구체적으로, 프로세서(130)는 로봇(200)을 제어하는 제어 명령을 생성하여 이를 로봇(200)에 전송하도록 통신 인터페이스(110)를 제어할 수 있다. The processor 130 may control the first robot 200-1 located in the first space. Specifically, the processor 130 may control the communication interface 110 to generate a control command for controlling the robot 200 and transmit it to the robot 200.

이를 위하여 프로세서(130)는 제1 로봇을 제어하기 위한 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. To this end, the processor 130 may control the display 120 to display a UI for controlling the first robot.

프로세서(130)는 제1 로봇(200-1)이 촬상한 이미지를 전자 장치(100)에 전송하도록 제어할 수 있고, 제1 로봇(200-1)으로부터 수신한 이미지를 포함하는 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. The processor 130 may control the image captured by the first robot 200-1 to be transmitted to the electronic device 100 and display a UI including the image received from the first robot 200-1. The display 120 can be controlled.

한편, 프로세서(130)는 제1 로봇(200-1)이 제1 공간에서 제1 공간과 다른 제2 공간으로 이동하기 어려우면, 제2 공간에 위치하는 제2 로봇을 확인할 수 있다. 이때, 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하기 어려운 이유는 실시 예에 따라 다양할 수 있다. 가령, 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하는 과정에서 통과할 수 없는 장애물을 만나는 경우인 경우가 이에 해당할 수 있다. 또는, 제1 로봇(200-1)의 배터리가 기설정된 값 이하이거나, 제2 공간이 제1 로봇(200-1)에 대한 제어 명령이 도달하지 않는 영역인 경우와 같이 제1 로봇(200-1)의 상태(배터리, 고장 등) 또는 제1 로봇(200-1)에 대한 제어 명령을 전송하는 통신 상태에 따라 제1 로봇이 제1 영역에서 제2 영역으로 이동하기 어려울 수 있다. Meanwhile, if it is difficult for the first robot 200-1 to move from the first space to a second space different from the first space, the processor 130 may check the second robot located in the second space. At this time, the reason why it is difficult for the first robot 200-1 to move from the first space to the second space may vary depending on the embodiment. For example, this may be the case when the first robot 200-1 encounters an obstacle that it cannot pass while moving from the first space to the second space. Alternatively, when the battery of the first robot 200-1 is below a preset value or the second space is an area where control commands for the first robot 200-1 do not reach, the first robot 200-1 It may be difficult for the first robot to move from the first area to the second area depending on the status of 1) (battery, failure, etc.) or the communication status transmitting a control command to the first robot 200-1.

이때, 프로세서(130)는 서버(300)에 제2 공간에 위치하는 로봇의 정보를 요청할 수 있다. At this time, the processor 130 may request information about the robot located in the second space from the server 300.

프로세서(130)는 서버(300)로부터 제2 공간에 위치하는 로봇의 정보를 수신하면, 제2 공간에 위치하는 제2 로봇(200-2)과 연결되어 제2 로봇(200-2)을 제어할 수 있다. When the processor 130 receives information about the robot located in the second space from the server 300, it is connected to the second robot 200-2 located in the second space and controls the second robot 200-2. can do.

이때, 프로세서(130)는 제2 로봇을 제어하기 위한 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. At this time, the processor 130 may control the display 120 to display a UI for controlling the second robot.

이하, 프로세서(130)의 구체적인 동작에 대해서는 도 4에서 구체적으로 기술하기로 한다. Hereinafter, specific operations of the processor 130 will be described in detail with reference to FIG. 4.

한편, 도 2의 전자 장치(100)에 도시된 구성 요소들은 전자 장치(100)의 성능 및/또는 종류에 대응하여 적어도 하나의 구성 요소의 추가, 변경되거나 삭제될 수 있다. 또한, 구성 요소들의 위치는 전자 장치(100)의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.Meanwhile, at least one component shown in the electronic device 100 of FIG. 2 may be added, changed, or deleted in accordance with the performance and/or type of the electronic device 100. Additionally, it will be easily understood by those skilled in the art that the positions of the components may be changed in response to the performance or structure of the electronic device 100.

도 3은 본 개시의 일 실시 예에 따른 로봇(200)의 구성을 설명하기 위한 블록도이다. Figure 3 is a block diagram for explaining the configuration of the robot 200 according to an embodiment of the present disclosure.

도 3에 도시된 바와 같이, 로봇(200)은 통신 인터페이스(210), 구동 장치(220), 센서(230), 메모리(240), 카메라(250), 마이크(260), 스피커(270) 및 프로세서(280)을 포함할 수 있다. As shown in FIG. 3, the robot 200 includes a communication interface 210, a driving device 220, a sensor 230, a memory 240, a camera 250, a microphone 260, a speaker 270, and May include a processor 280.

통신 인터페이스(210)는 로봇(200)이 전자 장치(100) 또는 서버(300)와 통신을 수행하기 위한 구성요소이다. 로봇(200)은 통신 인터페이스(210)를 통하여 전자 장치(100) 또는 서버(300)에 로봇(200)이 촬상한 이미지를 전송할 수 있다. 또한, 로봇(200)은 통신 인터페이스(210)를 통하여 서버(300)에 로봇(200)의 위치 정보를 전송할 수 있다. 그리고, 로봇(200)은 통신 인터페이스(210)를 통하여 전자 장치(100)로부터 제어 명령을 수신할 수도 있다.The communication interface 210 is a component that allows the robot 200 to communicate with the electronic device 100 or the server 300. The robot 200 may transmit the image captured by the robot 200 to the electronic device 100 or the server 300 through the communication interface 210. Additionally, the robot 200 may transmit location information of the robot 200 to the server 300 through the communication interface 210. Additionally, the robot 200 may receive control commands from the electronic device 100 through the communication interface 210.

구동 장치(220)는 로봇(200)을 이동시킬 수 있다. 이를 위하여, 구동 장치(220)는 하나 또는 둘 이상의 바퀴와 연결되고, 바퀴를 회전시킬 수 있는 모터 등의 구동 유닛을 구비할 수 있다. 그리고, 구동 장치(220)는 프로세서(280)의 제어 신호에 따라 로봇(200)의 이동, 정지, 방향 전환 등의 주행 동작을 수행할 수 있다. The driving device 220 can move the robot 200. To this end, the driving device 220 may be connected to one or more wheels and may be provided with a driving unit such as a motor capable of rotating the wheels. In addition, the driving device 220 may perform driving operations such as moving, stopping, and changing direction of the robot 200 according to the control signal from the processor 280.

센서(230)는 로봇(200) 주변의 장애물을 감지할 수 있다. 구체적으로, 센서(230)는 초음파 센서(supersonic sensor), 적외선 센서(Infrared sensor), RF 센서, 카메라 등을 이용하여 로봇(200) 주변의 장애물의 위치 및 장애물과의 거리를 감지할 수 있다. 또한, 센서(230)는 장애물과의 충돌을 통하여 장애물을 감지하는 충돌 센서를 더 포함할 수 있다.The sensor 230 can detect obstacles around the robot 200. Specifically, the sensor 230 can detect the location of obstacles and the distance to the obstacles around the robot 200 using an ultrasonic sensor, an infrared sensor, an RF sensor, a camera, etc. Additionally, the sensor 230 may further include a collision sensor that detects an obstacle through collision with the obstacle.

메모리(240)는 로봇(200)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(240)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다.The memory 240 can store various programs and data necessary for the operation of the robot 200. The memory 240 may be implemented as non-volatile memory, volatile memory, flash-memory, hard disk drive (HDD), or solid state drive (SSD).

카메라(250)는 로봇(200)이 위치하는 공간에 대한 이미지를 촬상할 수 있다. 카메라(250)는 하나 이상의 이미지 센서, 렌즈, 이미지 시그널 프로세서를 포함할 수 있다. 카메라(250)는 로봇(200)의 전면 상에 위치하는 것이 일반적이나 반드시 이에 한하는 것은 아니며, 로봇(200)의 후면, 측면 상에 위치할 수도 있다. The camera 250 can capture an image of the space where the robot 200 is located. Camera 250 may include one or more image sensors, lenses, and image signal processors. The camera 250 is generally located on the front of the robot 200, but is not necessarily limited to this, and may be located on the rear or side of the robot 200.

마이크(260)는 로봇(200)의 외부로부터 사운드를 입력받고, 입력된 사운드에 대응하는 신호를 생성하기 위한 구성이다. 프로세서(280)는 마이크(260)를 통하여 로봇(200)이 위치한 공간의 사운드를 입력 받고, 이에 대응되는 신호를 생성할 수 있다. The microphone 260 is configured to receive sound input from the outside of the robot 200 and generate a signal corresponding to the input sound. The processor 280 may receive sound from the space where the robot 200 is located through the microphone 260 and generate a signal corresponding thereto.

스피커(270)는 오디오 프로세서에 의해 디코딩이나 증폭, 노이즈 필터링과 같은 다양한 처리 작업이 수행된 각종 오디오 데이터뿐만 아니라 각종 알림 음이나 음성 메시지를 출력하는 구성이다. The speaker 270 is configured to output various notification sounds or voice messages as well as various audio data on which various processing tasks such as decoding, amplification, and noise filtering have been performed by an audio processor.

프로세서(280)는 메모리(미도시)와 전기적으로 연결되어 로봇(200)의 전반적인 동작 및 기능을 제어할 수 있다. 예를 들어, 프로세서(280)는 운영 체제 또는 응용 프로그램을 구동하여 프로세서(130)에 연결된 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 또한, 프로세서(280)는 다른 구성요소들 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장할 수 있다. The processor 280 is electrically connected to a memory (not shown) and can control the overall operation and functions of the robot 200. For example, the processor 280 can control hardware or software components connected to the processor 130 by running an operating system or application program, and can perform various data processing and calculations. Additionally, the processor 280 may load and process commands or data received from at least one of the other components into volatile memory and store various data in non-volatile memory.

이를 위해, 프로세서(280)는 해당 동작을 수행하기 위한 전용 프로세서(예, 임베디드 프로세서) 또는 메모리 디바이스에 저장된 하나 이상의 소프트웨어 프로그램을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU (Central Processing Unit) 또는 어플리케이션 프로세서 (application processor (AP))로 구현될 수 있다. To this end, the processor 280 is a dedicated processor (e.g., embedded processor) or a general-purpose processor (e.g., CPU (Central)) capable of performing the corresponding operations by executing one or more software programs stored in a memory device. Processing Unit) or application processor (AP).

프로세서(280)는 통신 인터페이스(210)를 통하여 수신한 제어 명령에 따라 로봇(200)이 동작할 수 있도록 로봇(200)의 각 구성 요소들의 동작 및 기능을 제어할 수 있다. The processor 280 may control the operation and function of each component of the robot 200 so that the robot 200 can operate according to control commands received through the communication interface 210.

가령, 프로세서(280)는 제어 명령에 따라 로봇(200)이 이동하도록 구동 장치(220)를 제어하거나, 로봇(200)이 위치하는 공간을 촬상하도록 카메라(250)를 제어할 수 있다. For example, the processor 280 may control the driving device 220 to move the robot 200 according to a control command, or control the camera 250 to capture an image of the space where the robot 200 is located.

도 4는 본 개시의 일 실시 예에 따라 서버 및 전자 장치와 통신을 수행하는 전자 장치를 설명하기 위한 시퀀스도이다. FIG. 4 is a sequence diagram illustrating an electronic device that communicates with a server and an electronic device according to an embodiment of the present disclosure.

제1 로봇(200-1) 및 제2 로봇(200-2)은 서버(300)에 위치 정보를 전송할 수 있다(S401, S402). 구체적으로, 제1 로봇(200-1) 및 제2 로봇(200-2)은 제1 로봇(200-1) 및 제2 로봇(200-2)에 포함된 가속도 센서 및 자이로 센서와 같은 위치 감지 센서를 이용하여 제1 로봇(200-1) 및 제2 로봇(200-2)의 위치를 식별하고, 식별된 위치 정보를 서버(300)에 주기적으로 전송할 수 있다. 그리고, 서버(300)는 제1 로봇(200-1) 및 제2 로봇(200-2)의 위치를 저장할 수 있다. The first robot 200-1 and the second robot 200-2 may transmit location information to the server 300 (S401, S402). Specifically, the first robot 200-1 and the second robot 200-2 detect position such as an acceleration sensor and a gyro sensor included in the first robot 200-1 and the second robot 200-2. The positions of the first robot 200-1 and the second robot 200-2 can be identified using a sensor, and the identified position information can be periodically transmitted to the server 300. Additionally, the server 300 may store the positions of the first robot 200-1 and the second robot 200-2.

또한, 제1 로봇(200-1) 및 제2 로봇(200-2)은 서버(300)에 제1 로봇(200-1) 및 제2 로봇(200-2)에 관한 정보를 전송할 수 있다. 가령, 제1 로봇(200-1) 및 제2 로봇(200-2)은 서버(300)에 제1 로봇(200-1) 및 제2 로봇(200-2)의 종류, 이미지 정보, 식별 정보, 위치 정보, 배터리 정보 및 이동 가능한 영역에 관한 정보를 전송할 수 있다. 그리고, 서버(300)는 제1 로봇(200-1) 및 제2 로봇(200-2)로부터 수신한 다양한 정보들을 저장할 수 있다. Additionally, the first robot 200-1 and the second robot 200-2 may transmit information about the first robot 200-1 and the second robot 200-2 to the server 300. For example, the first robot 200-1 and the second robot 200-2 provide the type, image information, and identification information of the first robot 200-1 and the second robot 200-2 to the server 300. , location information, battery information, and information about the movable area can be transmitted. Additionally, the server 300 may store various information received from the first robot 200-1 and the second robot 200-2.

한편, 전자 장치(100)에 포함된 프로세서(130)는 통신 인터페이스(110)를 통하여 제1 공간에 위치하는 제1 로봇(200-1)과 연결할 수 있다(S403). Meanwhile, the processor 130 included in the electronic device 100 may be connected to the first robot 200-1 located in the first space through the communication interface 110 (S403).

구체적으로, 전자 장치(100)가 제1 공간에 위치하는 로봇과 연결하고자 하는 경우, 프로세서(130)는 서버(300)에 제1 공간에 위치하는 로봇의 정보를 요청하는 신호를 전송하도록 통신 인터페이스(110)를 제어할 수 있다. Specifically, when the electronic device 100 wants to connect with a robot located in the first space, the processor 130 uses a communication interface to transmit a signal requesting information about the robot located in the first space to the server 300. (110) can be controlled.

전자 장치(100)로부터 로봇의 정보를 요청하는 신호를 수신한 서버(300)는 제1 공간에 존재하는 로봇을 식별하고, 제1 로봇(200-1)으로 받은 신호를 기초로 제1 공간에 제1 로봇(200-1)이 존재함을 식별하고, 제1 로봇(200-1)의 정보를 전송할 수 있다. 이때, 제1 로봇의 정보는 제1 로봇의 이미지, 종류, 식별 정보, 위치 정보, 배터리 정보, 이동 가능한 영역에 관한 정보 중 적어도 하나를 포함할 수 있다. The server 300, which has received a signal requesting information about the robot from the electronic device 100, identifies the robot existing in the first space and places it in the first space based on the signal received from the first robot 200-1. It is possible to identify that the first robot 200-1 exists, and to transmit information about the first robot 200-1. At this time, the information about the first robot may include at least one of the image, type, identification information, location information, battery information, and information about the movable area of the first robot.

서버(300)로부터 제1 공간에 위치하는 제1 로봇(200-1)의 정보를 수신하면, 프로세서(130)는 제1 로봇(200-1)에 제어 권한을 요청할 수 있다. 구체적으로, 프로세서(130)는 전자 장치(100)의 식별 정보, 주소 정보 및 사용자 식별 정보를 전송하여 제1 로봇(200-1)에 제어 권한을 요청할 수 있다. 그리고, 제1 로봇(200-1)은 전자 장치(100)로부터 수신한 전자 장치(100)의 정보를 기초로 전자 장치(100)에 제어 권한을 부여할 수 있다. 이에 따라, 전자 장치(100)는 제1 로봇(200-1)과 연결할 수 있다. Upon receiving information about the first robot 200-1 located in the first space from the server 300, the processor 130 may request control authority from the first robot 200-1. Specifically, the processor 130 may request control authority from the first robot 200-1 by transmitting identification information, address information, and user identification information of the electronic device 100. Additionally, the first robot 200-1 may grant control authority to the electronic device 100 based on information about the electronic device 100 received from the electronic device 100. Accordingly, the electronic device 100 can be connected to the first robot 200-1.

한편, 제1 로봇(200-1)이 전자 장치(100)와 연결되면, 제1 로봇(200-1)은 제1 로봇(200-1)이 위치한 제1 공간의 이미지를 촬상하고(S404), 촬상한 이미지를 전자 장치(100)에 전송할 수 있다(S405). Meanwhile, when the first robot 200-1 is connected to the electronic device 100, the first robot 200-1 captures an image of the first space where the first robot 200-1 is located (S404) , the captured image can be transmitted to the electronic device 100 (S405).

그리고, 프로세서(130)는 제1 로봇(200-1)으로부터 수신한 이미지를 기초로 제1 로봇(200-1)을 원격으로 제어할 수 있다. And, the processor 130 can remotely control the first robot 200-1 based on the image received from the first robot 200-1.

이를 위하여, 프로세서(130)는 제1 공간에 위치하는 제1 로봇(200-1)을 제어하기 위한 UI를 표시하도록 디스플레이(120)를 제어할 수 있다(S406). 이때, 제1 로봇(200-1)을 제어하기 위한 UI는 제1 로봇(200-1)이 촬상한 이미지를 포함하는 UI를 포함할 수 있다. 또한, 프로세서(130)는 제1 로봇(200-1)이 촬상한 이미지를 기초로 증강 현실 이미지를 생성하고, 생성된 증강 현실 이미지를 포함하는 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. To this end, the processor 130 may control the display 120 to display a UI for controlling the first robot 200-1 located in the first space (S406). At this time, the UI for controlling the first robot 200-1 may include a UI including an image captured by the first robot 200-1. Additionally, the processor 130 may generate an augmented reality image based on the image captured by the first robot 200-1 and control the display 120 to display a UI including the generated augmented reality image. .

프로세서(130)는 제1 로봇(200-1)을 제어하기 위한 UI를 통하여 제1 로봇(200-1)을 제어하기 위한 사용자 입력을 수신할 수 있다. 그리고, 프로세서(130)는 사용자 입력에 기초하여 제1 로봇을 제어하기 위한 제어 신호를 제1 로봇(200-1)에 전송할 수 있다(S407).The processor 130 may receive a user input for controlling the first robot 200-1 through a UI for controlling the first robot 200-1. And, the processor 130 may transmit a control signal for controlling the first robot to the first robot 200-1 based on the user input (S407).

제1 로봇(200-1)은 전자 장치(100)로부터 수신한 제어 신호에 기초하여 동작할 수 있다. 구체적으로, 제1 로봇(200-1)은 제어 신호에 따라 제1 공간을 이동하거나 제1 공간에 위치하는 객체를 촬영하여 전자 장치(100)에 전송할 수 있다. 또한, 제1 로봇(200-1)은 제어 신호에 따라 제1 공간에서 발생되는 사운드를 수집하여 전자 장치(100)에 전송할 수 있다. 또는, 제1 로봇(200-1)은 전자 장치(100)의 사용자가 발화한 사용자 음성을 수신하고, 수신한 음성을 출력할 수도 있다. The first robot 200-1 may operate based on a control signal received from the electronic device 100. Specifically, the first robot 200-1 may move in the first space according to a control signal or take a picture of an object located in the first space and transmit it to the electronic device 100. Additionally, the first robot 200-1 may collect sound generated in the first space according to a control signal and transmit it to the electronic device 100. Alternatively, the first robot 200-1 may receive a user voice uttered by the user of the electronic device 100 and output the received voice.

한편, 전자 장치(100)가 전송한 제어 신호에 따라 제1 로봇(200-1)의 이동이 불가능한 경우가 발생할 수 있다. 가령, 제1 로봇(200-1)이 통과하기 어려운 장애물을 만나거나, 제1 로봇(200-1)의 배터리가 기설정된 값 이하인 경우, 제1 로봇(200-1)이 고장난 경우, 제1 로봇(200-1)에 대한 제어 명령을 수신하는 통신 상태가 불량인 경우 또는 제1 로봇(200-1)에 설정된 이동 영역 제한에 따라 제1 로봇은 제2 공간으로 이동할 수 없을 수 있다(S408). 여기에서, 제2 공간은, 이와 같은 이동 불가 사유로 제1 로봇(200-1)이 이동할 수 없는 공간을 나타낸다. Meanwhile, a case may occur in which movement of the first robot 200-1 is impossible depending on the control signal transmitted by the electronic device 100. For example, when the first robot 200-1 encounters an obstacle that is difficult to pass, when the battery of the first robot 200-1 is below a preset value, or when the first robot 200-1 breaks down, the first robot 200-1 If the communication status for receiving control commands for the robot 200-1 is poor or depending on the movement area limit set for the first robot 200-1, the first robot may not be able to move to the second space (S408 ). Here, the second space represents a space where the first robot 200-1 cannot move due to such reasons.

제1 로봇(200-1)은 제1 공간에서 제2 공간으로 이동 불가능한 경우, 제2 공간으로 이동이 불가능하다는 메시지를 전자 장치(100)에 전송할 수 있다(S409). If it is impossible to move from the first space to the second space, the first robot 200-1 may transmit a message to the electronic device 100 indicating that it is impossible to move to the second space (S409).

제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하기 어려운 경우, 프로세서(130)는 제2 공간에 위치하는 제2 로봇을 확인할 수 있다. 구체적으로, 프로세서(130)는 서버(300)에 제2 공간에 존재하는 로봇의 정보를 요청할 수 있다(S410). When it is difficult for the first robot 200-1 to move from the first space to the second space, the processor 130 may check the second robot located in the second space. Specifically, the processor 130 may request information about a robot existing in the second space from the server 300 (S410).

그리고, 서버(300)는 제2 공간에 존재하는 로봇을 식별할 수 있다(S411). 구체적으로, 서버(300)는 S402 단계에서 제2 로봇(200-2)으로부터 수신한 제2 로봇(200-2)의 위치 정보를 기초로 제2 로봇(200-2)이 제2 공간에 존재한다는 것을 식별할 수 있다. And, the server 300 can identify the robot existing in the second space (S411). Specifically, the server 300 determines that the second robot 200-2 exists in the second space based on the location information of the second robot 200-2 received from the second robot 200-2 in step S402. It can be identified that

그리고, 서버(300)는 제2 로봇의 정보를 전자 장치(100)에 전송할 수 있다. 이때, 제2 공간에 복수의 제2 로봇이 존재하는 경우, 서버(300)는 복수의 제2 로봇(200-2)에 관한 정보를 제공할 수도 있으나, 복수의 제2 로봇(200-2) 중 하나를 선택하여 선택한 제2 로봇(200-2)의 정보를 전자 장치(100)에 제공할 수 있다. And, the server 300 may transmit information about the second robot to the electronic device 100. At this time, when a plurality of second robots exist in the second space, the server 300 may provide information about the plurality of second robots 200-2, but the plurality of second robots 200-2 By selecting one of the options, information on the selected second robot 200-2 can be provided to the electronic device 100.

가령, 서버(300)는 제2 공간에 위치하는 복수의 제2 로봇(200-2) 중 제1 로봇(200-1)에 가장 인접한 제2 로봇(200-2)을 선택하여, 선택된 제2 로봇(200-2)의 정보를 전자 장치(100)에 전송할 수 있다. 또는 서버(300)는 제2 공간에 위치하는 복수의 제2 로봇(200-2) 중 배터리 용량이 가장 많은 제2 로봇(200-2)을 선택하여, 선택된 제2 로봇의 정보를 전자 장치(100)에 전송할 수 있다. 이때, 제2 로봇(200-2)에 관한 정보는, 제2 로봇(200-2)의 이미지 정보, 제2 로봇(200-2)의 종류, 식별 정보, 위치 정보, 배터리 정보 및 이동 가능한 영역에 관한 정보 중 적어도 하나를 포함할 수 있다. For example, the server 300 selects the second robot 200-2 closest to the first robot 200-1 among the plurality of second robots 200-2 located in the second space, and selects the second robot 200-2 that is closest to the first robot 200-1. Information on the robot 200-2 may be transmitted to the electronic device 100. Alternatively, the server 300 selects the second robot 200-2 with the largest battery capacity among the plurality of second robots 200-2 located in the second space and sends information about the selected second robot to an electronic device ( 100). At this time, the information about the second robot 200-2 includes image information of the second robot 200-2, type of the second robot 200-2, identification information, location information, battery information, and movable area. It may contain at least one piece of information about.

서버(300)로부터 제2 로봇에 관한 정보를 수신하면, 프로세서(130)는 수신한 제2 로봇(200-2)에 관한 정보를 표시하도록 디스플레이(120)를 제어할 수 있다(S413). 구체적으로, 프로세서(130)는 제2 로봇(200-2)의 이미지를 비롯하여 제2 로봇(200-2)의 식별 정보, 위치 정보, 배터리 정보 또는 이동 가능한 영역에 관한 정보 중 적어도 하나를 표시하도록 디스플레이(120)를 제어할 수 있다. Upon receiving information about the second robot from the server 300, the processor 130 may control the display 120 to display the received information about the second robot 200-2 (S413). Specifically, the processor 130 is configured to display at least one of identification information, location information, battery information, or information about a movable area of the second robot 200-2, including an image of the second robot 200-2. The display 120 can be controlled.

그리고, 프로세서(130)는 제2 로봇과 연결하기 위한 사용자 입력을 수신할 수 있다(S414). 구체적으로, 프로세서(130)는 디스플레이(120)에 표시된 제2 로봇(200-2)에 관한 정보를 선택하는 사용자 입력을 수신할 수 있다. 가령, 프로세서(130)는 디스플레이(120)에 표시된 제2 로봇의 이미지를 선택하는 사용자 입력을 수신할 수 있다. And, the processor 130 may receive a user input for connecting to the second robot (S414). Specifically, the processor 130 may receive a user input for selecting information about the second robot 200-2 displayed on the display 120. For example, the processor 130 may receive a user input for selecting an image of the second robot displayed on the display 120.

제2 로봇에 관한 정보를 사용자 입력을 수신하면, 프로세서(130)는 제2 로봇(200-2)과 연결할 수 있다(S415). 구체적으로, 프로세서(130)는 전자 장치(100)의 식별 정보, 주소 정보 및 사용자 식별 정보 중 적어도 하나를 전송하여 제2 로봇(200-2)에 제어 권한을 요청할 수 있다. 그리고, 제2 로봇(200-2)은 전자 장치(100)로부터 수신한 정보를 기초로 전자 장치(100)에 제어 권한 승인 메시지를 전송하여 전자 장치(100)에 제2 로봇(200-2)에 대한 제어 권한을 부여할 수 있다. 이에 따라, 전자 장치(100)는 제2 로봇(200-2)과 연결되어 제2 로봇(200-2)을 제어할 수 있다. Upon receiving a user input of information about the second robot, the processor 130 may connect to the second robot 200-2 (S415). Specifically, the processor 130 may request control authority from the second robot 200-2 by transmitting at least one of identification information, address information, and user identification information of the electronic device 100. Then, the second robot 200-2 transmits a control permission approval message to the electronic device 100 based on the information received from the electronic device 100 and sends the second robot 200-2 to the electronic device 100. Control authority can be granted. Accordingly, the electronic device 100 can be connected to the second robot 200-2 and control the second robot 200-2.

한편, 제2 로봇(200-2)으로부터 제어 권한 승인 메시지를 수신하면, 프로세서(130)는 제1 로봇(200-1)이 기설정된 위치로 이동하도록 하는 제어 명령을 제1 로봇(200-1)에 전송하도록 통신 인터페이스(110)를 제어할 수 있다. 이때, 기설정된 위치는 제1 로봇(200-1)의 스테이션이거나, 제1 공간이 제2 공간이 아닌 다른 공간과 연결된 지점이 될 수 있다. Meanwhile, upon receiving a control authority approval message from the second robot 200-2, the processor 130 sends a control command to the first robot 200-1 to move the first robot 200-1 to a preset position. ) can be controlled to transmit to the communication interface 110. At this time, the preset location may be the station of the first robot 200-1, or may be a point where the first space is connected to a space other than the second space.

제2 로봇(200-2)은 전자 장치(100)와 연결되면 제2 공간의 이미지를 촬상하고(S416), 제2 로봇(200-2)이 촬상한 제2 공간의 이미지를 전자 장치(100)에 전송할 수 있다(S417).When connected to the electronic device 100, the second robot 200-2 captures an image of the second space (S416), and captures the image of the second space captured by the second robot 200-2 with the electronic device 100. ) can be transmitted (S417).

그리고, 프로세서(130)는 제2 로봇(200-2)으로부터 수신한 이미지를 기초로 제2 로봇(200-2)을 원격으로 제어할 수 있다. 구체적으로, 프로세서(130)는 제2 공간에 존재하는 제2 로봇(200-2)을 제어하기 위한 UI를 표시하도록 디스플레이를 제어할 수 있다(S418). 여기에서, 제2 로봇(200-2)을 제어하기 위한 UI는 제2 로봇(200-2)이 촬상한 이미지를 포함하는 UI를 포함할 수 있다. 또한, 프로세서(130)는 제2 로봇(200-2)이 촬상한 이미지를 기초로 증강 현실 이미지를 생성하고, 생성된 증강 현실 이미지를 포함하는 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. And, the processor 130 can remotely control the second robot 200-2 based on the image received from the second robot 200-2. Specifically, the processor 130 may control the display to display a UI for controlling the second robot 200-2 existing in the second space (S418). Here, the UI for controlling the second robot 200-2 may include a UI including an image captured by the second robot 200-2. Additionally, the processor 130 may generate an augmented reality image based on the image captured by the second robot 200-2 and control the display 120 to display a UI including the generated augmented reality image. .

이와 같은 과정을 통하여 전자 장치(100)는 제1 공간에 위치하는 제1 로봇(200-1)을 제어하면서 제1 로봇(200-1)이 촬상한 이미지를 획득할 수 있으며, 제1 로봇(200-1)이 제2 공간으로 이동하기 어려운 경우 제2 로봇(200-2)을 제어하면서 제2 로봇(200-2)이 촬상한 이미지를 획득할 수 있게 된다. Through this process, the electronic device 100 can acquire an image captured by the first robot 200-1 while controlling the first robot 200-1 located in the first space, and control the first robot 200-1 located in the first space. When it is difficult for 200-1) to move to the second space, the image captured by the second robot 200-2 can be acquired while controlling the second robot 200-2.

도 5A 내지 도 5E는 제1 로봇(200-1) 및 제2 로봇(200-2)으로부터 제1 로봇(200-1) 및 제2 로봇(200-2)이 촬상한 이미지를 수신하고, 수신된 이미지를 표시하는 전자 장치를 설명하기 위한 도면이다. 5A to 5E show images captured by the first robot 200-1 and the second robot 200-2 being received from the first robot 200-1 and the second robot 200-2. This is a diagram to explain an electronic device that displays an image.

도 5A는 장애물이 존재하는 공간에 존재하는 로봇을 설명하기 위한 도면으로, 가령, 계단과 같은 장애물이 존재하는 미술관 또는 박물관에 존재하는 로봇을 나타내는 도면이다. 본 개시에서 장애물은 로봇이 이동하지 못하도록 로봇의 이동을 제한하는 객체로, 계단 뿐만 아니라 에스컬레이터, 엘리베이터, 문, 펜스(fence)와 같은 다양한 형태가 될 수 있다. 또한, 도 5A의 공간은 미술관 또는 박물관 뿐만 아니라, 다양한 공간이 될 수 있음은 물론이다. Figure 5A is a diagram for explaining a robot existing in a space where obstacles exist, for example, a diagram showing a robot existing in an art gallery or museum where obstacles such as stairs exist. In the present disclosure, an obstacle is an object that restricts the movement of a robot to prevent it from moving, and may be of various forms such as stairs, escalators, elevators, doors, and fences. In addition, of course, the space in FIG. 5A can be not only an art gallery or museum, but also various spaces.

여기에서, 제1 로봇(200-1)이 위치하는 영역(가령, 그림 A 및 그림 B가 존재하는 영역)을 제1 공간이라 하고, 장애물에 의해 제1 로봇(200-1)이 이동 불가능한 영역(가령, 그림 C 및 그림 D가 존재하는 영역)을 제2 공간이라 기술할 수 있다. Here, the area where the first robot 200-1 is located (e.g., the area where Figures A and Figure B exist) is referred to as the first space, and an area where the first robot 200-1 cannot move due to obstacles. (For example, the area where Figure C and Figure D exist) can be described as the second space.

제1 로봇(200-1)은 전자 장치(100)로부터 제어 신호를 수신하고, 수신된 제어 신호에 따라 제1 공간을 이동하면서 이미지를 촬상할 수 있다. 가령, 제1 로봇(200-1)은 전자 장치(100)로부터 수신한 제어 신호에 기초하여, A 그림 또는 B그림을 촬영하고 촬영된 A 그림 또는 B 그림의 이미지를 전자 장치(100)에 전송할 수 있다. The first robot 200-1 may receive a control signal from the electronic device 100 and capture images while moving in the first space according to the received control signal. For example, based on the control signal received from the electronic device 100, the first robot 200-1 photographs picture A or picture B and transmits the image of the captured picture A or picture B to the electronic device 100. You can.

그리고, 프로세서(130)는 제1 로봇(200-1)으로부터 제1 로봇(200-1)이 촬상한 이미지를 수신하고, 수신된 이미지를 포함하는 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. Additionally, the processor 130 may receive an image captured by the first robot 200-1 from the first robot 200-1 and control the display 120 to display a UI including the received image. there is.

가령, 도 5b에 도시된 바와 같이, 프로세서(130)는 제1 로봇(200-1)이 촬상한 그림 A의 이미지를 수신하고, 수신된 그림 A를 포함하는 이미지를 포함하는 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. For example, as shown in FIG. 5B, the processor 130 receives the image of picture A captured by the first robot 200-1 and displays the UI including the image including the received picture A. (120) can be controlled.

한편, 도 5c에 도시된 바와 같이, 프로세서(130)는 제1 로봇(200-1)이 제1 공간에서 제2 공간을 향해 이동하는 중에 촬상한 이미지를 수신하고, 제1 로봇(200-1)으로부터 수신한 이미지를 화면에 표시하도록 디스플레이(120)를 제어할 수 있다. Meanwhile, as shown in FIG. 5C, the processor 130 receives an image captured while the first robot 200-1 is moving from the first space to the second space, and the first robot 200-1 ) can be controlled to display the image received from the display 120 on the screen.

이때, 프로세서(130)는 제1 로봇(200-1)으로부터 제1 공간에서 제2 공간을 향해 이동하는 중에 촬상한 이미지에서 장애물을 식별할 수 있다. 구체적으로, 프로세서(130)는 객체 인식 프로그램이나 이미지에 포함된 객체를 인식하도록 학습된 인공지능 모델을 이용하여 화면에 표시된 이미지에서 장애물을 식별할 수 있다. At this time, the processor 130 may identify an obstacle in an image captured while the first robot 200-1 is moving from the first space to the second space. Specifically, the processor 130 may identify obstacles in an image displayed on the screen using an object recognition program or an artificial intelligence model learned to recognize objects included in the image.

그리고, 프로세서(130)는 식별된 장애물이 화면의 기설정된 영역에 위치하는 경우, 제1 로봇(200-1)이 제2 공간으로 이동하기 어려운 것으로 결정할 수 있다. 이에 대해서는 도 6a 및 도 6b에서 구체적으로 설명하도록 한다. Additionally, the processor 130 may determine that it is difficult for the first robot 200-1 to move to the second space when the identified obstacle is located in a preset area of the screen. This will be explained in detail in FIGS. 6A and 6B.

또는, 프로세서(130)는 제1 로봇(200-1)으로부터 직접 장애물에 관한 정보를 수신할 수도 있다. 프로세서(130)는 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하면서 식별한 장애물에 관한 정보를 수신하고, 수신된 정보를 기초로 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하기 어려운 것으로 확인할 수도 있다. 이와 관련하여, 제1 로봇(200-1)은 제1 로봇(200-1)에 포함된 적외선 센서, 광 센서 및 카메라와 같은 다양한 센서를 통하여 제1 로봇(200-1)의 전방에 위치한 장애물을 식별하고, 식별된 장애물을 우회하거나 넘어갈 수 있는지 계산할 수 있다. 그리고, 계산 결과에 기초하여 식별된 장애물의 정보 및 장애물을 넘어가거나 통과할 수 있는지 여부 등을 포함하는 장애물에 관한 정보를 전자 장치(100)에 전송할 수 있다. Alternatively, the processor 130 may receive information about obstacles directly from the first robot 200-1. The processor 130 receives information about the obstacle identified by the first robot 200-1 while moving from the first space to the second space, and based on the received information, the first robot 200-1 It may be confirmed that it is difficult to move from space 1 to space 2. In this regard, the first robot 200-1 detects obstacles located in front of the first robot 200-1 through various sensors such as an infrared sensor, an optical sensor, and a camera included in the first robot 200-1. can be identified and calculated whether the identified obstacle can be bypassed or crossed. Additionally, information on the obstacle, including information on the identified obstacle based on the calculation result and whether the obstacle can be crossed or passed through, may be transmitted to the electronic device 100.

프로세서(130)는 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하기 어려운 것으로 확인되면, 제2 공간에 위치하는 제2 로봇(200-2)을 확인할 수 있다.If it is determined that it is difficult for the first robot 200-1 to move from the first space to the second space, the processor 130 may check the second robot 200-2 located in the second space.

구체적으로, 도 4에서 상술한 바와 같이, 프로세서(130)는 서버(300)에 제2 공간에 존재하는 로봇의 정보를 요청하고, 서버(300)로부터 제2 공간에 존재하는 제2 로봇(200-2)의 정보를 수신하고, 수신된 제2 로봇(200-2)의 정보를 표시할 수 있다. Specifically, as described above in FIG. 4, the processor 130 requests information about the robot existing in the second space from the server 300, and receives information about the second robot 200 existing in the second space from the server 300. -2) information may be received, and the received information of the second robot 200-2 may be displayed.

좀 더 구체적으로, 프로세서(130)는 서버(300)로부터 수신한 제2 로봇(200-2)의 정보를 기초로 제2 로봇(200-2)에 대한 가상 이미지를 생성하고, 생성된 가상 이미지를 기초로 증강 현실 이미지를 생성할 수 있다. More specifically, the processor 130 generates a virtual image for the second robot 200-2 based on the information about the second robot 200-2 received from the server 300, and the generated virtual image Based on this, an augmented reality image can be created.

구체적으로, 도 5d에 도시된 바와 같이, 프로세서(130)는 제1 로봇(200-1)이 촬상한 장애물을 포함하는 이미지에 서버(300)로부터 수신한 제2 로봇(200-2)에 대한 가상 이미지를 렌더링하여 증강 현실 이미지를 생성하고, 생성된 증강 현실 이미지를 표시하도록 디스플레이(120)를 제어할 수 있다. 이에 따라, 전자 장치(100)의 사용자는 제2 공간에 제2 로봇(200-2)이 존재함을 시각적으로 인식할 수 있게 된다. Specifically, as shown in FIG. 5D, the processor 130 stores information about the second robot 200-2 received from the server 300 in the image containing the obstacle captured by the first robot 200-1. An augmented reality image can be generated by rendering a virtual image, and the display 120 can be controlled to display the generated augmented reality image. Accordingly, the user of the electronic device 100 can visually recognize that the second robot 200-2 exists in the second space.

한편, 프로세서(130)는 디스플레이(120)에 표시된 증강 현실 이미지에서 제2 로봇(200-2)의 정보를 선택하는 사용자 입력을 수신할 수 있다. 가령, 프로세서(130)는 도 5d와 같이 제2 로봇(200-2)에 대한 가상 이미지를 선택하는 사용자 입력을 수신할 수 있다. Meanwhile, the processor 130 may receive a user input for selecting information about the second robot 200-2 from the augmented reality image displayed on the display 120. For example, the processor 130 may receive a user input for selecting a virtual image for the second robot 200-2 as shown in FIG. 5D.

제2 로봇(200-1)에 대한 가상 이미지를 선택하는 사용자 입력을 수신하면, 프로세서(130)는 제2 로봇(200-2)에 제어 권한을 요청하는 신호를 전송할 수 있다. 그리고, 제2 로봇(200-2)으로부터 제2 로봇(200-2)에 대한 제어 권한을 받으면, 제2 로봇(200-2)과 연결되어 제2 로봇(200-2)을 제어할 수 있다. Upon receiving a user input for selecting a virtual image for the second robot 200-1, the processor 130 may transmit a signal requesting control authority to the second robot 200-2. And, upon receiving control authority for the second robot 200-2 from the second robot 200-2, it is connected to the second robot 200-2 and can control the second robot 200-2. .

그리고, 프로세서(130)는 제2 로봇(200-2)이 제1 로봇(200-1)과 인접한 영역으로 이동하도록 하는 제어 명령을 제2 로봇(200-2)에 전송하도록 통신 인터페이스(110)를 제어할 수 있다. 여기에서 '인접한 영역'은, 제1 로봇(200-1)이 이동할 수 없는 제2 공간의 영역으로 제1 로봇(200-1)의 전방에 위치한 장애물과 만나는 영역을 나타낸다. 이에 따라, 제2 로봇(200-2)은 제2 공간이 장애물과 만나는 영역으로 이동할 수 있다. And, the processor 130 uses a communication interface 110 to transmit a control command to the second robot 200-2 to cause the second robot 200-2 to move to an area adjacent to the first robot 200-1. can be controlled. Here, the 'adjacent area' is an area of the second space where the first robot 200-1 cannot move and represents an area where the first robot 200-1 meets an obstacle located in front of the first robot 200-1. Accordingly, the second robot 200-2 can move to an area where the second space meets an obstacle.

프로세서(130)는 제2 로봇(200-2)이 제1 로봇(200-1)과 인접한 영역으로 이동하면 제2 로봇(200-2)으로부터 제2 로봇(200-2)이 촬상한 이미지를 수신하고, 수신된 이미지를 포함하는 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. 가령, 프로세서(130)는 제2 로봇(200-2)이 제1 로봇(200-1)과 인접한 영역인 C 그림 앞으로 이동하게 되면, 제2 로봇(200-2)이 제2 공간의 이미지를 촬상하고, 촬상된 이미지를 전송하도록 제2 로봇(200-2)을 제어할 수 있다. 그리고, 도 5e에 도시된 바와 같이, 제2 로봇(200-2)으로부터 제2 로봇(200-2)이 촬상한 이미지(가령, 그림 C의 이미지)를 포함하는 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. When the second robot 200-2 moves to an area adjacent to the first robot 200-1, the processor 130 receives the image captured by the second robot 200-2 from the second robot 200-2. The display 120 may be controlled to receive the image and display a UI including the received image. For example, when the second robot 200-2 moves in front of picture C, which is an area adjacent to the first robot 200-1, the processor 130 causes the second robot 200-2 to display the image of the second space. The second robot 200-2 can be controlled to capture images and transmit the captured images. And, as shown in FIG. 5E, the display 120 is configured to display a UI including an image captured by the second robot 200-2 (e.g., the image in Figure C). can be controlled.

이에 따라, 전자 장치(100)는 특정 공간에 장애물이 존재하더라도 특정 공간에 존재하는 복수의 로봇을 이용하여 장애물에 대한 제약 없이 특정 공간의 이미지를 사용자에게 제공할 수 있게 되며, 사용자는 공간에 대한 제약 없이 연속적인 서비스를 제공 받을 수 있게 된다.Accordingly, the electronic device 100 can provide the user with an image of a specific space without restrictions on obstacles by using a plurality of robots existing in the specific space even if there are obstacles in the specific space, and the user can provide the user with information about the space. You will be able to receive continuous services without restrictions.

도 6은 로봇이 촬상한 이미지에서 장애물을 식별하고, 가상의 이미지를 표시하는 전자 장치를 설명하기 위한 도면이다. 도 6a는 로봇으로부터 장애물이 포함된 이미지를 수신하여 표시하는 전자 장치를 설명하기 위한 도면이고, 도 6b는 장애물이 포함된 이미지에서 장애물을 식별하고, 다른 공간의 이미지를 표시하는 전자 장치를 설명하기 위한 도면이다. FIG. 6 is a diagram for explaining an electronic device that identifies obstacles in images captured by a robot and displays a virtual image. FIG. 6A is a diagram for explaining an electronic device that receives and displays an image containing an obstacle from a robot, and FIG. 6B is a diagram for explaining an electronic device that identifies an obstacle in an image containing an obstacle and displays an image of another space. This is a drawing for

상술한 바와 같이 제1 로봇(200-1)은 제1 공간을 이동하면서 이미지를 촬상하고, 촬상된 이미지를 전자 장치(100)에 전송할 수 있다. 그리고, 프로세서(130)는 제1 로봇(200-1)으로부터 제1 로봇(200-1)이 촬상한 이미지를 수신하고, 수신한 이미지를 표시하도록 디스플레이(120)를 제어할 수 있다. As described above, the first robot 200-1 may capture an image while moving in the first space and transmit the captured image to the electronic device 100. Additionally, the processor 130 may receive an image captured by the first robot 200-1 from the first robot 200-1 and control the display 120 to display the received image.

한편, 프로세서(130)는 제1 로봇(200-1)이 촬상한 이미지에서 장애물을 식별할 수 있다. 구체적으로, 프로세서(130)는 메모리(미도시)에 저장된 객체 인식 프로그램 또는 이미지에 포함된 객체를 인식하도록 학습된 인공지능 모델을 이용하여, 제1 로봇(200-1)에 포함된 장애물을 식별할 수 있다. Meanwhile, the processor 130 may identify an obstacle in an image captured by the first robot 200-1. Specifically, the processor 130 identifies obstacles included in the first robot 200-1 using an object recognition program stored in memory (not shown) or an artificial intelligence model learned to recognize objects included in an image. can do.

그리고, 프로세서(130)는 식별된 장애물이 디스플레이(120)의 화면의 기설정된 영역(610)에 표시되는 경우, 제1 로봇(200-1)이 장애물을 넘어갈 수 없다고 판단할 수 있다. 여기에서, 기설정된 영역(610)은 로봇(200)의 전방에 위치한 장애물의 크기를 대략적으로 식별하여 로봇(200)이 장애물을 넘을 수 있는지 판단하기 위한 영역으로, 디스플레이 화면의 중심 영역을 포함하면서 전체 화면 면적의 일정 비율 이상을 차지하는 영역이다. Also, when the identified obstacle is displayed in the preset area 610 of the screen of the display 120, the processor 130 may determine that the first robot 200-1 cannot overcome the obstacle. Here, the preset area 610 is an area for determining whether the robot 200 can overcome the obstacle by roughly identifying the size of the obstacle located in front of the robot 200, and includes the center area of the display screen. This is an area that occupies more than a certain percentage of the total screen area.

프로세서(130)는 제1 로봇(200-1)이 촬상한 이미지에 포함된 장애물이 화면의 기설정된 영역(610) 내에 표시되고, 기설정된 영역(610)에서 장애물을 제외한 영역(빗금친 영역)의 면적이 기정의된 값 이하인 경우, 제1 로봇(200-1)이 장애물을 넘어 이동할 수 없다고 확인할 수 있다. The processor 130 displays obstacles included in the image captured by the first robot 200-1 within a preset area 610 of the screen, and displays an area excluding the obstacle from the preset area 610 (shaded area). If the area of is less than a predefined value, it can be confirmed that the first robot 200-1 cannot move over the obstacle.

가령, 프로세서(130)는 제1 로봇(200-1)이 촬상한 이미지에서 문을 식별하고, 문이 화면의 기설정된 영역(610) 내에 표시되고, 기설정된 영역(610)에서 문을 제외한 영역의 면적이 기정의된 값 이하인 경우, 제1 로봇(200-1)이 장애물을 넘어 이동할 수 없다고 판단할 수 있다. For example, the processor 130 identifies a door in the image captured by the first robot 200-1, displays the door within a preset area 610 on the screen, and displays an area excluding the door from the preset area 610. If the area of is less than a predefined value, it may be determined that the first robot 200-1 cannot move over the obstacle.

장애물에 의해 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동할 수 없다고 확인된 경우, 프로세서(130)는 제2 공간에 관한 정보를 서버(300)에 요청할 수 있다. When it is confirmed that the first robot 200-1 cannot move from the first space to the second space due to an obstacle, the processor 130 may request information about the second space from the server 300.

구체적으로, 프로세서(130)는 서버(300)에 제1 로봇(200-1)의 식별 정보를 전송하고, 제1 로봇(200-1)의 식별 정보를 기초로 제1 로봇(200-1)의 위치와 인접한 제2 공간에 관한 정보를 요청할 수 있다. 여기에서 제2 공간에 관한 정보는 제2 공간의 이미지 정보 또는 제2 공간에 포함된 객체의 이미지 정보를 포함할 수 있다. 또한, 프로세서(130)는 서버(300)에 제2 공간에 위치하는 로봇의 정보를 요청할 수 있다.Specifically, the processor 130 transmits identification information of the first robot 200-1 to the server 300, and identifies the first robot 200-1 based on the identification information of the first robot 200-1. You can request information about the location of and the adjacent second space. Here, the information about the second space may include image information of the second space or image information of an object included in the second space. Additionally, the processor 130 may request information about a robot located in the second space from the server 300.

도 4에서 상술한 바와 같이, 제1 로봇(200-1) 및 제2 로봇(200-2)은 서버(300)에 주기적으로 식별 정보 및 위치 정보를 전송한다는 점에서, 서버(300)에는 제1 로봇(200-1) 및 제2 로봇(200-2)의 위치 정보가 저장될 수 있다. 따라서, 전자 장치(100)로부터 제1 로봇(200-1)의 식별 정보를 수신한 서버(300)는 제1 로봇(200-1)의 식별 정보를 토대로 제1 로봇의 위치 정보를 식별할 수 있다. As described above in FIG. 4, the first robot 200-1 and the second robot 200-2 periodically transmit identification information and location information to the server 300. Location information of the first robot 200-1 and the second robot 200-2 may be stored. Therefore, the server 300, which has received the identification information of the first robot 200-1 from the electronic device 100, can identify the location information of the first robot based on the identification information of the first robot 200-1. there is.

또한, 서버(300)는 제1 로봇(200-1)의 위치 정보를 기초로 제1 로봇(200-1)과 인접한 제2 공간에 관한 정보를 획득할 수 있다. 이를 위하여 서버(300)는 복수의 공간에 대한 공간 정보를 저장할 수 있다. 구체적으로, 서버(300)는 복수의 공간 각각에 위치하는 공간 수집 장치로부터 공간 정보를 수신하고, 수신된 공간 정보를 저장할 수 있다. 이와 관련하여, 서버(300)의 동작에 대해서는 도 7 및 도 8에서 구체적으로 설명하기로 한다.Additionally, the server 300 may obtain information about the second space adjacent to the first robot 200-1 based on the location information of the first robot 200-1. To this end, the server 300 can store spatial information about a plurality of spaces. Specifically, the server 300 may receive spatial information from a spatial collection device located in each of a plurality of spaces and store the received spatial information. In this regard, the operation of the server 300 will be described in detail with reference to FIGS. 7 and 8.

서버(300)는 획득한 제2 공간에 대한 정보 및 제2 공간에 위치하는 로봇의 정보를 전자 장치(100)에 전송할 수 있다. 구체적으로, 서버(300)는 제2 공간의 이미지 정보, 제2 공간에 위치하는 제2 로봇(200-2)의 이미지 정보, 식별 정보, 위치 정보, 배터리 정보 및 이동 가능한 영역에 관한 정보 중 적어도 하나를 전자 장치(100)에 전송할 수 있다. The server 300 may transmit the acquired information about the second space and information about the robot located in the second space to the electronic device 100. Specifically, the server 300 may provide at least one of image information of the second space, image information of the second robot 200-2 located in the second space, identification information, location information, battery information, and information about the movable area. One can be transmitted to the electronic device 100.

한편, 서버(300)에 저장된 로봇에 관한 정보를 기초로, 제2 공간에 로봇이 존재하지 않는 것으로 확인될 수도 있다. 이 경우, 프로세서(130)는 서버(300)에 제2 공간과 연결된 제3 공간에 대한 정보를 요청할 수 있다. 구체적으로, 프로세서(130)는 제3 공간의 위치 정보 및 제3 공간에 위치하는 로봇의 정보를 수신할 수 있다. 그리고, 제3 공간에 위치하는 제3 로봇이 제2 공간으로 이동할 수 있는지 확인하고, 제3 로봇을 제어하기 위한 UI를 표시할 수 있다. Meanwhile, based on information about the robot stored in the server 300, it may be confirmed that the robot does not exist in the second space. In this case, the processor 130 may request information about the third space connected to the second space from the server 300. Specifically, the processor 130 may receive location information of the third space and information about a robot located in the third space. Additionally, it is possible to check whether the third robot located in the third space can move to the second space, and to display a UI for controlling the third robot.

한편, 제2 공간에 위치하는 로봇이 존재하는 경우, 프로세서(130)는 서버(300)로부터 수신한 제2 공간에 대한 정보 및 제2 공간에 위치하는 로봇의 정보를 기초로, 증강 현실 이미지를 생성하고 이를 표시하도록 디스플레이(120)를 제어할 수 있다. Meanwhile, when there is a robot located in the second space, the processor 130 creates an augmented reality image based on the information about the second space received from the server 300 and the information about the robot located in the second space. The display 120 can be controlled to generate and display it.

구체적으로, 프로세서(130)는 제1 로봇(200-1)으로부터 수신한 이미지에 서버(300)로부터 수신한 제2 공간의 이미지 및 제2 로봇(200-2)의 이미지를 렌더링하여 증강현실 이미지를 생성할 수 있다. 이때, 프로세서(130)는 제1 로봇(200-1)으로부터 수신한 이미지에서 기 설정된 영역(610)에 표시된 장애물의 위치에 제2 공간의 이미지 및 제2 로봇(200-2)의 이미지를 렌더링하도록 디스플레이(120)를 제어할 수 있다. 또한, 프로세서(130)는 제2 공간의 이미지 및 제2 로봇(200-2)의 이미지를 렌더링하면서 장애물에 대응되는 그래픽 효과를 제공하도록 디스플레이(120)를 제어할 수 있다. 가령, 프로세서(130)는 도 6b에 도시된 바와 같이, 제2 공간의 이미지 및 제2 로봇(200-2)의 이미지를 렌더링 하면서 문이 열리는 그래픽 효과를 제공하도록 디스플레이(120)를 제어할 수 있다. Specifically, the processor 130 renders the image of the second space and the image of the second robot 200-2 received from the server 300 on the image received from the first robot 200-1 to create an augmented reality image. can be created. At this time, the processor 130 renders the image of the second space and the image of the second robot 200-2 at the location of the obstacle displayed in the preset area 610 in the image received from the first robot 200-1. The display 120 can be controlled to do so. Additionally, the processor 130 may control the display 120 to provide graphic effects corresponding to obstacles while rendering images of the second space and the image of the second robot 200-2. For example, the processor 130 may control the display 120 to provide a graphic effect of a door opening while rendering an image of the second space and an image of the second robot 200-2, as shown in FIG. 6B. there is.

이에 따라, 프로세서(130)는 제1 로봇(200-1)이 장애물을 만나 제1 공간에서 제2 공간으로 이동하기 어려운 경우, 제2 공간의 이미지 및 제2 공간에 존재하는 제2 로봇의 이미지를 포함하는 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. Accordingly, when the first robot 200-1 encounters an obstacle and has difficulty moving from the first space to the second space, the processor 130 generates an image of the second space and an image of the second robot existing in the second space. The display 120 can be controlled to display a UI including.

도 7은 본 개시의 일 실시 예에 따라 공간 정보를 수집하여 저장하는 서버를 설명하기 위한 도면이다. FIG. 7 is a diagram illustrating a server that collects and stores spatial information according to an embodiment of the present disclosure.

본 개시의 각각의 공간에는 공간 정보 수집 장치(500)가 위치할 수 있다. 여기에서, 공간 정보 수집 장치(500)는 공간 정보 수집 장치(500)가 놓인 공간을 촬상하여 공간에 대한 이미지를 생성하는 장치로, 카메라, CCTV를 비롯한 다양한 촬상 장치를 의미한다. A spatial information collection device 500 may be located in each space of the present disclosure. Here, the spatial information collection device 500 is a device that generates an image of the space by capturing an image of the space in which the spatial information collection device 500 is placed, and refers to various imaging devices including cameras and CCTVs.

구체적으로, 도 8에 도시된 바와 같이, 장애물이 위치한 영역으로 기준으로 제1 공간을 촬상하는 공간 수집 장치(500-1) 및 제2 공간을 촬상하는 공간 수집 장치(500-2)가 존재할 수 있다. 한편, 도 8에는 제1 공간에 대한 공간 수집 장치(500-1) 및 제2 공간에 대한 공간 수집 장치(500-2)가 각각 하나인 것으로 도시하였으나, 각각의 공간에는 복수의 공간 수집 장치가 위치할 수 있다. Specifically, as shown in FIG. 8, there may be a space collection device 500-1 for imaging the first space and a space collection device 500-2 for imaging the second space based on the area where the obstacle is located. there is. Meanwhile, in FIG. 8, there is one space collection device 500-1 for the first space and one space collection device 500-2 for the second space, but each space has a plurality of space collection devices. can be located

공간 정보 수집 장치(500)는 공간 정보 수집 장치(500)가 놓인 공간에 대한 공간 정보를 수집할 수 있다(S710). 구체적으로, 공간 정보 수집 장치(500)는 공간 정보 수집 장치(500)가 위치한 공간을 촬영하면서 공간에 존재하는 로봇이나 다양한 객체들을 포함하는 이미지를 생성할 수 있다. The spatial information collection device 500 may collect spatial information about the space in which the spatial information collection device 500 is located (S710). Specifically, the spatial information collection device 500 may capture a space where the spatial information collection device 500 is located and generate an image including robots or various objects existing in the space.

가령, 도 8을 참조하면, 제1 공간 수집 장치(500-1)는 제1 공간 및 제1 공간에 위치하는 로봇이나 다양한 객체들을 촬영하여, 제1 공간에 대한 공간 정보를 수집할 수 있다. 또한, 제2 공간 수집 장치(500-2)는 제2 공간 및 제2 공간에 위치하는 로봇이나 다양한 객체들을 촬영하여, 제2 공간에 대한 공간 정보를 수집할 수 있다. For example, referring to FIG. 8 , the first space collection device 500-1 may collect spatial information about the first space by photographing the first space and robots or various objects located in the first space. Additionally, the second space collection device 500-2 may collect spatial information about the second space by photographing the second space and robots or various objects located in the second space.

공간 수집 장치(500)는 수집된 공간 정보를 서버(300)에 전송할 수 있다(S720). 구체적으로, 공간 수집 장치(500)는 서버(300)와 연결되어 주기적으로 서버(300))에 수집된 공간 정보를 전송할 수 있다. The spatial collection device 500 may transmit the collected spatial information to the server 300 (S720). Specifically, the spatial collection device 500 may be connected to the server 300 and periodically transmit collected spatial information to the server 300.

서버(300)는 공간 정보 수집 장치(500)로부터 수신한 공간 정보를 영상처리를 통해 재구성하여 저장할 수 있다(S730). 구체적으로, 서버(300)는 공간 정보 수집 장치(500)로부터 수신한 공간 정보에 포함된 이미지를 확대, 축소, 회전하는 유클리드 기하학적 변환을 수행하거나, 이미지의 색보정 또는 색 변환을 수행하거나, 제1 공간 수집 장치(500-1)(또는 제2 공간 수집 장치(500-2))로부터 수신한 복수의 이미지를 결합하여 제1 공간에 대한 하나의 이미지를 생성하는 등 다양한 영상 처리를 통하여 각 공간에 대한 공간 정보를 재구성하여 저장할 수 있다. The server 300 can reconstruct and store the spatial information received from the spatial information collection device 500 through image processing (S730). Specifically, the server 300 performs Euclidean geometric transformation to enlarge, reduce, and rotate the image included in the spatial information received from the spatial information collection device 500, performs color correction or color conversion of the image, or 1 Each space is processed through various image processing, such as combining a plurality of images received from the space collection device 500-1 (or the second space collection device 500-2) to create one image for the first space. Spatial information about can be reconstructed and stored.

그리고, 서버(300)는 재구성된 공간 정보를 공간 정보 수집 장치(500)에 전송할 수 있다(S740). 이 경우, 공간 정보 수집 장치(500)는 서버(300)로부터 수신한 재구성된 공간 정보를 기초로 공간 정보를 재수집할 수 있다. Then, the server 300 may transmit the reconstructed spatial information to the spatial information collection device 500 (S740). In this case, the spatial information collection device 500 may re-collect spatial information based on the reconstructed spatial information received from the server 300.

한편, 서버(300)에 저장된 공간 정보를 기반으로, 복수의 공간 정보가 연결될 수 있다(S750). 구체적으로, 서버(300)의 관리자는 각 공간에 대한 지리적 정보를 기초로, 복수의 공간 정보를 연결할 수 있다. Meanwhile, based on the spatial information stored in the server 300, a plurality of spatial information may be connected (S750). Specifically, the manager of the server 300 may connect a plurality of spatial information based on geographical information for each space.

또 다른 실시 예로, 각 공간에 대한 지리적 정보가 서버(300)에 입력되면, 서버(300)는 입력된 지리적 정보를 기초로, 복수의 공간 정보 각각을 연결할 수도 있다. 가령, 서버(300)가 수신한 지리적 정보에 제1 공간과 제2 공간이 연결되고, 제2 공간과 제3 공간이 연결된 것으로 나타나 있다면, 서버(300)는 제1 공간에 대한 공간 정보 및 제2 공간에 대한 공간 정보를 하나의 쌍으로, 제2 공간에 대한 공간 정보 및 제3 공간에 대한 공간 정보를 하나의 쌍으로 매핑할 수 있다. As another example, when geographical information for each space is input to the server 300, the server 300 may connect each of a plurality of spatial information based on the input geographical information. For example, if the geographical information received by the server 300 indicates that the first space and the second space are connected, and the second space and the third space are connected, the server 300 provides spatial information about the first space and the third space. Spatial information for the second space can be mapped as one pair, and spatial information for the second space and spatial information for the third space can be mapped as one pair.

그리고, 서버(300)는 서로 연결된 복수의 공간 정보를 서버(300)에 저장할 수 있다(S760). Additionally, the server 300 may store a plurality of interconnected spatial information in the server 300 (S760).

이에 따라, 서버(300)는 전자 장치(100)로부터 제1 로봇(500-1)의 식별 정보를 수신하는 경우, 제1 로봇(500-1)의 식별 정보를 토대로 제1 로봇(500-1)의 위치 정보를 확인하고, 확인된 제1 로봇(500-1)의 위치 정보를 기초로 제1 로봇(500-1)과 인접한 제2 공간에 대한 정보를 식별할 수 있다. Accordingly, when the server 300 receives identification information of the first robot 500-1 from the electronic device 100, the server 300 selects the first robot 500-1 based on the identification information of the first robot 500-1. ), and information about the second space adjacent to the first robot 500-1 can be identified based on the confirmed location information of the first robot 500-1.

도 9는 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다. FIG. 9 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.

전자 장치(100)는 제1 공간에 위치하는 제1 로봇(200-1)과 연결할 수 있다. 구체적으로, 전자 장치(100)는 제1 로봇(200-1)에 제어 권한 요청 메시지를 전송하고, 제1 로봇(200-1)으로부터 제어 권한을 수신할 수 있다. The electronic device 100 can be connected to the first robot 200-1 located in the first space. Specifically, the electronic device 100 may transmit a control permission request message to the first robot 200-1 and receive control permission from the first robot 200-1.

전자 장치(100)가 제1 로봇(200-1)과 연결되면, 제1 로봇을 제어하기 위한 UI를 표시할 수 있다(S910). When the electronic device 100 is connected to the first robot 200-1, a UI for controlling the first robot can be displayed (S910).

구체적으로, 제1 로봇(200-1)과 연결되면, 제1 로봇(200-1)으로부터 제1 로봇(200-1)이 촬상한 이미지를 수신하고, 수신된 이미지를 포함하는 UI를 표시할 수 있다. 이때, 제1 로봇(200-1)이 제1 공간에서 제2 공간을 향해 이동하면서 촬상한 이미지를 수신하고, 수신된 이미지를 포함하는 UI를 표시할 수 있다. Specifically, when connected to the first robot 200-1, the image captured by the first robot 200-1 is received from the first robot 200-1, and a UI including the received image is displayed. You can. At this time, the first robot 200-1 may receive an image captured while moving from the first space to the second space, and display a UI including the received image.

그리고, 사용자 조작 명령에 기초하여 제1 로봇(200-1)을 제어하기 위한 제어 명령을 제1 로봇(200-1)에 전송할 수 있다. 이에 따라, 제1 로봇(200-1)은 제어 명령에 따라 제1 공간을 이동하면서 제1 공간을 촬상할 수 있다. Also, a control command for controlling the first robot 200-1 may be transmitted to the first robot 200-1 based on the user manipulation command. Accordingly, the first robot 200-1 can capture images of the first space while moving through the first space according to a control command.

그리고, 제1 로봇(200-1)이 제1 공간과 다른 제2 공간으로 이동할 수 있는지 확인할 수 있다. 구체적으로, 제1 로봇(200-1)이 제1 공간에서 제2 공간을 향해 이동하면서 촬상한 이미지에서 장애물을 식별하고, 식별된 장애물이 화면의 기설정된 영역에 위치하는 경우, 제1 로봇이 제1 공간에서 제2 공간으로 이동하기 어려운 것으로 결정할 수 있다. Also, it can be confirmed whether the first robot 200-1 can move to a second space that is different from the first space. Specifically, the first robot 200-1 identifies an obstacle in an image captured while moving from the first space to the second space, and when the identified obstacle is located in a preset area of the screen, the first robot 200-1 It may be determined that it is difficult to move from the first space to the second space.

다른 일 실시 예에 따라, 제1 로봇(200-1)으로부터 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하면서 식별한 장애물에 관한 정보를 수신하고, 수신된 장애물에 관한 정보를 기초로 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동할 수 있는지 확인할 수 있다. 이를 위하여, 제1 로봇(200-1)은 전자 장치(100)의 제어 명령에 따라 이동하면서 적외선 센서, 광 센서 및 카메라와 같은 다양한 센서를 통하여 장애물을 식별할 수 있다. 그리고, 제1 로봇(200-1)은 식별된 장애물에 관한 정보를 전자 장치(100)에 전송할 수 있다. According to another embodiment, information about an obstacle identified while the first robot 200-1 moves from the first space to the second space is received from the first robot 200-1, and information about the received obstacle is received. Based on the information, it can be confirmed whether the first robot 200-1 can move from the first space to the second space. To this end, the first robot 200-1 can identify obstacles through various sensors such as an infrared sensor, an optical sensor, and a camera while moving according to the control command of the electronic device 100. Additionally, the first robot 200-1 may transmit information about the identified obstacle to the electronic device 100.

제1 로봇(200-1)이 제1 공간과 다른 제2 공간으로 이동하기 어려우면, 제2 공간에 위치하는 제2 로봇(200-2)을 확인할 수 있다(S930).If it is difficult for the first robot 200-1 to move to a second space different from the first space, the second robot 200-2 located in the second space can be confirmed (S930).

제1 로봇(200-1)으로부터 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하면서 식별한 장애물에 관한 정보를 수신하는 경우, 수신된 정보를 기초로 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하기 어려운 것으로 확인되면, 제2 공간에 로봇이 존재하는지 확인할 수 있다. When receiving information about an obstacle identified while the first robot 200-1 moves from the first space to the second space from the first robot 200-1, the first robot 200-1 based on the received information -1) If it is confirmed that it is difficult to move from the first space to the second space, it can be confirmed whether the robot exists in the second space.

구체적으로, 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하기 어려우면, 서버(300)에 제2 공간에 위치하는 로봇의 정보를 요청할 수 있다. 그리고, 서버(300)로부터 제2 공간에 위치하는 제2 로봇(200-2)의 정보를 수신할 수 있다. 이때, 제2 로봇(200-2)의 정보는 제2 로봇(200-2)의 이미지, 종류, 식별 정보, 위치 정보, 배터리 정보 및 이동 가능한 영역에 관한 정보 중 적어도 하나를 포함할 수 있다. Specifically, if it is difficult for the first robot 200-1 to move from the first space to the second space, information about the robot located in the second space may be requested from the server 300. And, information about the second robot 200-2 located in the second space can be received from the server 300. At this time, the information about the second robot 200-2 may include at least one of the image, type, identification information, location information, battery information, and information about the movable area of the second robot 200-2.

한편, 이때, 제2 공간에 로봇이 존재하지 않는 것으로 확인되면, 서버(300)에 제2 공간과 연결된 제3 공간에 대한 정보를 요청하고, 서버(300)로부터 수신한 정보를 기초로 제3 공간에 위치하는 제3 로봇(200-3)이 제2 공간으로 이동할 수 있는지 확인할 수 있다. 그리고, 제3 로봇(200-3)이 제2 공간으로 이동가능 한 경우, 제3 로봇(200-3)을 제어하기 위한 UI를 표시할 수 있다.Meanwhile, at this time, if it is confirmed that there is no robot in the second space, information about the third space connected to the second space is requested from the server 300, and the third space is requested based on the information received from the server 300. It can be confirmed whether the third robot 200-3 located in the space can move to the second space. Also, when the third robot 200-3 can move to the second space, a UI for controlling the third robot 200-3 may be displayed.

서버(300)로부터 제2 로봇(200-2)의 정보를 수신하면, 수신된 제2 로봇(200-2)의 정보를 표시할 수 있다. 가령, 제2 로봇(200-2)의 이미지 정보를 표시할 수 있다.When information about the second robot 200-2 is received from the server 300, the received information about the second robot 200-2 can be displayed. For example, image information of the second robot 200-2 may be displayed.

그리고, 표시된 제2 로봇(200-2)을 선택하는 사용자 입력을 수신하면, 제2 로봇(200-2)에서 촬상된 제2 이미지를 표시할 수 있다.And, when a user input for selecting the displayed second robot 200-2 is received, the second image captured by the second robot 200-2 can be displayed.

구체적으로, 제2 로봇(200-2)을 선택하는 사용자 입력을 수신하면, 제2 로봇(200-2)에 제어 권한을 요청할 수 있다. 이때, 제2 로봇(200-2)으로부터 제어 권한 승인을 수신하면, 제2 로봇(200-2)과 연결되어 제2 로봇(200-2)에 제어 명령을 전송할 수 있다. Specifically, upon receiving a user input for selecting the second robot 200-2, control authority may be requested from the second robot 200-2. At this time, when control authority approval is received from the second robot 200-2, it is connected to the second robot 200-2 and a control command can be transmitted to the second robot 200-2.

그리고, 확인된 제2 로봇(200-2)을 제어하기 위한 UI를 표시할 수 있다(S940).And, a UI for controlling the confirmed second robot 200-2 can be displayed (S940).

이때, 제2 로봇(200-2)이 제1 로봇(200-1)과 인접한 영역으로 이동하도록 하는 제어 명령을 제2 로봇(200-2)에 전송할 수 있다. 제2 로봇(200-2)이 제1 로봇(200-1)과 인접한 영역으로 이동하면, 제2 로봇(200-2)으로부터 제2 로봇(200-2)이 촬상한 이미지를 수신하고, 제2 로봇(200-2)으로부터 수신한 이미지를 포함하는 UI를 표시할 수 있다. At this time, a control command that causes the second robot 200-2 to move to an area adjacent to the first robot 200-1 may be transmitted to the second robot 200-2. When the second robot 200-2 moves to an area adjacent to the first robot 200-1, it receives the image captured by the second robot 200-2 and 2 A UI including an image received from the robot 200-2 can be displayed.

제2 로봇(200-2)으로부터 제어 권한 승인을 수신하고 제2 로봇(200-2)이 제1 로봇(200-1)과 인접한 영역으로 이동하면, 제1 로봇(200-1)이 제1 로봇(200-1)의 스테이션과 같은 기설정된 위치로 이동하도록 하는 제어 명령을 제1 로봇(200-1)에 전송할 수 있다. When control authority approval is received from the second robot (200-2) and the second robot (200-2) moves to an area adjacent to the first robot (200-1), the first robot (200-1) A control command to move the robot 200-1 to a preset location, such as a station, may be transmitted to the first robot 200-1.

이상에서 전자 장치(100) 또는 서버(200) 중 적어도 하나를 통해 수행되는 것으로 기재된 다양한 동작들은, 전자 장치의 제어 방법 또는 전자 장치를 포함하는 시스템의 제어 방법 내지 동작 방법의 형태로 하나 이상의 전자 장치를 통해 수행될 수 있다. The various operations described above as being performed through at least one of the electronic device 100 or the server 200 are performed by one or more electronic devices in the form of a control method of an electronic device or a control method or operation method of a system including an electronic device. It can be performed through .

한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다.Meanwhile, the various embodiments described above may be implemented in a recording medium that can be read by a computer or similar device using software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 본 개시에서 설명되는 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(Programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processor), 제어기(controller), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessor), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다.According to hardware implementation, embodiments described in this disclosure include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and field programmable gate arrays (FPGAs). ), processor, controller, micro-controllers, microprocessor, and other electrical units for performing functions.

일부의 경우에 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상술한 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.In some cases, embodiments described herein may be implemented in the processor itself. According to software implementation, embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules described above may perform one or more functions and operations described herein.

한편, 상술한 본 개시의 다양한 실시 예들에 따른 사용자 장치 또는 관리자 장치에서의 처리동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 사용자 장치 및/또는 관리자 장치의 처리 동작을 상술한 특정 기기가 수행하도록 한다.Meanwhile, computer instructions for performing processing operations on a user device or administrator device according to various embodiments of the present disclosure described above may be stored in a non-transitory computer-readable medium. You can. The computer instructions stored in such a non-transitory computer-readable medium, when executed by a processor of a specific device, cause the specific device to perform processing operations of the user device and/or the administrator device according to the various embodiments described above.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다. A non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as registers, caches, and memories. Specifically, the various applications or programs described above may be stored and provided on non-transitory readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, etc.

또한, 이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.In addition, although the preferred embodiments of the present disclosure have been shown and described above, the present disclosure is not limited to the specific embodiments described above, and the technical field belonging to the disclosure is not departing from the gist of the disclosure as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical idea or perspective of the present invention.

100: 전자 장치 200-1: 제1 로봇
100-2: 제2 로봇 300: 서버
110: 통신 인터페이스 120: 디스플레이
130: 프로세서
100: Electronic device 200-1: First robot
100-2: Second robot 300: Server
110: communication interface 120: display
130: processor

Claims (20)

전자 장치의 제어 방법에 있어서,
제1 공간에 위치하는 제1 로봇을 제어하기 위한 UI를 표시하는 단계;
사용자 조작 명령에 기초하여 상기 제1 로봇을 제어하기 위한 제어 명령을 상기 제1 로봇에 전송하는 단계;
상기 제1 로봇이 상기 제1 공간과 다른 제2 공간으로 이동하기 어려우면, 상기 제2 공간에 위치하는 제2 로봇을 확인하는 단계; 및
상기 확인된 제2 로봇을 제어하기 위한 UI를 표시하는 단계;를 포함하는 제어 방법.
In a method of controlling an electronic device,
Displaying a UI for controlling a first robot located in a first space;
Transmitting a control command for controlling the first robot to the first robot based on a user operation command;
If it is difficult for the first robot to move to a second space different from the first space, confirming a second robot located in the second space; and
A control method comprising: displaying a UI for controlling the confirmed second robot.
제1항에 있어서,
상기 확인된 제2 로봇이 상기 제1 로봇과 인접한 영역으로 이동하도록 하는 제어 명령을 상기 제2 로봇에 전송하는 단계;를 더 포함하는 제어 방법.
According to paragraph 1,
A control method further comprising transmitting a control command to the second robot to cause the confirmed second robot to move to an area adjacent to the first robot.
제1항에 있어서,
상기 제2 로봇이 상기 제1 로봇과 인접한 영역으로 이동하면, 상기 제2 로봇으로부터 상기 제2 로봇이 촬상한 제2 이미지를 수신하는 단계;를 더 포함하고,
상기 제2 로봇을 제어하기 위한 UI를 표시하는 단계는,
상기 수신된 제2 이미지를 포함하는 UI를 표시하는 단계를 포함하는, 제어 방법.
According to paragraph 1,
When the second robot moves to an area adjacent to the first robot, receiving a second image captured by the second robot from the second robot,
The step of displaying a UI for controlling the second robot,
A control method comprising displaying a UI including the received second image.
제1항에 있어서,
상기 제1 로봇으로부터 상기 제1 로봇이 촬상한 제1 이미지를 수신하는 단계;를 더 포함하고,
상기 제1 로봇을 제어하기 위한 UI를 표시하는 단계는,
상기 수신된 제1 이미지를 포함하는 UI를 표시하는 단계;를 포함하는, 제어 방법.
According to paragraph 1,
It further includes receiving a first image captured by the first robot from the first robot,
The step of displaying a UI for controlling the first robot,
A control method comprising: displaying a UI including the received first image.
제1항에 있어서,
상기 제1 로봇을 제어하는 위한 UI를 표시하는 단계는,
상기 제1 로봇이 상기 제1 공간에서 상기 제2 공간을 향해 이동하면서 촬상한 제1 이미지를 수신하고, 상기 수신된 제1 이미지를 포함하는 UI를 표시하는 단계;를 포함하고,
상기 촬상된 제1 이미지에서 장애물을 식별하는 단계; 및
상기 식별된 장애물이 화면의 기설정된 영역에 표시되는 경우, 상기 제1 로봇이 상기 제2 공간으로 이동하기 어려운 것으로 결정하는 단계;를 포함하는, 제어 방법.
According to paragraph 1,
The step of displaying a UI for controlling the first robot,
Receiving a first image captured by the first robot while moving from the first space toward the second space, and displaying a UI including the received first image,
identifying an obstacle in the captured first image; and
A control method including; determining that it is difficult for the first robot to move to the second space when the identified obstacle is displayed in a preset area of the screen.
제1항에 있어서,
상기 제1 로봇으로부터 상기 제1 로봇이 상기 제1 공간에서 제2공간으로 이동하면서 식별한 장애물에 관한 정보를 수신하는 단계;를 더 포함하고,
상기 확인하는 단계는,
상기 수신된 정보를 기초로 상기 제1 로봇이 상기 제2 공간으로 이동하기 어려운 것으로 확인되면, 상기 제2 공간에 로봇이 존재하는지 확인하는 단계;를 포함하는, 제어 방법.
According to paragraph 1,
Receiving information from the first robot about an obstacle identified by the first robot while moving from the first space to the second space,
The above confirmation steps are:
If it is determined that it is difficult for the first robot to move to the second space based on the received information, confirming whether the robot exists in the second space. A control method comprising a.
제6항에 있어서,
상기 제2 공간에 로봇이 존재하지 않는 것으로 확인되면, 서버에 상기 제2 공간과 연결된 제3 공간에 대한 정보를 요청하는 단계;
상기 서버로부터 수신한 정보를 기초로 상기 제3 공간에 위치하는 제3 로봇이 상기 제2 공간으로 이동할 수 있는지 확인하는 단계;
상기 제3 로봇이 상기 제2 공간으로 이동가능 한 경우, 상기 제3 로봇을 제어하기 위한 UI를 표시하는 단계;를 더 포함하는 제어 방법.
According to clause 6,
When it is confirmed that there is no robot in the second space, requesting information about a third space connected to the second space from a server;
Checking whether a third robot located in the third space can move to the second space based on information received from the server;
If the third robot can move to the second space, displaying a UI for controlling the third robot.
제1항에 있어서,
상기 제2 로봇을 확인하는 단계는,
상기 제1 로봇이 상기 제1 공간에서 상기 제2 공간으로 이동하기 어려우면, 서버에 상기 제2 공간에 위치하는 로봇의 정보를 요청하는 단계; 및
상기 서버로부터 상기 제2 공간에 위치하는 제2 로봇의 정보를 수신하는 단계; 를 포함하고,
상기 제2 로봇에 관한 정보는,
상기 제2 로봇의 이미지, 제2 로봇의 종류, 식별 정보, 위치 정보, 배터리 정보 및 이동 가능한 영역에 관한 정보 중 적어도 하나를 포함하는, 제어 방법.
According to paragraph 1,
The step of checking the second robot is,
If it is difficult for the first robot to move from the first space to the second space, requesting information about the robot located in the second space from a server; and
Receiving information about a second robot located in the second space from the server; Including,
Information about the second robot,
A control method including at least one of an image of the second robot, a type of the second robot, identification information, location information, battery information, and information about a movable area.
제8항에 있어서,
상기 제2 로봇을 제어하기 위한 UI를 표시하는 단계는,
상기 제2 로봇의 정보를 수신하면, 상기 수신된 제2 로봇의 정보를 표시하는 단계;
상기 표시된 제2 로봇의 정보를 선택하는 사용자 입력을 수신하면, 상기 제2 로봇에서 촬상된 제2 이미지를 표시하는 단계; 및
상기 제2 로봇의 위치 또는 방향을 제어하기 위한 UI를 표시하는 단계;를 포함하는, 제어 방법.
According to clause 8,
The step of displaying a UI for controlling the second robot,
Upon receiving information about the second robot, displaying the received information about the second robot;
Upon receiving a user input for selecting information on the displayed second robot, displaying a second image captured by the second robot; and
A control method including; displaying a UI for controlling the position or direction of the second robot.
제1항에 있어서,
상기 확인된 제2 로봇에 제어 권한을 요청하는 단계; 및
상기 제2 로봇으로부터 제어 권한 승인 메시지를 수신하면, 상기 제1 로봇이 기설정된 위치로 이동하도록 하는 제어 명령을 상기 제1 로봇에 전송하는 단계;를 포함하는, 제어 방법.
According to paragraph 1,
Requesting control authority from the identified second robot; and
Upon receiving a control authority approval message from the second robot, transmitting a control command to the first robot to cause the first robot to move to a preset position. A control method comprising a.
전자 장치에 있어서,
통신 인터페이스;
디스플레이; 및
제1 공간에 위치하는 제1 로봇을 제어하기 위한 UI를 표시하도록 상기 디스플레이를 제어하고,
사용자 조작 명령에 기초하여 상기 제1 로봇을 제어하기 위한 제어 명령을 상기 제1 로봇에 전송하도록 상기 통신 인터페이스를 제어하고,
상기 제1 로봇이 상기 제1 공간과 다른 제2 공간으로 이동하기 어려우면, 상기 제2 공간에 위치하는 제2 로봇을 확인하고,
상기 확인된 제2 로봇을 제어하기 위한 UI를 표시하도록 상기 디스플레이를 제어하는 프로세서;를 포함하는, 전자 장치.
In electronic devices,
communication interface;
display; and
Controlling the display to display a UI for controlling a first robot located in a first space,
Controlling the communication interface to transmit a control command for controlling the first robot to the first robot based on a user operation command,
If it is difficult for the first robot to move to a second space different from the first space, check the second robot located in the second space,
An electronic device comprising; a processor controlling the display to display a UI for controlling the confirmed second robot.
제11항에 있어서,
상기 프로세서는,
상기 확인된 제2 로봇이 상기 제1 로봇과 인접한 영역으로 이동하도록 하는 제어 명령을 상기 제2 로봇에 전송하도록 상기 통신 인터페이스를 제어하는, 전자 장치.
According to clause 11,
The processor,
An electronic device that controls the communication interface to transmit a control command to the second robot to cause the identified second robot to move to an area adjacent to the first robot.
제11항에 있어서,
상기 프로세서는,
상기 제2 로봇이 상기 제1 로봇과 인접한 영역으로 이동하면, 상기 제2 로봇으로부터 상기 제2 로봇이 촬상한 제2 이미지를 수신하고,
상기 수신된 제2 이미지를 포함하는 UI를 표시하도록 상기 디스플레이를 제어하는, 전자 장치.
According to clause 11,
The processor,
When the second robot moves to an area adjacent to the first robot, a second image captured by the second robot is received from the second robot,
An electronic device that controls the display to display a UI including the received second image.
제11항에 있어서,
상기 프로세서는,
상기 제1 로봇으로부터 상기 제1 로봇이 촬상한 제1 이미지를 수신하고,
상기 수신된 제1 이미지를 포함하는 UI를 표시하도록 상기 디스플레이를 제어하는, 전자 장치.
According to clause 11,
The processor,
Receiving a first image captured by the first robot from the first robot,
An electronic device that controls the display to display a UI including the received first image.
제11항에 있어서,
상기 프로세서는,
상기 제1 로봇이 상기 제1 공간에서 상기 제2 공간을 향해 이동하면서 촬상한 제1 이미지를 수신하고, 상기 수신된 제1 이미지를 포함하는 UI를 표시하도록 상기 디스플레이를 제어하고,
상기 촬상된 제1 이미지에서 장애물을 식별하고,
상기 식별된 장애물이 화면의 기설정된 영역에 표시되는 경우, 상기 제1 로봇이 상기 제2 공간으로 이동하기 어려운 것으로 결정하는, 전자 장치.
According to clause 11,
The processor,
Receiving a first image captured by the first robot while moving from the first space toward the second space, and controlling the display to display a UI including the received first image,
Identifying an obstacle in the captured first image,
The electronic device determines that it is difficult for the first robot to move to the second space when the identified obstacle is displayed in a preset area of the screen.
제11항에 있어서,
상기 프로세서는,
상기 제1 로봇으로부터 상기 제1 로봇이 상기 제1 공간에서 제2공간으로 이동하면서 식별한 장애물에 관한 정보를 수신하고,
상기 수신된 정보를 기초로 상기 제1 로봇이 상기 제2 공간으로 이동하기 어려운 것으로 확인되면, 상기 제2 공간에 로봇이 존재하는지 확인하는, 전자 장치.
According to clause 11,
The processor,
Receiving information about obstacles identified by the first robot while moving from the first space to the second space from the first robot,
If it is determined that it is difficult for the first robot to move to the second space based on the received information, the electronic device checks whether the robot exists in the second space.
제11항에 있어서,
상기 프로세서는,
상기 제1 로봇이 상기 제1 공간에서 상기 제2 공간으로 이동하기 어려우면, 서버에 상기 제2 공간에 위치하는 로봇의 정보를 요청하고,
상기 서버로부터 상기 제2 공간에 위치하는 제2 로봇의 정보를 수신하고,
상기 제2 로봇에 관한 정보는,
상기 제2 로봇의 이미지, 제2 로봇의 종류, 식별 정보, 위치 정보, 배터리 정보 및 이동 가능한 영역에 관한 정보 중 적어도 하나를 포함하는, 전자 장치.
According to clause 11,
The processor,
If it is difficult for the first robot to move from the first space to the second space, request information about the robot located in the second space from the server,
Receiving information about a second robot located in the second space from the server,
Information about the second robot,
An electronic device comprising at least one of an image of the second robot, a type of the second robot, identification information, location information, battery information, and information about a movable area.
제17항에 있어서,
상기 프로세서는,
상기 제2 로봇의 정보를 수신하면, 상기 수신된 제2 로봇의 정보를 표시하고,
상기 표시된 제2 로봇의 정보를 선택하는 사용자 입력을 수신하면, 상기 제2 로봇에서 촬상된 제2 이미지를 포함하는 UI 및 상기 제2 로봇의 위치 또는 방향을 제어하기 위한 UI를 표시하도록 상기 디스플레이를 제어하는, 전자 장치.
According to clause 17,
The processor,
When receiving information about the second robot, display the received information about the second robot,
When receiving a user input for selecting information on the displayed second robot, the display is configured to display a UI including a second image captured by the second robot and a UI for controlling the position or direction of the second robot. Controlling electronic device.
제11항에 있어서,
상기 프로세서는,
상기 확인된 제2 로봇에 제어 권한을 요청하고,
상기 제2 로봇으로부터 제어 권한 승인 메시지를 수신하면, 상기 제1 로봇이 기설정된 위치로 이동하도록 하는 제어 명령을 상기 제1 로봇에 전송하도록 상기 통신 인터페이스를 제어하는, 전자 장치.
According to clause 11,
The processor,
Request control authority from the confirmed second robot,
An electronic device that controls the communication interface to transmit a control command to the first robot to move the first robot to a preset position when receiving a control authority approval message from the second robot.
전자 장치의 제어 방법을 실행하기 위한 프로그램을 포함하는 컴퓨터 판독 가능 기록 매체에 있어서,
상기 제어 방법은,
제1 공간에 위치하는 제1 로봇을 제어하기 위한 UI를 표시하는 단계;
사용자 조작 명령에 기초하여 상기 제1 로봇을 제어하기 위한 제어 명령을 상기 제1 로봇에 전송하는 단계;
상기 제1 로봇이 상기 제1 공간과 다른 제2 공간으로 이동하기 어려우면, 상기 제2 공간에 위치하는 제2 로봇을 확인하는 단계; 및
상기 확인된 제2 로봇을 제어하기 위한 UI를 표시하는 단계;를 포함하는 기록 매체.

In the computer-readable recording medium including a program for executing a control method of an electronic device,
The control method is,
Displaying a UI for controlling a first robot located in a first space;
Transmitting a control command for controlling the first robot to the first robot based on a user operation command;
If it is difficult for the first robot to move to a second space different from the first space, confirming a second robot located in the second space; and
A recording medium comprising: displaying a UI for controlling the confirmed second robot.

KR1020200117915A 2020-09-14 2020-09-14 Electronic apparatus and controlling method thereof KR20220035767A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200117915A KR20220035767A (en) 2020-09-14 2020-09-14 Electronic apparatus and controlling method thereof
PCT/KR2021/009249 WO2022055117A1 (en) 2020-09-14 2021-07-19 Electronic device and method for controlling same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200117915A KR20220035767A (en) 2020-09-14 2020-09-14 Electronic apparatus and controlling method thereof

Publications (1)

Publication Number Publication Date
KR20220035767A true KR20220035767A (en) 2022-03-22

Family

ID=80631894

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200117915A KR20220035767A (en) 2020-09-14 2020-09-14 Electronic apparatus and controlling method thereof

Country Status (2)

Country Link
KR (1) KR20220035767A (en)
WO (1) WO2022055117A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3302188B2 (en) * 1994-09-13 2002-07-15 日本電信電話株式会社 Telexistence-type video phone
JP3152107B2 (en) * 1995-06-09 2001-04-03 株式会社大林組 Control method of multi robot system
KR101855831B1 (en) * 2011-05-12 2018-05-09 엘지전자 주식회사 Cleaning apparatus and collaboration cleaning method using robot cleaners
KR102094347B1 (en) * 2013-07-29 2020-03-30 삼성전자주식회사 Auto-cleaning system, cleaning robot and controlling method thereof
KR20180039977A (en) * 2016-10-11 2018-04-19 엘지전자 주식회사 Assistant robot for airport and method thereof

Also Published As

Publication number Publication date
WO2022055117A1 (en) 2022-03-17

Similar Documents

Publication Publication Date Title
US11886633B2 (en) Virtual object display interface between a wearable device and a mobile device
KR102025544B1 (en) Wearable video device and video system having the same
US11869156B2 (en) Augmented reality eyewear with speech bubbles and translation
US20180060333A1 (en) System and method for placement of virtual characters in an augmented/virtual reality environment
US11689877B2 (en) Immersive augmented reality experiences using spatial audio
US11195341B1 (en) Augmented reality eyewear with 3D costumes
US11908042B2 (en) Electronic apparatus and control method thereof
US11392199B2 (en) Eyewear with shared gaze-responsive viewing
US20210406542A1 (en) Augmented reality eyewear with mood sharing
US20240045494A1 (en) Augmented reality with eyewear triggered iot
US11826635B2 (en) Context-sensitive remote eyewear controller
US20230007227A1 (en) Augmented reality eyewear with x-ray effect
KR20220035767A (en) Electronic apparatus and controlling method thereof
US11240482B2 (en) Information processing device, information processing method, and computer program
US20160379416A1 (en) Apparatus and method for controlling object movement
JP6736962B2 (en) Image transmission control program, image transmission control method, and image transmission control device
US11863860B2 (en) Image capture eyewear with context-based sending
KR20240018607A (en) Devices with dynamic transcode throttling