KR20220035767A - Electronic apparatus and controlling method thereof - Google Patents
Electronic apparatus and controlling method thereof Download PDFInfo
- Publication number
- KR20220035767A KR20220035767A KR1020200117915A KR20200117915A KR20220035767A KR 20220035767 A KR20220035767 A KR 20220035767A KR 1020200117915 A KR1020200117915 A KR 1020200117915A KR 20200117915 A KR20200117915 A KR 20200117915A KR 20220035767 A KR20220035767 A KR 20220035767A
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- space
- information
- controlling
- electronic device
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000004891 communication Methods 0.000 claims description 38
- 238000012790 confirmation Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 24
- 238000012545 processing Methods 0.000 description 15
- 230000015654 memory Effects 0.000 description 13
- 230000003190 augmentative effect Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 229910021420 polycrystalline silicon Inorganic materials 0.000 description 1
- 229920005591 polysilicon Polymers 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72415—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/006—Controls for manipulators by means of a wireless system for controlling one or several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
전자 장치의 제어 방법이 개시된다. 본 개시에 따른 전자 장치의 제어 방법은 제1 공간에 위치하는 제1 로봇을 제어하기 위한 UI를 표시하는 단계, 사용자 조작 명령에 기초하여 제1 로봇을 제어하기 위한 제어 명령을 제1 로봇에 전송하는 단계, 제1 로봇이 제1 공간과 다른 제2 공간으로 이동하기 어려우면, 제2 공간에 위치하는 제2 로봇을 확인하는 단계 및 확인된 제2 로봇을 제어하기 위한 UI를 표시하는 단계를 포함한다. A method for controlling an electronic device is disclosed. The control method of an electronic device according to the present disclosure includes displaying a UI for controlling a first robot located in a first space, and transmitting a control command for controlling the first robot to the first robot based on a user manipulation command. If it is difficult for the first robot to move to a second space different from the first space, confirming the second robot located in the second space and displaying a UI for controlling the confirmed second robot. Includes.
Description
본 개시는 전자 장치 및 이의 제어 방법으로, 더욱 상세하게는 로봇을 제어하는 전자 장치 및 이의 제어 방법에 관한 것이다. The present disclosure relates to an electronic device and a control method thereof, and more particularly, to an electronic device for controlling a robot and a control method thereof.
로봇 관련 기술이 발전하면서 다양한 로봇이 등장하고 있으며, 로봇을 이용한 서비스도 등장하고 있다. 가령, 사용자는 박물관, 쇼핑 센터와 같은 장소를 직접 방문하지 않더라도 박물관, 미술관, 쇼핑 센터에 존재하는 로봇의 비전 기술을 이용하여 박물관, 미술관의 작품을 감상하거나, 쇼핑 센터에 존재하는 물건을 보고 구입하면서 박물관, 미술관, 쇼핑 센터와 같은 장소를 직접 방문한 것과 동일한 효과를 누릴 수 있다. As robot-related technology develops, various robots are appearing, and services using robots are also appearing. For example, even if users do not visit places such as museums or shopping centers in person, they can view works in museums, art galleries, or purchase items in shopping centers using the vision technology of robots present in museums, art galleries, or shopping centers. While doing so, you can enjoy the same effects as visiting places such as museums, art galleries, and shopping centers in person.
이외에도 사람이 직접 들어가기 위험한 공사 현장이나 작업 현장에서 로봇을 사용함으로써 사용자는 원하는 작업을 수행할 수 있다. In addition, by using robots at construction sites or work sites where it is dangerous for people to enter directly, users can perform the desired tasks.
한편, 이와 같은 로봇의 경우, 사용자 제어에 따른 이동이 용이해야 하기 때문에 계단, 에스컬레이터와 같은 장애물을 통과할 수 있는 로봇으로 제작되는 경우가 많다. Meanwhile, in the case of such robots, they are often manufactured as robots that can pass obstacles such as stairs and escalators because they must be easy to move under user control.
그러나, 장애물을 통과하는 로봇의 경우, 로봇의 관절을 위한 장치, 로봇의 평행 유지를 위한 장치와 같은 복잡한 기술을 요하는 장치를 필요로 한다는 점에서 비용이 비싸고, 로봇이 장애물을 통과하는 과정에서 전복될 가능성이 있다는 단점이 존재한다. However, in the case of a robot that passes obstacles, it is expensive in that it requires devices that require complex technology, such as devices for the robot's joints and devices for maintaining the robot's parallelism, and in the process of the robot passing the obstacle, The downside is that there is a possibility of it being overturned.
본 개시는 상술한 문제점을 해결하기 위한 것으로, 복수의 로봇을 제어하는 UI를 제공하여, 로봇이 이동하지 못하는 상황에서도 사용자가 끊김없이 서비스를 제공받도록 하는 전자 장치 및 이의 제어 방법에 관한 것이다. The present disclosure is intended to solve the above-mentioned problems and relates to an electronic device and a control method thereof that provide a UI for controlling a plurality of robots so that a user can receive uninterrupted service even in situations where robots cannot move.
본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은, 제1 공간에 위치하는 제1 로봇을 제어하기 위한 UI를 표시하는 단계, 사용자 조작 명령에 기초하여 상기 제1 로봇을 제어하기 위한 제어 명령을 상기 제1 로봇에 전송하는 단계, 상기 제1 로봇이 상기 제1 공간과 다른 제2 공간으로 이동하기 어려우면, 상기 제2 공간에 위치하는 제2 로봇을 확인하는 단계 및 상기 확인된 제2 로봇을 제어하기 위한 UI를 표시하는 단계를 포함한다. A method of controlling an electronic device according to an embodiment of the present disclosure includes displaying a UI for controlling a first robot located in a first space, and a control command for controlling the first robot based on a user manipulation command. transmitting to the first robot, if it is difficult for the first robot to move to a second space different from the first space, confirming a second robot located in the second space, and the confirmed second robot It includes the step of displaying a UI for controlling the robot.
한편, 본 개시의 다른 일 실시 예에 따른 전자 장치는, 통신 인터페이스, 디스플레이 및 제1 공간에 위치하는 제1 로봇을 제어하기 위한 UI를 표시하도록 상기 디스플레이를 제어하고, 사용자 조작 명령에 기초하여 상기 제1 로봇을 제어하기 위한 제어 명령을 상기 제1 로봇에 전송하도록 상기 통신 인터페이스를 제어하고, 상기 제1 로봇이 상기 제1 공간과 다른 제2 공간으로 이동하기 어려우면, 상기 제2 공간에 위치하는 제2 로봇을 확인하고, 상기 확인된 제2 로봇을 제어하기 위한 UI를 표시하도록 상기 디스플레이를 제어하는 프로세서를 포함한다. Meanwhile, an electronic device according to another embodiment of the present disclosure controls the display to display a communication interface, a display, and a UI for controlling a first robot located in a first space, and controls the display based on a user manipulation command. The communication interface is controlled to transmit a control command for controlling the first robot to the first robot, and if it is difficult for the first robot to move to a second space different from the first space, it is located in the second space. and a processor that controls the display to check a second robot and display a UI for controlling the confirmed second robot.
도 1은 본 개시의 일 실시 예에 따른 시스템을 설명하기 위한 도면,
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도,
도 3은 본 개시의 일 실시 예에 따른 로봇의 구성을 설명하기 위한 블록도,
도 4는 본 개시의 일 실시 예에 따라 서버 및 전자 장치와 통신을 수행하는 전자 장치를 설명하기 위한 시퀀스도,
도 5a는 장애물이 존재하는 공간에 존재하는 로봇을 설명하기 위한 도면,
도 5b는 로봇으로부터 수신한 이미지를 표시하는 전자 장치를 설명하기 위한 도면,
도 5c는 장애물이 포함된 이미지를 표시하는 전자 장치를 설명하기 위한 도면,
도 5d는 로봇이 존재하는 공간과 다른 공간에 존재하는 다른 로봇을 표시하는 전자 장치를 설명하기 위한 도면,
도 5e는 도 5d의 다른 공간에 존재하는 다른 로봇으로부터 수신한 이미지를 표시하는 전자 장치를 설명하기 위한 도면,
도 6a는 장애물이 포함된 이미지를 로봇으로부터 수신하여 표시하는 전자 장치를 설명하기 위한 도면,
도 6b는 장애물이 포함된 이미지에서 장애물을 식별하고, 다른 공간의 이미지를 표시하는 전자 장치를 설명하기 위한 도면,
도 7은 본 개시의 일 실시 예에 따라 공간 정보를 수집하여 저장하는 서버를 설명하기 위한 도면,
도 8은 본 개시의 일 실시 예에 따른 공간 수집 장치를 설명하기 위한 도면, 및
도 9는 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다. 1 is a diagram for explaining a system according to an embodiment of the present disclosure;
2 is a block diagram for explaining the configuration of an electronic device according to an embodiment of the present disclosure;
3 is a block diagram for explaining the configuration of a robot according to an embodiment of the present disclosure;
4 is a sequence diagram illustrating an electronic device that communicates with a server and an electronic device according to an embodiment of the present disclosure;
Figure 5a is a diagram for explaining a robot existing in a space where obstacles exist;
5B is a diagram for explaining an electronic device that displays an image received from a robot;
FIG. 5C is a diagram for explaining an electronic device that displays an image containing an obstacle;
5D is a diagram for explaining an electronic device that displays another robot existing in a space different from the space where the robot exists;
FIG. 5E is a diagram for explaining an electronic device that displays an image received from another robot existing in a different space of FIG. 5D;
FIG. 6A is a diagram for explaining an electronic device that receives an image containing an obstacle from a robot and displays it;
FIG. 6B is a diagram for explaining an electronic device that identifies an obstacle in an image containing the obstacle and displays an image of another space;
7 is a diagram for explaining a server that collects and stores spatial information according to an embodiment of the present disclosure;
8 is a diagram for explaining a space collection device according to an embodiment of the present disclosure, and
FIG. 9 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.
이하, 본 문서의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 문서의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, various embodiments of this document are described with reference to the attached drawings. However, this is not intended to limit the technology described in this document to specific embodiments, and should be understood to include various modifications, equivalents, and/or alternatives to the embodiments of this document. . In connection with the description of the drawings, similar reference numbers may be used for similar components.
본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as “have,” “may have,” “includes,” or “may include” refer to the existence of the corresponding feature (e.g., a numerical value, function, operation, or component such as a part). , and does not rule out the existence of additional features.
본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as “A or B,” “at least one of A or/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” (1) includes at least one A, (2) includes at least one B, or (3) it may refer to all cases including both at least one A and at least one B.
본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as “first,” “second,” “first,” or “second,” used in this document can modify various components regardless of order and/or importance, and can refer to one component. It is only used to distinguish from other components and does not limit the components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, a first component may be renamed a second component without departing from the scope of rights described in this document, and similarly, the second component may also be renamed the first component.
본 문서에서 사용된 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.Terms such as “module,” “unit,” and “part” used in this document are terms to refer to components that perform at least one function or operation, and these components are implemented in hardware or software. Alternatively, it can be implemented through a combination of hardware and software. In addition, a plurality of "modules", "units", "parts", etc. are integrated into at least one module or chip, except in cases where each needs to be implemented with individual specific hardware, and is integrated into at least one processor. It can be implemented as:
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (e.g., a first component) is “(operatively or communicatively) coupled with/to” another component (e.g., a second component). When referred to as being “connected to,” it should be understood that any component may be directly connected to the other component or may be connected through another component (e.g., a third component). On the other hand, when a component (e.g., a first component) is said to be “directly connected” or “directly connected” to another component (e.g., a second component), It may be understood that no other component (e.g., a third component) exists between other components.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.Terms used in this document are merely used to describe specific embodiments and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions, unless the context clearly indicates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the technical field described in this document. Among the terms used in this document, terms defined in general dictionaries may be interpreted to have the same or similar meaning as the meaning they have in the context of related technology, and unless clearly defined in this document, have an ideal or excessively formal meaning. It is not interpreted as In some cases, even terms defined in this document cannot be interpreted to exclude embodiments of this document.
한편, 본 개시에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.Meanwhile, in the present disclosure, the term user may refer to a person using an electronic device or a device (eg, an artificial intelligence electronic device) using the electronic device.
이하에서는 도면을 참조하여 본 개시에 대해 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the drawings.
도 1은 본 개시의 일 실시 예에 따른 시스템을 설명하기 위한 도면이다. 1 is a diagram for explaining a system according to an embodiment of the present disclosure.
도 1에 도시된 바와 같이 본 개시의 일 실시 예에 따른 시스템(1000)은 전자 장치(100), 제1 로봇(200-1), 제2 로봇(200-2) 및 서버(300)를 포함한다. 도 1에서는 제1 로봇(200-1) 및 제2 로봇(200-2), 두 개의 로봇만이 도시되었으나, 시스템(1000)은 N개의 로봇을 포함할 수 있다. As shown in FIG. 1, the
전자 장치(100)는 제1 로봇(200-1), 제2 로봇(200-2) 및 서버(300)와 통신을 수행할 수 있다. The
도 1에서 전자 장치(100)는 스마트폰으로 도시되었으나, 본 개시의 다양한 실시 예들에 따른 전자 장치(100)는 태블릿 PC, 휴대폰, TV, 전자 칠판, 모니터, 랩탑 PC, 카메라 또는 웨어러블 장치(가령, 시계, 안경, 머리 착용형 장치(Head-mounted-device)(HMD))를 포함할 수 있다. 한편, 전자 장치(100)는 반드시 이에 한하는 것은 아니며, 디스플레이를 포함하면서 외부 장치와 통신을 수행할 수 있는 장치라면 본 개시의 전자 장치(100)가 될 수 있다. Although the
전자 장치(100)는 제1 로봇(200-1) 또는 제2 로봇(200-2)을 제어할 수 있다. 구체적으로, 전자 장치(100)는 제1 로봇(200-1) 또는 제2 로봇(200-2)에 제어 명령을 전송할 수 있다. 이를 위하여 전자 장치(100)는 제1 로봇(200-1) 또는 제2 로봇(200-2)을 제어하기 위한 UI(User Interface)를 표시할 수 있다. The
전자 장치(100)는 제1 로봇(200-1) 또는 제2 로봇(200-2)이 특정 공간을 이동하면서 특정 공간의 이미지를 촬상하도록 제어할 수 있다. 그리고, 전자 장치(100)는 제1 로봇(200-1) 또는 제2 로봇(200-2)이 촬상한 이미지를 제1 로봇(200-1) 또는 제2 로봇(200-2)로부터 수신하여 표시할 수 있다. 이에 따라, 전자 장치(100)는 제1 로봇(200-1) 또는 제2 로봇(200-2)이 위치하는 공간에 존재하지 않더라도, 제1 로봇(200-1) 또는 제2 로봇(200-2)를 통하여 제1 로봇(200-1) 또는 제2 로봇(200-2)가 위치하는 특정 공간의 이미지를 표시할 수 있다. The
제1 로봇(200-1) 또는 제2 로봇(200-2)는 동일한 공간에 존재할 수 있으나, 서로 다른 공간에 존재할 수도 있다. 가령, 제1 로봇(200-1)이 이동하지 못하는 공간에 제2 로봇(200-2)이 존재할 수 있다. The first robot 200-1 or the second robot 200-2 may exist in the same space, but may also exist in different spaces. For example, the second robot 200-2 may exist in a space where the first robot 200-1 cannot move.
제1 로봇(200-1) 또는 제2 로봇(200-2)은 전자 장치(100)로부터 수신한 제어 명령에 따라 동작할 수 있다. 제1 로봇(200-1) 또는 제2 로봇(200-2)은 제어 명령에 따라 특정 공간을 이동하거나, 특정 공간의 이미지를 촬영할 수 있다. 뿐만 아니라, 특정 공간에서 발생되는 소리를 수집하여 전자 장치(100)에 전송하거나, 전자 장치(100)의 사용자가 발화한 음성 신호를 수신하고, 이를 출력할 수도 있다. The first robot 200-1 or the second robot 200-2 may operate according to control commands received from the
제1 로봇(200-1) 또는 제2 로봇(200-2)은 다양한 형태가 될 수 있다. 구체적으로, 제1 로봇(200-1) 또는 제2 로봇(200-2)은 사람의 형태와 비슷한 관절형 로봇(보행형 로봇)일 수도 있으며, 바퀴/캐터필러형 로봇, 비행형 로봇(가령, 드론), 수중에서 동작하는 수영형 로봇일 수도 있다. 다만, 반드시 이에 한하는 것은 아니며, 전자 장치(100)의 사용자의 제어 명령을 수신하고, 수신된 제어 명령에 따라 동작할 수 있는 장치라면 본 개시에 따른 로봇이 될 수 있다. The first robot 200-1 or the second robot 200-2 may have various forms. Specifically, the first robot 200-1 or the second robot 200-2 may be an articulated robot (walking robot) similar to the shape of a human, a wheeled/caterpillar type robot, or a flying robot (e.g., Drone), it may be a swimming robot that operates underwater. However, it is not necessarily limited to this, and any device that can receive a control command from the user of the
한편, 전자 장치(100)는 서버(300)로부터 제1 로봇(200-1) 또는 제2 로봇(200-2)의 정보를 수신할 수 있다. 서버(300)는 전자 장치(100)로부터 수신된 다양한 요청을 처리할 수 있는 장치로, 전자 장치(100)로부터 다양한 정보를 수신하거나, 전자 장치(100)에 다양한 정보를 전송할 수 있다. Meanwhile, the
구체적으로, 전자 장치(100)는 서버(300)에 특정 공간에 위치하는 로봇에 관한 정보를 요청할 수 있으며, 요청에 대한 응답으로 서버(300)로부터 제1 로봇(200-1) 또는 제2 로봇(200-2)의 위치 정보를 수신할 수 있다. Specifically, the
또는, 전자 장치(100)는 서버(300)로부터 제1 로봇(200-1) 또는 제2 로봇(200-2)이 위치하는 공간의 이미지를 수신할 수도 있다. 전자 장치(100)는 제1 로봇(200-1) 또는 제2 로봇(200-2)로부터 이미지를 수신하기 이전에 서버(300)로부터 제1 로봇(200-1) 또는 제2 로봇(200-2)이 존재하는 공간의 이미지를 수신할 수 있다. Alternatively, the
한편, 서버(300)는 제1 로봇(200-1) 또는 제2 로봇(200-2)으로부터 제1 로봇(200-1) 또는 제2 로봇(200-2)의 위치 정보를 수신할 수 있다. 구체적으로, 서버(300)는 주기적으로 제1 로봇(200-1) 또는 제2 로봇(200-2)로부터 제1 로봇(200-1) 또는 제2 로봇(200-2)의 위치 정보를 수신할 수 있다. 또는 서버(300)는 제1 로봇(200-1) 또는 제2 로봇(200-2)로부터 제1 로봇(200-1) 또는 제2 로봇(200-2)이 위치하는 공간의 이미지 정보를 수신할 수도 있다. Meanwhile, the
이하에서는 도면을 통하여 본 개시의 전자 장치(100), 로봇(200) 및 서버(300)의 동작에 대하여 구체적으로 설명하도록 한다. Hereinafter, the operations of the
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다. Figure 2 is a block diagram for explaining the configuration of an electronic device according to an embodiment of the present disclosure.
도 2에 도시된 바와 같이, 전자 장치(100)는 통신 인터페이스(110), 디스플레이(120) 및 프로세서(130)를 포함할 수 있다. As shown in FIG. 2 , the
통신 인터페이스(110)는 전자 장치(100)가 로봇(200) 또는 서버(300)와 같은 외부 전자 장치(미도시)와 통신을 수행하기 위한 구성 요소이다. 전자 장치(100)는 통신 인터페이스(110)를 통하여 로봇(200)에 제어 명령을 전송하고, 로봇(200)으로부터 로봇(200)이 촬상한 이미지를 수신할 수 있다. 또한, 전자 장치(100)는 통신 인터페이스(110)를 통하여 서버(300)에 특정 공간에 대한 정보 또는 특정 공간에 위치하는 로봇에 관한 정보를 요청할 수 있으며, 서버(300)로부터 특정 공간에 대한 정보 또는 특정 공간에 위치하는 로봇에 관한 정보를 수신할 수도 있다. The
통신 인터페이스(110)는 유선 통신 모듈(미도시), 근거리 무선 통신 모듈(미도시), 무선 통신 모듈(미도시) 등과 같은 다양한 통신 모듈을 포함할 수 있다. The
여기에서, 유선 통신 모듈은 유선 이더넷(Ethernet)과 같이 유선 통신 방식에 따라 외부 장치(미도시)와 통신을 수행하기 위한 모듈이다. 그리고, 근거리 무선 통신 모듈이란 블루투스(Bluetooth, BT), BLE(Bluetooth Low Energy), ZigBee 방식 등과 같은 근거리 무선 통신 방식에 따라 근거리에 위치한 외부 장치(미도시)와 통신을 수행하기 위한 모듈이다. 또한, 무선 통신 모듈이란 WiFi, IEEE 등과 같은 무선 통신 프로토콜에 따라 외부 네트워크에 연결되어 외부 장치(미도시)와 통신을 수행하는 모듈이다. 이 밖에 무선 통신 모듈은 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), LTE-A(LTE Advanced), 5세대 네트워크(5G Networks) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신망에 접속하여 통신을 수행하는 이동 통신 모듈을 더 포함할 수도 있다. Here, the wired communication module is a module for communicating with an external device (not shown) according to a wired communication method, such as wired Ethernet. Additionally, the short-range wireless communication module is a module for communicating with an external device (not shown) located nearby according to a short-range wireless communication method such as Bluetooth (BT), BLE (Bluetooth Low Energy), or ZigBee. Additionally, a wireless communication module is a module that is connected to an external network and communicates with an external device (not shown) according to a wireless communication protocol such as WiFi or IEEE. In addition, wireless communication modules comply with various mobile communication standards such as 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), LTE (Long Term Evolution), LTE-A (LTE Advanced), and 5G Networks. It may further include a mobile communication module that connects to a mobile communication network and performs communication.
디스플레이(120)는 전자 장치(100)를 통해 제공 가능한 다양한 컨텐츠 화면을 제공할 수 있다. 본 개시에서 디스플레이(120)는 로봇(200)을 제어하기 위한 UI를 표시하거나, 로봇(200)으로부터 수신한 이미지를 포함하는 UI를 표시할 수 있다. 또는, 디스플레이(120)는 전자 장치(100)에서 생성된 증강 현실 이미지를 표시할 수도 있다. The
디스플레이(120)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, PDP(Plasma Display Panel), Wall, Micro LED 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(120) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(120)는 터치 센서와 결합된 터치 스크린, 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등으로 구현될 수 있다.The
프로세서(130)는 메모리(미도시)와 전기적으로 연결되어 전자 장치(100)의 전반적인 동작 및 기능을 제어할 수 있다. 예를 들어, 프로세서(130)는 운영 체제 또는 응용 프로그램을 구동하여 프로세서(130)에 연결된 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 또한, 프로세서(130)는 다른 구성요소들 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장할 수 있다. The
이를 위해, 프로세서(130)는 해당 동작을 수행하기 위한 전용 프로세서(예, 임베디드 프로세서) 또는 메모리 디바이스에 저장된 하나 이상의 소프트웨어 프로그램을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU (Central Processing Unit) 또는 어플리케이션 프로세서 (application processor (AP))로 구현될 수 있다. To this end, the
본 개시에서, 프로세서(130)는 디지털 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP)), 마이크로프로세서(microprocessor), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), GPU(graphics-processing unit) 또는 커뮤니케이션 프로세서(communication processor(CP)), ARP 프로세서(Address Resolution Protocol processor) 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(130)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.In the present disclosure, the
프로세서(130)는 제1 공간에 위치하는 제1 로봇(200-1)을 제어할 수 있다. 구체적으로, 프로세서(130)는 로봇(200)을 제어하는 제어 명령을 생성하여 이를 로봇(200)에 전송하도록 통신 인터페이스(110)를 제어할 수 있다. The
이를 위하여 프로세서(130)는 제1 로봇을 제어하기 위한 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. To this end, the
프로세서(130)는 제1 로봇(200-1)이 촬상한 이미지를 전자 장치(100)에 전송하도록 제어할 수 있고, 제1 로봇(200-1)으로부터 수신한 이미지를 포함하는 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. The
한편, 프로세서(130)는 제1 로봇(200-1)이 제1 공간에서 제1 공간과 다른 제2 공간으로 이동하기 어려우면, 제2 공간에 위치하는 제2 로봇을 확인할 수 있다. 이때, 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하기 어려운 이유는 실시 예에 따라 다양할 수 있다. 가령, 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하는 과정에서 통과할 수 없는 장애물을 만나는 경우인 경우가 이에 해당할 수 있다. 또는, 제1 로봇(200-1)의 배터리가 기설정된 값 이하이거나, 제2 공간이 제1 로봇(200-1)에 대한 제어 명령이 도달하지 않는 영역인 경우와 같이 제1 로봇(200-1)의 상태(배터리, 고장 등) 또는 제1 로봇(200-1)에 대한 제어 명령을 전송하는 통신 상태에 따라 제1 로봇이 제1 영역에서 제2 영역으로 이동하기 어려울 수 있다. Meanwhile, if it is difficult for the first robot 200-1 to move from the first space to a second space different from the first space, the
이때, 프로세서(130)는 서버(300)에 제2 공간에 위치하는 로봇의 정보를 요청할 수 있다. At this time, the
프로세서(130)는 서버(300)로부터 제2 공간에 위치하는 로봇의 정보를 수신하면, 제2 공간에 위치하는 제2 로봇(200-2)과 연결되어 제2 로봇(200-2)을 제어할 수 있다. When the
이때, 프로세서(130)는 제2 로봇을 제어하기 위한 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. At this time, the
이하, 프로세서(130)의 구체적인 동작에 대해서는 도 4에서 구체적으로 기술하기로 한다. Hereinafter, specific operations of the
한편, 도 2의 전자 장치(100)에 도시된 구성 요소들은 전자 장치(100)의 성능 및/또는 종류에 대응하여 적어도 하나의 구성 요소의 추가, 변경되거나 삭제될 수 있다. 또한, 구성 요소들의 위치는 전자 장치(100)의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.Meanwhile, at least one component shown in the
도 3은 본 개시의 일 실시 예에 따른 로봇(200)의 구성을 설명하기 위한 블록도이다. Figure 3 is a block diagram for explaining the configuration of the
도 3에 도시된 바와 같이, 로봇(200)은 통신 인터페이스(210), 구동 장치(220), 센서(230), 메모리(240), 카메라(250), 마이크(260), 스피커(270) 및 프로세서(280)을 포함할 수 있다. As shown in FIG. 3, the
통신 인터페이스(210)는 로봇(200)이 전자 장치(100) 또는 서버(300)와 통신을 수행하기 위한 구성요소이다. 로봇(200)은 통신 인터페이스(210)를 통하여 전자 장치(100) 또는 서버(300)에 로봇(200)이 촬상한 이미지를 전송할 수 있다. 또한, 로봇(200)은 통신 인터페이스(210)를 통하여 서버(300)에 로봇(200)의 위치 정보를 전송할 수 있다. 그리고, 로봇(200)은 통신 인터페이스(210)를 통하여 전자 장치(100)로부터 제어 명령을 수신할 수도 있다.The
구동 장치(220)는 로봇(200)을 이동시킬 수 있다. 이를 위하여, 구동 장치(220)는 하나 또는 둘 이상의 바퀴와 연결되고, 바퀴를 회전시킬 수 있는 모터 등의 구동 유닛을 구비할 수 있다. 그리고, 구동 장치(220)는 프로세서(280)의 제어 신호에 따라 로봇(200)의 이동, 정지, 방향 전환 등의 주행 동작을 수행할 수 있다. The
센서(230)는 로봇(200) 주변의 장애물을 감지할 수 있다. 구체적으로, 센서(230)는 초음파 센서(supersonic sensor), 적외선 센서(Infrared sensor), RF 센서, 카메라 등을 이용하여 로봇(200) 주변의 장애물의 위치 및 장애물과의 거리를 감지할 수 있다. 또한, 센서(230)는 장애물과의 충돌을 통하여 장애물을 감지하는 충돌 센서를 더 포함할 수 있다.The
메모리(240)는 로봇(200)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(240)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다.The
카메라(250)는 로봇(200)이 위치하는 공간에 대한 이미지를 촬상할 수 있다. 카메라(250)는 하나 이상의 이미지 센서, 렌즈, 이미지 시그널 프로세서를 포함할 수 있다. 카메라(250)는 로봇(200)의 전면 상에 위치하는 것이 일반적이나 반드시 이에 한하는 것은 아니며, 로봇(200)의 후면, 측면 상에 위치할 수도 있다. The
마이크(260)는 로봇(200)의 외부로부터 사운드를 입력받고, 입력된 사운드에 대응하는 신호를 생성하기 위한 구성이다. 프로세서(280)는 마이크(260)를 통하여 로봇(200)이 위치한 공간의 사운드를 입력 받고, 이에 대응되는 신호를 생성할 수 있다. The
스피커(270)는 오디오 프로세서에 의해 디코딩이나 증폭, 노이즈 필터링과 같은 다양한 처리 작업이 수행된 각종 오디오 데이터뿐만 아니라 각종 알림 음이나 음성 메시지를 출력하는 구성이다. The
프로세서(280)는 메모리(미도시)와 전기적으로 연결되어 로봇(200)의 전반적인 동작 및 기능을 제어할 수 있다. 예를 들어, 프로세서(280)는 운영 체제 또는 응용 프로그램을 구동하여 프로세서(130)에 연결된 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 또한, 프로세서(280)는 다른 구성요소들 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장할 수 있다. The
이를 위해, 프로세서(280)는 해당 동작을 수행하기 위한 전용 프로세서(예, 임베디드 프로세서) 또는 메모리 디바이스에 저장된 하나 이상의 소프트웨어 프로그램을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU (Central Processing Unit) 또는 어플리케이션 프로세서 (application processor (AP))로 구현될 수 있다. To this end, the
프로세서(280)는 통신 인터페이스(210)를 통하여 수신한 제어 명령에 따라 로봇(200)이 동작할 수 있도록 로봇(200)의 각 구성 요소들의 동작 및 기능을 제어할 수 있다. The
가령, 프로세서(280)는 제어 명령에 따라 로봇(200)이 이동하도록 구동 장치(220)를 제어하거나, 로봇(200)이 위치하는 공간을 촬상하도록 카메라(250)를 제어할 수 있다. For example, the
도 4는 본 개시의 일 실시 예에 따라 서버 및 전자 장치와 통신을 수행하는 전자 장치를 설명하기 위한 시퀀스도이다. FIG. 4 is a sequence diagram illustrating an electronic device that communicates with a server and an electronic device according to an embodiment of the present disclosure.
제1 로봇(200-1) 및 제2 로봇(200-2)은 서버(300)에 위치 정보를 전송할 수 있다(S401, S402). 구체적으로, 제1 로봇(200-1) 및 제2 로봇(200-2)은 제1 로봇(200-1) 및 제2 로봇(200-2)에 포함된 가속도 센서 및 자이로 센서와 같은 위치 감지 센서를 이용하여 제1 로봇(200-1) 및 제2 로봇(200-2)의 위치를 식별하고, 식별된 위치 정보를 서버(300)에 주기적으로 전송할 수 있다. 그리고, 서버(300)는 제1 로봇(200-1) 및 제2 로봇(200-2)의 위치를 저장할 수 있다. The first robot 200-1 and the second robot 200-2 may transmit location information to the server 300 (S401, S402). Specifically, the first robot 200-1 and the second robot 200-2 detect position such as an acceleration sensor and a gyro sensor included in the first robot 200-1 and the second robot 200-2. The positions of the first robot 200-1 and the second robot 200-2 can be identified using a sensor, and the identified position information can be periodically transmitted to the
또한, 제1 로봇(200-1) 및 제2 로봇(200-2)은 서버(300)에 제1 로봇(200-1) 및 제2 로봇(200-2)에 관한 정보를 전송할 수 있다. 가령, 제1 로봇(200-1) 및 제2 로봇(200-2)은 서버(300)에 제1 로봇(200-1) 및 제2 로봇(200-2)의 종류, 이미지 정보, 식별 정보, 위치 정보, 배터리 정보 및 이동 가능한 영역에 관한 정보를 전송할 수 있다. 그리고, 서버(300)는 제1 로봇(200-1) 및 제2 로봇(200-2)로부터 수신한 다양한 정보들을 저장할 수 있다. Additionally, the first robot 200-1 and the second robot 200-2 may transmit information about the first robot 200-1 and the second robot 200-2 to the
한편, 전자 장치(100)에 포함된 프로세서(130)는 통신 인터페이스(110)를 통하여 제1 공간에 위치하는 제1 로봇(200-1)과 연결할 수 있다(S403). Meanwhile, the
구체적으로, 전자 장치(100)가 제1 공간에 위치하는 로봇과 연결하고자 하는 경우, 프로세서(130)는 서버(300)에 제1 공간에 위치하는 로봇의 정보를 요청하는 신호를 전송하도록 통신 인터페이스(110)를 제어할 수 있다. Specifically, when the
전자 장치(100)로부터 로봇의 정보를 요청하는 신호를 수신한 서버(300)는 제1 공간에 존재하는 로봇을 식별하고, 제1 로봇(200-1)으로 받은 신호를 기초로 제1 공간에 제1 로봇(200-1)이 존재함을 식별하고, 제1 로봇(200-1)의 정보를 전송할 수 있다. 이때, 제1 로봇의 정보는 제1 로봇의 이미지, 종류, 식별 정보, 위치 정보, 배터리 정보, 이동 가능한 영역에 관한 정보 중 적어도 하나를 포함할 수 있다. The
서버(300)로부터 제1 공간에 위치하는 제1 로봇(200-1)의 정보를 수신하면, 프로세서(130)는 제1 로봇(200-1)에 제어 권한을 요청할 수 있다. 구체적으로, 프로세서(130)는 전자 장치(100)의 식별 정보, 주소 정보 및 사용자 식별 정보를 전송하여 제1 로봇(200-1)에 제어 권한을 요청할 수 있다. 그리고, 제1 로봇(200-1)은 전자 장치(100)로부터 수신한 전자 장치(100)의 정보를 기초로 전자 장치(100)에 제어 권한을 부여할 수 있다. 이에 따라, 전자 장치(100)는 제1 로봇(200-1)과 연결할 수 있다. Upon receiving information about the first robot 200-1 located in the first space from the
한편, 제1 로봇(200-1)이 전자 장치(100)와 연결되면, 제1 로봇(200-1)은 제1 로봇(200-1)이 위치한 제1 공간의 이미지를 촬상하고(S404), 촬상한 이미지를 전자 장치(100)에 전송할 수 있다(S405). Meanwhile, when the first robot 200-1 is connected to the
그리고, 프로세서(130)는 제1 로봇(200-1)으로부터 수신한 이미지를 기초로 제1 로봇(200-1)을 원격으로 제어할 수 있다. And, the
이를 위하여, 프로세서(130)는 제1 공간에 위치하는 제1 로봇(200-1)을 제어하기 위한 UI를 표시하도록 디스플레이(120)를 제어할 수 있다(S406). 이때, 제1 로봇(200-1)을 제어하기 위한 UI는 제1 로봇(200-1)이 촬상한 이미지를 포함하는 UI를 포함할 수 있다. 또한, 프로세서(130)는 제1 로봇(200-1)이 촬상한 이미지를 기초로 증강 현실 이미지를 생성하고, 생성된 증강 현실 이미지를 포함하는 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. To this end, the
프로세서(130)는 제1 로봇(200-1)을 제어하기 위한 UI를 통하여 제1 로봇(200-1)을 제어하기 위한 사용자 입력을 수신할 수 있다. 그리고, 프로세서(130)는 사용자 입력에 기초하여 제1 로봇을 제어하기 위한 제어 신호를 제1 로봇(200-1)에 전송할 수 있다(S407).The
제1 로봇(200-1)은 전자 장치(100)로부터 수신한 제어 신호에 기초하여 동작할 수 있다. 구체적으로, 제1 로봇(200-1)은 제어 신호에 따라 제1 공간을 이동하거나 제1 공간에 위치하는 객체를 촬영하여 전자 장치(100)에 전송할 수 있다. 또한, 제1 로봇(200-1)은 제어 신호에 따라 제1 공간에서 발생되는 사운드를 수집하여 전자 장치(100)에 전송할 수 있다. 또는, 제1 로봇(200-1)은 전자 장치(100)의 사용자가 발화한 사용자 음성을 수신하고, 수신한 음성을 출력할 수도 있다. The first robot 200-1 may operate based on a control signal received from the
한편, 전자 장치(100)가 전송한 제어 신호에 따라 제1 로봇(200-1)의 이동이 불가능한 경우가 발생할 수 있다. 가령, 제1 로봇(200-1)이 통과하기 어려운 장애물을 만나거나, 제1 로봇(200-1)의 배터리가 기설정된 값 이하인 경우, 제1 로봇(200-1)이 고장난 경우, 제1 로봇(200-1)에 대한 제어 명령을 수신하는 통신 상태가 불량인 경우 또는 제1 로봇(200-1)에 설정된 이동 영역 제한에 따라 제1 로봇은 제2 공간으로 이동할 수 없을 수 있다(S408). 여기에서, 제2 공간은, 이와 같은 이동 불가 사유로 제1 로봇(200-1)이 이동할 수 없는 공간을 나타낸다. Meanwhile, a case may occur in which movement of the first robot 200-1 is impossible depending on the control signal transmitted by the
제1 로봇(200-1)은 제1 공간에서 제2 공간으로 이동 불가능한 경우, 제2 공간으로 이동이 불가능하다는 메시지를 전자 장치(100)에 전송할 수 있다(S409). If it is impossible to move from the first space to the second space, the first robot 200-1 may transmit a message to the
제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하기 어려운 경우, 프로세서(130)는 제2 공간에 위치하는 제2 로봇을 확인할 수 있다. 구체적으로, 프로세서(130)는 서버(300)에 제2 공간에 존재하는 로봇의 정보를 요청할 수 있다(S410). When it is difficult for the first robot 200-1 to move from the first space to the second space, the
그리고, 서버(300)는 제2 공간에 존재하는 로봇을 식별할 수 있다(S411). 구체적으로, 서버(300)는 S402 단계에서 제2 로봇(200-2)으로부터 수신한 제2 로봇(200-2)의 위치 정보를 기초로 제2 로봇(200-2)이 제2 공간에 존재한다는 것을 식별할 수 있다. And, the
그리고, 서버(300)는 제2 로봇의 정보를 전자 장치(100)에 전송할 수 있다. 이때, 제2 공간에 복수의 제2 로봇이 존재하는 경우, 서버(300)는 복수의 제2 로봇(200-2)에 관한 정보를 제공할 수도 있으나, 복수의 제2 로봇(200-2) 중 하나를 선택하여 선택한 제2 로봇(200-2)의 정보를 전자 장치(100)에 제공할 수 있다. And, the
가령, 서버(300)는 제2 공간에 위치하는 복수의 제2 로봇(200-2) 중 제1 로봇(200-1)에 가장 인접한 제2 로봇(200-2)을 선택하여, 선택된 제2 로봇(200-2)의 정보를 전자 장치(100)에 전송할 수 있다. 또는 서버(300)는 제2 공간에 위치하는 복수의 제2 로봇(200-2) 중 배터리 용량이 가장 많은 제2 로봇(200-2)을 선택하여, 선택된 제2 로봇의 정보를 전자 장치(100)에 전송할 수 있다. 이때, 제2 로봇(200-2)에 관한 정보는, 제2 로봇(200-2)의 이미지 정보, 제2 로봇(200-2)의 종류, 식별 정보, 위치 정보, 배터리 정보 및 이동 가능한 영역에 관한 정보 중 적어도 하나를 포함할 수 있다. For example, the
서버(300)로부터 제2 로봇에 관한 정보를 수신하면, 프로세서(130)는 수신한 제2 로봇(200-2)에 관한 정보를 표시하도록 디스플레이(120)를 제어할 수 있다(S413). 구체적으로, 프로세서(130)는 제2 로봇(200-2)의 이미지를 비롯하여 제2 로봇(200-2)의 식별 정보, 위치 정보, 배터리 정보 또는 이동 가능한 영역에 관한 정보 중 적어도 하나를 표시하도록 디스플레이(120)를 제어할 수 있다. Upon receiving information about the second robot from the
그리고, 프로세서(130)는 제2 로봇과 연결하기 위한 사용자 입력을 수신할 수 있다(S414). 구체적으로, 프로세서(130)는 디스플레이(120)에 표시된 제2 로봇(200-2)에 관한 정보를 선택하는 사용자 입력을 수신할 수 있다. 가령, 프로세서(130)는 디스플레이(120)에 표시된 제2 로봇의 이미지를 선택하는 사용자 입력을 수신할 수 있다. And, the
제2 로봇에 관한 정보를 사용자 입력을 수신하면, 프로세서(130)는 제2 로봇(200-2)과 연결할 수 있다(S415). 구체적으로, 프로세서(130)는 전자 장치(100)의 식별 정보, 주소 정보 및 사용자 식별 정보 중 적어도 하나를 전송하여 제2 로봇(200-2)에 제어 권한을 요청할 수 있다. 그리고, 제2 로봇(200-2)은 전자 장치(100)로부터 수신한 정보를 기초로 전자 장치(100)에 제어 권한 승인 메시지를 전송하여 전자 장치(100)에 제2 로봇(200-2)에 대한 제어 권한을 부여할 수 있다. 이에 따라, 전자 장치(100)는 제2 로봇(200-2)과 연결되어 제2 로봇(200-2)을 제어할 수 있다. Upon receiving a user input of information about the second robot, the
한편, 제2 로봇(200-2)으로부터 제어 권한 승인 메시지를 수신하면, 프로세서(130)는 제1 로봇(200-1)이 기설정된 위치로 이동하도록 하는 제어 명령을 제1 로봇(200-1)에 전송하도록 통신 인터페이스(110)를 제어할 수 있다. 이때, 기설정된 위치는 제1 로봇(200-1)의 스테이션이거나, 제1 공간이 제2 공간이 아닌 다른 공간과 연결된 지점이 될 수 있다. Meanwhile, upon receiving a control authority approval message from the second robot 200-2, the
제2 로봇(200-2)은 전자 장치(100)와 연결되면 제2 공간의 이미지를 촬상하고(S416), 제2 로봇(200-2)이 촬상한 제2 공간의 이미지를 전자 장치(100)에 전송할 수 있다(S417).When connected to the
그리고, 프로세서(130)는 제2 로봇(200-2)으로부터 수신한 이미지를 기초로 제2 로봇(200-2)을 원격으로 제어할 수 있다. 구체적으로, 프로세서(130)는 제2 공간에 존재하는 제2 로봇(200-2)을 제어하기 위한 UI를 표시하도록 디스플레이를 제어할 수 있다(S418). 여기에서, 제2 로봇(200-2)을 제어하기 위한 UI는 제2 로봇(200-2)이 촬상한 이미지를 포함하는 UI를 포함할 수 있다. 또한, 프로세서(130)는 제2 로봇(200-2)이 촬상한 이미지를 기초로 증강 현실 이미지를 생성하고, 생성된 증강 현실 이미지를 포함하는 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. And, the
이와 같은 과정을 통하여 전자 장치(100)는 제1 공간에 위치하는 제1 로봇(200-1)을 제어하면서 제1 로봇(200-1)이 촬상한 이미지를 획득할 수 있으며, 제1 로봇(200-1)이 제2 공간으로 이동하기 어려운 경우 제2 로봇(200-2)을 제어하면서 제2 로봇(200-2)이 촬상한 이미지를 획득할 수 있게 된다. Through this process, the
도 5A 내지 도 5E는 제1 로봇(200-1) 및 제2 로봇(200-2)으로부터 제1 로봇(200-1) 및 제2 로봇(200-2)이 촬상한 이미지를 수신하고, 수신된 이미지를 표시하는 전자 장치를 설명하기 위한 도면이다. 5A to 5E show images captured by the first robot 200-1 and the second robot 200-2 being received from the first robot 200-1 and the second robot 200-2. This is a diagram to explain an electronic device that displays an image.
도 5A는 장애물이 존재하는 공간에 존재하는 로봇을 설명하기 위한 도면으로, 가령, 계단과 같은 장애물이 존재하는 미술관 또는 박물관에 존재하는 로봇을 나타내는 도면이다. 본 개시에서 장애물은 로봇이 이동하지 못하도록 로봇의 이동을 제한하는 객체로, 계단 뿐만 아니라 에스컬레이터, 엘리베이터, 문, 펜스(fence)와 같은 다양한 형태가 될 수 있다. 또한, 도 5A의 공간은 미술관 또는 박물관 뿐만 아니라, 다양한 공간이 될 수 있음은 물론이다. Figure 5A is a diagram for explaining a robot existing in a space where obstacles exist, for example, a diagram showing a robot existing in an art gallery or museum where obstacles such as stairs exist. In the present disclosure, an obstacle is an object that restricts the movement of a robot to prevent it from moving, and may be of various forms such as stairs, escalators, elevators, doors, and fences. In addition, of course, the space in FIG. 5A can be not only an art gallery or museum, but also various spaces.
여기에서, 제1 로봇(200-1)이 위치하는 영역(가령, 그림 A 및 그림 B가 존재하는 영역)을 제1 공간이라 하고, 장애물에 의해 제1 로봇(200-1)이 이동 불가능한 영역(가령, 그림 C 및 그림 D가 존재하는 영역)을 제2 공간이라 기술할 수 있다. Here, the area where the first robot 200-1 is located (e.g., the area where Figures A and Figure B exist) is referred to as the first space, and an area where the first robot 200-1 cannot move due to obstacles. (For example, the area where Figure C and Figure D exist) can be described as the second space.
제1 로봇(200-1)은 전자 장치(100)로부터 제어 신호를 수신하고, 수신된 제어 신호에 따라 제1 공간을 이동하면서 이미지를 촬상할 수 있다. 가령, 제1 로봇(200-1)은 전자 장치(100)로부터 수신한 제어 신호에 기초하여, A 그림 또는 B그림을 촬영하고 촬영된 A 그림 또는 B 그림의 이미지를 전자 장치(100)에 전송할 수 있다. The first robot 200-1 may receive a control signal from the
그리고, 프로세서(130)는 제1 로봇(200-1)으로부터 제1 로봇(200-1)이 촬상한 이미지를 수신하고, 수신된 이미지를 포함하는 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. Additionally, the
가령, 도 5b에 도시된 바와 같이, 프로세서(130)는 제1 로봇(200-1)이 촬상한 그림 A의 이미지를 수신하고, 수신된 그림 A를 포함하는 이미지를 포함하는 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. For example, as shown in FIG. 5B, the
한편, 도 5c에 도시된 바와 같이, 프로세서(130)는 제1 로봇(200-1)이 제1 공간에서 제2 공간을 향해 이동하는 중에 촬상한 이미지를 수신하고, 제1 로봇(200-1)으로부터 수신한 이미지를 화면에 표시하도록 디스플레이(120)를 제어할 수 있다. Meanwhile, as shown in FIG. 5C, the
이때, 프로세서(130)는 제1 로봇(200-1)으로부터 제1 공간에서 제2 공간을 향해 이동하는 중에 촬상한 이미지에서 장애물을 식별할 수 있다. 구체적으로, 프로세서(130)는 객체 인식 프로그램이나 이미지에 포함된 객체를 인식하도록 학습된 인공지능 모델을 이용하여 화면에 표시된 이미지에서 장애물을 식별할 수 있다. At this time, the
그리고, 프로세서(130)는 식별된 장애물이 화면의 기설정된 영역에 위치하는 경우, 제1 로봇(200-1)이 제2 공간으로 이동하기 어려운 것으로 결정할 수 있다. 이에 대해서는 도 6a 및 도 6b에서 구체적으로 설명하도록 한다. Additionally, the
또는, 프로세서(130)는 제1 로봇(200-1)으로부터 직접 장애물에 관한 정보를 수신할 수도 있다. 프로세서(130)는 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하면서 식별한 장애물에 관한 정보를 수신하고, 수신된 정보를 기초로 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하기 어려운 것으로 확인할 수도 있다. 이와 관련하여, 제1 로봇(200-1)은 제1 로봇(200-1)에 포함된 적외선 센서, 광 센서 및 카메라와 같은 다양한 센서를 통하여 제1 로봇(200-1)의 전방에 위치한 장애물을 식별하고, 식별된 장애물을 우회하거나 넘어갈 수 있는지 계산할 수 있다. 그리고, 계산 결과에 기초하여 식별된 장애물의 정보 및 장애물을 넘어가거나 통과할 수 있는지 여부 등을 포함하는 장애물에 관한 정보를 전자 장치(100)에 전송할 수 있다. Alternatively, the
프로세서(130)는 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하기 어려운 것으로 확인되면, 제2 공간에 위치하는 제2 로봇(200-2)을 확인할 수 있다.If it is determined that it is difficult for the first robot 200-1 to move from the first space to the second space, the
구체적으로, 도 4에서 상술한 바와 같이, 프로세서(130)는 서버(300)에 제2 공간에 존재하는 로봇의 정보를 요청하고, 서버(300)로부터 제2 공간에 존재하는 제2 로봇(200-2)의 정보를 수신하고, 수신된 제2 로봇(200-2)의 정보를 표시할 수 있다. Specifically, as described above in FIG. 4, the
좀 더 구체적으로, 프로세서(130)는 서버(300)로부터 수신한 제2 로봇(200-2)의 정보를 기초로 제2 로봇(200-2)에 대한 가상 이미지를 생성하고, 생성된 가상 이미지를 기초로 증강 현실 이미지를 생성할 수 있다. More specifically, the
구체적으로, 도 5d에 도시된 바와 같이, 프로세서(130)는 제1 로봇(200-1)이 촬상한 장애물을 포함하는 이미지에 서버(300)로부터 수신한 제2 로봇(200-2)에 대한 가상 이미지를 렌더링하여 증강 현실 이미지를 생성하고, 생성된 증강 현실 이미지를 표시하도록 디스플레이(120)를 제어할 수 있다. 이에 따라, 전자 장치(100)의 사용자는 제2 공간에 제2 로봇(200-2)이 존재함을 시각적으로 인식할 수 있게 된다. Specifically, as shown in FIG. 5D, the
한편, 프로세서(130)는 디스플레이(120)에 표시된 증강 현실 이미지에서 제2 로봇(200-2)의 정보를 선택하는 사용자 입력을 수신할 수 있다. 가령, 프로세서(130)는 도 5d와 같이 제2 로봇(200-2)에 대한 가상 이미지를 선택하는 사용자 입력을 수신할 수 있다. Meanwhile, the
제2 로봇(200-1)에 대한 가상 이미지를 선택하는 사용자 입력을 수신하면, 프로세서(130)는 제2 로봇(200-2)에 제어 권한을 요청하는 신호를 전송할 수 있다. 그리고, 제2 로봇(200-2)으로부터 제2 로봇(200-2)에 대한 제어 권한을 받으면, 제2 로봇(200-2)과 연결되어 제2 로봇(200-2)을 제어할 수 있다. Upon receiving a user input for selecting a virtual image for the second robot 200-1, the
그리고, 프로세서(130)는 제2 로봇(200-2)이 제1 로봇(200-1)과 인접한 영역으로 이동하도록 하는 제어 명령을 제2 로봇(200-2)에 전송하도록 통신 인터페이스(110)를 제어할 수 있다. 여기에서 '인접한 영역'은, 제1 로봇(200-1)이 이동할 수 없는 제2 공간의 영역으로 제1 로봇(200-1)의 전방에 위치한 장애물과 만나는 영역을 나타낸다. 이에 따라, 제2 로봇(200-2)은 제2 공간이 장애물과 만나는 영역으로 이동할 수 있다. And, the
프로세서(130)는 제2 로봇(200-2)이 제1 로봇(200-1)과 인접한 영역으로 이동하면 제2 로봇(200-2)으로부터 제2 로봇(200-2)이 촬상한 이미지를 수신하고, 수신된 이미지를 포함하는 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. 가령, 프로세서(130)는 제2 로봇(200-2)이 제1 로봇(200-1)과 인접한 영역인 C 그림 앞으로 이동하게 되면, 제2 로봇(200-2)이 제2 공간의 이미지를 촬상하고, 촬상된 이미지를 전송하도록 제2 로봇(200-2)을 제어할 수 있다. 그리고, 도 5e에 도시된 바와 같이, 제2 로봇(200-2)으로부터 제2 로봇(200-2)이 촬상한 이미지(가령, 그림 C의 이미지)를 포함하는 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. When the second robot 200-2 moves to an area adjacent to the first robot 200-1, the
이에 따라, 전자 장치(100)는 특정 공간에 장애물이 존재하더라도 특정 공간에 존재하는 복수의 로봇을 이용하여 장애물에 대한 제약 없이 특정 공간의 이미지를 사용자에게 제공할 수 있게 되며, 사용자는 공간에 대한 제약 없이 연속적인 서비스를 제공 받을 수 있게 된다.Accordingly, the
도 6은 로봇이 촬상한 이미지에서 장애물을 식별하고, 가상의 이미지를 표시하는 전자 장치를 설명하기 위한 도면이다. 도 6a는 로봇으로부터 장애물이 포함된 이미지를 수신하여 표시하는 전자 장치를 설명하기 위한 도면이고, 도 6b는 장애물이 포함된 이미지에서 장애물을 식별하고, 다른 공간의 이미지를 표시하는 전자 장치를 설명하기 위한 도면이다. FIG. 6 is a diagram for explaining an electronic device that identifies obstacles in images captured by a robot and displays a virtual image. FIG. 6A is a diagram for explaining an electronic device that receives and displays an image containing an obstacle from a robot, and FIG. 6B is a diagram for explaining an electronic device that identifies an obstacle in an image containing an obstacle and displays an image of another space. This is a drawing for
상술한 바와 같이 제1 로봇(200-1)은 제1 공간을 이동하면서 이미지를 촬상하고, 촬상된 이미지를 전자 장치(100)에 전송할 수 있다. 그리고, 프로세서(130)는 제1 로봇(200-1)으로부터 제1 로봇(200-1)이 촬상한 이미지를 수신하고, 수신한 이미지를 표시하도록 디스플레이(120)를 제어할 수 있다. As described above, the first robot 200-1 may capture an image while moving in the first space and transmit the captured image to the
한편, 프로세서(130)는 제1 로봇(200-1)이 촬상한 이미지에서 장애물을 식별할 수 있다. 구체적으로, 프로세서(130)는 메모리(미도시)에 저장된 객체 인식 프로그램 또는 이미지에 포함된 객체를 인식하도록 학습된 인공지능 모델을 이용하여, 제1 로봇(200-1)에 포함된 장애물을 식별할 수 있다. Meanwhile, the
그리고, 프로세서(130)는 식별된 장애물이 디스플레이(120)의 화면의 기설정된 영역(610)에 표시되는 경우, 제1 로봇(200-1)이 장애물을 넘어갈 수 없다고 판단할 수 있다. 여기에서, 기설정된 영역(610)은 로봇(200)의 전방에 위치한 장애물의 크기를 대략적으로 식별하여 로봇(200)이 장애물을 넘을 수 있는지 판단하기 위한 영역으로, 디스플레이 화면의 중심 영역을 포함하면서 전체 화면 면적의 일정 비율 이상을 차지하는 영역이다. Also, when the identified obstacle is displayed in the
프로세서(130)는 제1 로봇(200-1)이 촬상한 이미지에 포함된 장애물이 화면의 기설정된 영역(610) 내에 표시되고, 기설정된 영역(610)에서 장애물을 제외한 영역(빗금친 영역)의 면적이 기정의된 값 이하인 경우, 제1 로봇(200-1)이 장애물을 넘어 이동할 수 없다고 확인할 수 있다. The
가령, 프로세서(130)는 제1 로봇(200-1)이 촬상한 이미지에서 문을 식별하고, 문이 화면의 기설정된 영역(610) 내에 표시되고, 기설정된 영역(610)에서 문을 제외한 영역의 면적이 기정의된 값 이하인 경우, 제1 로봇(200-1)이 장애물을 넘어 이동할 수 없다고 판단할 수 있다. For example, the
장애물에 의해 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동할 수 없다고 확인된 경우, 프로세서(130)는 제2 공간에 관한 정보를 서버(300)에 요청할 수 있다. When it is confirmed that the first robot 200-1 cannot move from the first space to the second space due to an obstacle, the
구체적으로, 프로세서(130)는 서버(300)에 제1 로봇(200-1)의 식별 정보를 전송하고, 제1 로봇(200-1)의 식별 정보를 기초로 제1 로봇(200-1)의 위치와 인접한 제2 공간에 관한 정보를 요청할 수 있다. 여기에서 제2 공간에 관한 정보는 제2 공간의 이미지 정보 또는 제2 공간에 포함된 객체의 이미지 정보를 포함할 수 있다. 또한, 프로세서(130)는 서버(300)에 제2 공간에 위치하는 로봇의 정보를 요청할 수 있다.Specifically, the
도 4에서 상술한 바와 같이, 제1 로봇(200-1) 및 제2 로봇(200-2)은 서버(300)에 주기적으로 식별 정보 및 위치 정보를 전송한다는 점에서, 서버(300)에는 제1 로봇(200-1) 및 제2 로봇(200-2)의 위치 정보가 저장될 수 있다. 따라서, 전자 장치(100)로부터 제1 로봇(200-1)의 식별 정보를 수신한 서버(300)는 제1 로봇(200-1)의 식별 정보를 토대로 제1 로봇의 위치 정보를 식별할 수 있다. As described above in FIG. 4, the first robot 200-1 and the second robot 200-2 periodically transmit identification information and location information to the
또한, 서버(300)는 제1 로봇(200-1)의 위치 정보를 기초로 제1 로봇(200-1)과 인접한 제2 공간에 관한 정보를 획득할 수 있다. 이를 위하여 서버(300)는 복수의 공간에 대한 공간 정보를 저장할 수 있다. 구체적으로, 서버(300)는 복수의 공간 각각에 위치하는 공간 수집 장치로부터 공간 정보를 수신하고, 수신된 공간 정보를 저장할 수 있다. 이와 관련하여, 서버(300)의 동작에 대해서는 도 7 및 도 8에서 구체적으로 설명하기로 한다.Additionally, the
서버(300)는 획득한 제2 공간에 대한 정보 및 제2 공간에 위치하는 로봇의 정보를 전자 장치(100)에 전송할 수 있다. 구체적으로, 서버(300)는 제2 공간의 이미지 정보, 제2 공간에 위치하는 제2 로봇(200-2)의 이미지 정보, 식별 정보, 위치 정보, 배터리 정보 및 이동 가능한 영역에 관한 정보 중 적어도 하나를 전자 장치(100)에 전송할 수 있다. The
한편, 서버(300)에 저장된 로봇에 관한 정보를 기초로, 제2 공간에 로봇이 존재하지 않는 것으로 확인될 수도 있다. 이 경우, 프로세서(130)는 서버(300)에 제2 공간과 연결된 제3 공간에 대한 정보를 요청할 수 있다. 구체적으로, 프로세서(130)는 제3 공간의 위치 정보 및 제3 공간에 위치하는 로봇의 정보를 수신할 수 있다. 그리고, 제3 공간에 위치하는 제3 로봇이 제2 공간으로 이동할 수 있는지 확인하고, 제3 로봇을 제어하기 위한 UI를 표시할 수 있다. Meanwhile, based on information about the robot stored in the
한편, 제2 공간에 위치하는 로봇이 존재하는 경우, 프로세서(130)는 서버(300)로부터 수신한 제2 공간에 대한 정보 및 제2 공간에 위치하는 로봇의 정보를 기초로, 증강 현실 이미지를 생성하고 이를 표시하도록 디스플레이(120)를 제어할 수 있다. Meanwhile, when there is a robot located in the second space, the
구체적으로, 프로세서(130)는 제1 로봇(200-1)으로부터 수신한 이미지에 서버(300)로부터 수신한 제2 공간의 이미지 및 제2 로봇(200-2)의 이미지를 렌더링하여 증강현실 이미지를 생성할 수 있다. 이때, 프로세서(130)는 제1 로봇(200-1)으로부터 수신한 이미지에서 기 설정된 영역(610)에 표시된 장애물의 위치에 제2 공간의 이미지 및 제2 로봇(200-2)의 이미지를 렌더링하도록 디스플레이(120)를 제어할 수 있다. 또한, 프로세서(130)는 제2 공간의 이미지 및 제2 로봇(200-2)의 이미지를 렌더링하면서 장애물에 대응되는 그래픽 효과를 제공하도록 디스플레이(120)를 제어할 수 있다. 가령, 프로세서(130)는 도 6b에 도시된 바와 같이, 제2 공간의 이미지 및 제2 로봇(200-2)의 이미지를 렌더링 하면서 문이 열리는 그래픽 효과를 제공하도록 디스플레이(120)를 제어할 수 있다. Specifically, the
이에 따라, 프로세서(130)는 제1 로봇(200-1)이 장애물을 만나 제1 공간에서 제2 공간으로 이동하기 어려운 경우, 제2 공간의 이미지 및 제2 공간에 존재하는 제2 로봇의 이미지를 포함하는 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. Accordingly, when the first robot 200-1 encounters an obstacle and has difficulty moving from the first space to the second space, the
도 7은 본 개시의 일 실시 예에 따라 공간 정보를 수집하여 저장하는 서버를 설명하기 위한 도면이다. FIG. 7 is a diagram illustrating a server that collects and stores spatial information according to an embodiment of the present disclosure.
본 개시의 각각의 공간에는 공간 정보 수집 장치(500)가 위치할 수 있다. 여기에서, 공간 정보 수집 장치(500)는 공간 정보 수집 장치(500)가 놓인 공간을 촬상하여 공간에 대한 이미지를 생성하는 장치로, 카메라, CCTV를 비롯한 다양한 촬상 장치를 의미한다. A spatial
구체적으로, 도 8에 도시된 바와 같이, 장애물이 위치한 영역으로 기준으로 제1 공간을 촬상하는 공간 수집 장치(500-1) 및 제2 공간을 촬상하는 공간 수집 장치(500-2)가 존재할 수 있다. 한편, 도 8에는 제1 공간에 대한 공간 수집 장치(500-1) 및 제2 공간에 대한 공간 수집 장치(500-2)가 각각 하나인 것으로 도시하였으나, 각각의 공간에는 복수의 공간 수집 장치가 위치할 수 있다. Specifically, as shown in FIG. 8, there may be a space collection device 500-1 for imaging the first space and a space collection device 500-2 for imaging the second space based on the area where the obstacle is located. there is. Meanwhile, in FIG. 8, there is one space collection device 500-1 for the first space and one space collection device 500-2 for the second space, but each space has a plurality of space collection devices. can be located
공간 정보 수집 장치(500)는 공간 정보 수집 장치(500)가 놓인 공간에 대한 공간 정보를 수집할 수 있다(S710). 구체적으로, 공간 정보 수집 장치(500)는 공간 정보 수집 장치(500)가 위치한 공간을 촬영하면서 공간에 존재하는 로봇이나 다양한 객체들을 포함하는 이미지를 생성할 수 있다. The spatial
가령, 도 8을 참조하면, 제1 공간 수집 장치(500-1)는 제1 공간 및 제1 공간에 위치하는 로봇이나 다양한 객체들을 촬영하여, 제1 공간에 대한 공간 정보를 수집할 수 있다. 또한, 제2 공간 수집 장치(500-2)는 제2 공간 및 제2 공간에 위치하는 로봇이나 다양한 객체들을 촬영하여, 제2 공간에 대한 공간 정보를 수집할 수 있다. For example, referring to FIG. 8 , the first space collection device 500-1 may collect spatial information about the first space by photographing the first space and robots or various objects located in the first space. Additionally, the second space collection device 500-2 may collect spatial information about the second space by photographing the second space and robots or various objects located in the second space.
공간 수집 장치(500)는 수집된 공간 정보를 서버(300)에 전송할 수 있다(S720). 구체적으로, 공간 수집 장치(500)는 서버(300)와 연결되어 주기적으로 서버(300))에 수집된 공간 정보를 전송할 수 있다. The
서버(300)는 공간 정보 수집 장치(500)로부터 수신한 공간 정보를 영상처리를 통해 재구성하여 저장할 수 있다(S730). 구체적으로, 서버(300)는 공간 정보 수집 장치(500)로부터 수신한 공간 정보에 포함된 이미지를 확대, 축소, 회전하는 유클리드 기하학적 변환을 수행하거나, 이미지의 색보정 또는 색 변환을 수행하거나, 제1 공간 수집 장치(500-1)(또는 제2 공간 수집 장치(500-2))로부터 수신한 복수의 이미지를 결합하여 제1 공간에 대한 하나의 이미지를 생성하는 등 다양한 영상 처리를 통하여 각 공간에 대한 공간 정보를 재구성하여 저장할 수 있다. The
그리고, 서버(300)는 재구성된 공간 정보를 공간 정보 수집 장치(500)에 전송할 수 있다(S740). 이 경우, 공간 정보 수집 장치(500)는 서버(300)로부터 수신한 재구성된 공간 정보를 기초로 공간 정보를 재수집할 수 있다. Then, the
한편, 서버(300)에 저장된 공간 정보를 기반으로, 복수의 공간 정보가 연결될 수 있다(S750). 구체적으로, 서버(300)의 관리자는 각 공간에 대한 지리적 정보를 기초로, 복수의 공간 정보를 연결할 수 있다. Meanwhile, based on the spatial information stored in the
또 다른 실시 예로, 각 공간에 대한 지리적 정보가 서버(300)에 입력되면, 서버(300)는 입력된 지리적 정보를 기초로, 복수의 공간 정보 각각을 연결할 수도 있다. 가령, 서버(300)가 수신한 지리적 정보에 제1 공간과 제2 공간이 연결되고, 제2 공간과 제3 공간이 연결된 것으로 나타나 있다면, 서버(300)는 제1 공간에 대한 공간 정보 및 제2 공간에 대한 공간 정보를 하나의 쌍으로, 제2 공간에 대한 공간 정보 및 제3 공간에 대한 공간 정보를 하나의 쌍으로 매핑할 수 있다. As another example, when geographical information for each space is input to the
그리고, 서버(300)는 서로 연결된 복수의 공간 정보를 서버(300)에 저장할 수 있다(S760). Additionally, the
이에 따라, 서버(300)는 전자 장치(100)로부터 제1 로봇(500-1)의 식별 정보를 수신하는 경우, 제1 로봇(500-1)의 식별 정보를 토대로 제1 로봇(500-1)의 위치 정보를 확인하고, 확인된 제1 로봇(500-1)의 위치 정보를 기초로 제1 로봇(500-1)과 인접한 제2 공간에 대한 정보를 식별할 수 있다. Accordingly, when the
도 9는 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다. FIG. 9 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.
전자 장치(100)는 제1 공간에 위치하는 제1 로봇(200-1)과 연결할 수 있다. 구체적으로, 전자 장치(100)는 제1 로봇(200-1)에 제어 권한 요청 메시지를 전송하고, 제1 로봇(200-1)으로부터 제어 권한을 수신할 수 있다. The
전자 장치(100)가 제1 로봇(200-1)과 연결되면, 제1 로봇을 제어하기 위한 UI를 표시할 수 있다(S910). When the
구체적으로, 제1 로봇(200-1)과 연결되면, 제1 로봇(200-1)으로부터 제1 로봇(200-1)이 촬상한 이미지를 수신하고, 수신된 이미지를 포함하는 UI를 표시할 수 있다. 이때, 제1 로봇(200-1)이 제1 공간에서 제2 공간을 향해 이동하면서 촬상한 이미지를 수신하고, 수신된 이미지를 포함하는 UI를 표시할 수 있다. Specifically, when connected to the first robot 200-1, the image captured by the first robot 200-1 is received from the first robot 200-1, and a UI including the received image is displayed. You can. At this time, the first robot 200-1 may receive an image captured while moving from the first space to the second space, and display a UI including the received image.
그리고, 사용자 조작 명령에 기초하여 제1 로봇(200-1)을 제어하기 위한 제어 명령을 제1 로봇(200-1)에 전송할 수 있다. 이에 따라, 제1 로봇(200-1)은 제어 명령에 따라 제1 공간을 이동하면서 제1 공간을 촬상할 수 있다. Also, a control command for controlling the first robot 200-1 may be transmitted to the first robot 200-1 based on the user manipulation command. Accordingly, the first robot 200-1 can capture images of the first space while moving through the first space according to a control command.
그리고, 제1 로봇(200-1)이 제1 공간과 다른 제2 공간으로 이동할 수 있는지 확인할 수 있다. 구체적으로, 제1 로봇(200-1)이 제1 공간에서 제2 공간을 향해 이동하면서 촬상한 이미지에서 장애물을 식별하고, 식별된 장애물이 화면의 기설정된 영역에 위치하는 경우, 제1 로봇이 제1 공간에서 제2 공간으로 이동하기 어려운 것으로 결정할 수 있다. Also, it can be confirmed whether the first robot 200-1 can move to a second space that is different from the first space. Specifically, the first robot 200-1 identifies an obstacle in an image captured while moving from the first space to the second space, and when the identified obstacle is located in a preset area of the screen, the first robot 200-1 It may be determined that it is difficult to move from the first space to the second space.
다른 일 실시 예에 따라, 제1 로봇(200-1)으로부터 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하면서 식별한 장애물에 관한 정보를 수신하고, 수신된 장애물에 관한 정보를 기초로 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동할 수 있는지 확인할 수 있다. 이를 위하여, 제1 로봇(200-1)은 전자 장치(100)의 제어 명령에 따라 이동하면서 적외선 센서, 광 센서 및 카메라와 같은 다양한 센서를 통하여 장애물을 식별할 수 있다. 그리고, 제1 로봇(200-1)은 식별된 장애물에 관한 정보를 전자 장치(100)에 전송할 수 있다. According to another embodiment, information about an obstacle identified while the first robot 200-1 moves from the first space to the second space is received from the first robot 200-1, and information about the received obstacle is received. Based on the information, it can be confirmed whether the first robot 200-1 can move from the first space to the second space. To this end, the first robot 200-1 can identify obstacles through various sensors such as an infrared sensor, an optical sensor, and a camera while moving according to the control command of the
제1 로봇(200-1)이 제1 공간과 다른 제2 공간으로 이동하기 어려우면, 제2 공간에 위치하는 제2 로봇(200-2)을 확인할 수 있다(S930).If it is difficult for the first robot 200-1 to move to a second space different from the first space, the second robot 200-2 located in the second space can be confirmed (S930).
제1 로봇(200-1)으로부터 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하면서 식별한 장애물에 관한 정보를 수신하는 경우, 수신된 정보를 기초로 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하기 어려운 것으로 확인되면, 제2 공간에 로봇이 존재하는지 확인할 수 있다. When receiving information about an obstacle identified while the first robot 200-1 moves from the first space to the second space from the first robot 200-1, the first robot 200-1 based on the received information -1) If it is confirmed that it is difficult to move from the first space to the second space, it can be confirmed whether the robot exists in the second space.
구체적으로, 제1 로봇(200-1)이 제1 공간에서 제2 공간으로 이동하기 어려우면, 서버(300)에 제2 공간에 위치하는 로봇의 정보를 요청할 수 있다. 그리고, 서버(300)로부터 제2 공간에 위치하는 제2 로봇(200-2)의 정보를 수신할 수 있다. 이때, 제2 로봇(200-2)의 정보는 제2 로봇(200-2)의 이미지, 종류, 식별 정보, 위치 정보, 배터리 정보 및 이동 가능한 영역에 관한 정보 중 적어도 하나를 포함할 수 있다. Specifically, if it is difficult for the first robot 200-1 to move from the first space to the second space, information about the robot located in the second space may be requested from the
한편, 이때, 제2 공간에 로봇이 존재하지 않는 것으로 확인되면, 서버(300)에 제2 공간과 연결된 제3 공간에 대한 정보를 요청하고, 서버(300)로부터 수신한 정보를 기초로 제3 공간에 위치하는 제3 로봇(200-3)이 제2 공간으로 이동할 수 있는지 확인할 수 있다. 그리고, 제3 로봇(200-3)이 제2 공간으로 이동가능 한 경우, 제3 로봇(200-3)을 제어하기 위한 UI를 표시할 수 있다.Meanwhile, at this time, if it is confirmed that there is no robot in the second space, information about the third space connected to the second space is requested from the
서버(300)로부터 제2 로봇(200-2)의 정보를 수신하면, 수신된 제2 로봇(200-2)의 정보를 표시할 수 있다. 가령, 제2 로봇(200-2)의 이미지 정보를 표시할 수 있다.When information about the second robot 200-2 is received from the
그리고, 표시된 제2 로봇(200-2)을 선택하는 사용자 입력을 수신하면, 제2 로봇(200-2)에서 촬상된 제2 이미지를 표시할 수 있다.And, when a user input for selecting the displayed second robot 200-2 is received, the second image captured by the second robot 200-2 can be displayed.
구체적으로, 제2 로봇(200-2)을 선택하는 사용자 입력을 수신하면, 제2 로봇(200-2)에 제어 권한을 요청할 수 있다. 이때, 제2 로봇(200-2)으로부터 제어 권한 승인을 수신하면, 제2 로봇(200-2)과 연결되어 제2 로봇(200-2)에 제어 명령을 전송할 수 있다. Specifically, upon receiving a user input for selecting the second robot 200-2, control authority may be requested from the second robot 200-2. At this time, when control authority approval is received from the second robot 200-2, it is connected to the second robot 200-2 and a control command can be transmitted to the second robot 200-2.
그리고, 확인된 제2 로봇(200-2)을 제어하기 위한 UI를 표시할 수 있다(S940).And, a UI for controlling the confirmed second robot 200-2 can be displayed (S940).
이때, 제2 로봇(200-2)이 제1 로봇(200-1)과 인접한 영역으로 이동하도록 하는 제어 명령을 제2 로봇(200-2)에 전송할 수 있다. 제2 로봇(200-2)이 제1 로봇(200-1)과 인접한 영역으로 이동하면, 제2 로봇(200-2)으로부터 제2 로봇(200-2)이 촬상한 이미지를 수신하고, 제2 로봇(200-2)으로부터 수신한 이미지를 포함하는 UI를 표시할 수 있다. At this time, a control command that causes the second robot 200-2 to move to an area adjacent to the first robot 200-1 may be transmitted to the second robot 200-2. When the second robot 200-2 moves to an area adjacent to the first robot 200-1, it receives the image captured by the second robot 200-2 and 2 A UI including an image received from the robot 200-2 can be displayed.
제2 로봇(200-2)으로부터 제어 권한 승인을 수신하고 제2 로봇(200-2)이 제1 로봇(200-1)과 인접한 영역으로 이동하면, 제1 로봇(200-1)이 제1 로봇(200-1)의 스테이션과 같은 기설정된 위치로 이동하도록 하는 제어 명령을 제1 로봇(200-1)에 전송할 수 있다. When control authority approval is received from the second robot (200-2) and the second robot (200-2) moves to an area adjacent to the first robot (200-1), the first robot (200-1) A control command to move the robot 200-1 to a preset location, such as a station, may be transmitted to the first robot 200-1.
이상에서 전자 장치(100) 또는 서버(200) 중 적어도 하나를 통해 수행되는 것으로 기재된 다양한 동작들은, 전자 장치의 제어 방법 또는 전자 장치를 포함하는 시스템의 제어 방법 내지 동작 방법의 형태로 하나 이상의 전자 장치를 통해 수행될 수 있다. The various operations described above as being performed through at least one of the
한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다.Meanwhile, the various embodiments described above may be implemented in a recording medium that can be read by a computer or similar device using software, hardware, or a combination thereof.
하드웨어적인 구현에 의하면, 본 개시에서 설명되는 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(Programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processor), 제어기(controller), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessor), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다.According to hardware implementation, embodiments described in this disclosure include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and field programmable gate arrays (FPGAs). ), processor, controller, micro-controllers, microprocessor, and other electrical units for performing functions.
일부의 경우에 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상술한 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.In some cases, embodiments described herein may be implemented in the processor itself. According to software implementation, embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules described above may perform one or more functions and operations described herein.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 사용자 장치 또는 관리자 장치에서의 처리동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 사용자 장치 및/또는 관리자 장치의 처리 동작을 상술한 특정 기기가 수행하도록 한다.Meanwhile, computer instructions for performing processing operations on a user device or administrator device according to various embodiments of the present disclosure described above may be stored in a non-transitory computer-readable medium. You can. The computer instructions stored in such a non-transitory computer-readable medium, when executed by a processor of a specific device, cause the specific device to perform processing operations of the user device and/or the administrator device according to the various embodiments described above.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다. A non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as registers, caches, and memories. Specifically, the various applications or programs described above may be stored and provided on non-transitory readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, etc.
또한, 이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.In addition, although the preferred embodiments of the present disclosure have been shown and described above, the present disclosure is not limited to the specific embodiments described above, and the technical field belonging to the disclosure is not departing from the gist of the disclosure as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical idea or perspective of the present invention.
100: 전자 장치
200-1: 제1 로봇
100-2: 제2 로봇
300: 서버
110: 통신 인터페이스
120: 디스플레이
130: 프로세서100: Electronic device 200-1: First robot
100-2: Second robot 300: Server
110: communication interface 120: display
130: processor
Claims (20)
제1 공간에 위치하는 제1 로봇을 제어하기 위한 UI를 표시하는 단계;
사용자 조작 명령에 기초하여 상기 제1 로봇을 제어하기 위한 제어 명령을 상기 제1 로봇에 전송하는 단계;
상기 제1 로봇이 상기 제1 공간과 다른 제2 공간으로 이동하기 어려우면, 상기 제2 공간에 위치하는 제2 로봇을 확인하는 단계; 및
상기 확인된 제2 로봇을 제어하기 위한 UI를 표시하는 단계;를 포함하는 제어 방법. In a method of controlling an electronic device,
Displaying a UI for controlling a first robot located in a first space;
Transmitting a control command for controlling the first robot to the first robot based on a user operation command;
If it is difficult for the first robot to move to a second space different from the first space, confirming a second robot located in the second space; and
A control method comprising: displaying a UI for controlling the confirmed second robot.
상기 확인된 제2 로봇이 상기 제1 로봇과 인접한 영역으로 이동하도록 하는 제어 명령을 상기 제2 로봇에 전송하는 단계;를 더 포함하는 제어 방법. According to paragraph 1,
A control method further comprising transmitting a control command to the second robot to cause the confirmed second robot to move to an area adjacent to the first robot.
상기 제2 로봇이 상기 제1 로봇과 인접한 영역으로 이동하면, 상기 제2 로봇으로부터 상기 제2 로봇이 촬상한 제2 이미지를 수신하는 단계;를 더 포함하고,
상기 제2 로봇을 제어하기 위한 UI를 표시하는 단계는,
상기 수신된 제2 이미지를 포함하는 UI를 표시하는 단계를 포함하는, 제어 방법.According to paragraph 1,
When the second robot moves to an area adjacent to the first robot, receiving a second image captured by the second robot from the second robot,
The step of displaying a UI for controlling the second robot,
A control method comprising displaying a UI including the received second image.
상기 제1 로봇으로부터 상기 제1 로봇이 촬상한 제1 이미지를 수신하는 단계;를 더 포함하고,
상기 제1 로봇을 제어하기 위한 UI를 표시하는 단계는,
상기 수신된 제1 이미지를 포함하는 UI를 표시하는 단계;를 포함하는, 제어 방법.According to paragraph 1,
It further includes receiving a first image captured by the first robot from the first robot,
The step of displaying a UI for controlling the first robot,
A control method comprising: displaying a UI including the received first image.
상기 제1 로봇을 제어하는 위한 UI를 표시하는 단계는,
상기 제1 로봇이 상기 제1 공간에서 상기 제2 공간을 향해 이동하면서 촬상한 제1 이미지를 수신하고, 상기 수신된 제1 이미지를 포함하는 UI를 표시하는 단계;를 포함하고,
상기 촬상된 제1 이미지에서 장애물을 식별하는 단계; 및
상기 식별된 장애물이 화면의 기설정된 영역에 표시되는 경우, 상기 제1 로봇이 상기 제2 공간으로 이동하기 어려운 것으로 결정하는 단계;를 포함하는, 제어 방법.According to paragraph 1,
The step of displaying a UI for controlling the first robot,
Receiving a first image captured by the first robot while moving from the first space toward the second space, and displaying a UI including the received first image,
identifying an obstacle in the captured first image; and
A control method including; determining that it is difficult for the first robot to move to the second space when the identified obstacle is displayed in a preset area of the screen.
상기 제1 로봇으로부터 상기 제1 로봇이 상기 제1 공간에서 제2공간으로 이동하면서 식별한 장애물에 관한 정보를 수신하는 단계;를 더 포함하고,
상기 확인하는 단계는,
상기 수신된 정보를 기초로 상기 제1 로봇이 상기 제2 공간으로 이동하기 어려운 것으로 확인되면, 상기 제2 공간에 로봇이 존재하는지 확인하는 단계;를 포함하는, 제어 방법.According to paragraph 1,
Receiving information from the first robot about an obstacle identified by the first robot while moving from the first space to the second space,
The above confirmation steps are:
If it is determined that it is difficult for the first robot to move to the second space based on the received information, confirming whether the robot exists in the second space. A control method comprising a.
상기 제2 공간에 로봇이 존재하지 않는 것으로 확인되면, 서버에 상기 제2 공간과 연결된 제3 공간에 대한 정보를 요청하는 단계;
상기 서버로부터 수신한 정보를 기초로 상기 제3 공간에 위치하는 제3 로봇이 상기 제2 공간으로 이동할 수 있는지 확인하는 단계;
상기 제3 로봇이 상기 제2 공간으로 이동가능 한 경우, 상기 제3 로봇을 제어하기 위한 UI를 표시하는 단계;를 더 포함하는 제어 방법.According to clause 6,
When it is confirmed that there is no robot in the second space, requesting information about a third space connected to the second space from a server;
Checking whether a third robot located in the third space can move to the second space based on information received from the server;
If the third robot can move to the second space, displaying a UI for controlling the third robot.
상기 제2 로봇을 확인하는 단계는,
상기 제1 로봇이 상기 제1 공간에서 상기 제2 공간으로 이동하기 어려우면, 서버에 상기 제2 공간에 위치하는 로봇의 정보를 요청하는 단계; 및
상기 서버로부터 상기 제2 공간에 위치하는 제2 로봇의 정보를 수신하는 단계; 를 포함하고,
상기 제2 로봇에 관한 정보는,
상기 제2 로봇의 이미지, 제2 로봇의 종류, 식별 정보, 위치 정보, 배터리 정보 및 이동 가능한 영역에 관한 정보 중 적어도 하나를 포함하는, 제어 방법.According to paragraph 1,
The step of checking the second robot is,
If it is difficult for the first robot to move from the first space to the second space, requesting information about the robot located in the second space from a server; and
Receiving information about a second robot located in the second space from the server; Including,
Information about the second robot,
A control method including at least one of an image of the second robot, a type of the second robot, identification information, location information, battery information, and information about a movable area.
상기 제2 로봇을 제어하기 위한 UI를 표시하는 단계는,
상기 제2 로봇의 정보를 수신하면, 상기 수신된 제2 로봇의 정보를 표시하는 단계;
상기 표시된 제2 로봇의 정보를 선택하는 사용자 입력을 수신하면, 상기 제2 로봇에서 촬상된 제2 이미지를 표시하는 단계; 및
상기 제2 로봇의 위치 또는 방향을 제어하기 위한 UI를 표시하는 단계;를 포함하는, 제어 방법.According to clause 8,
The step of displaying a UI for controlling the second robot,
Upon receiving information about the second robot, displaying the received information about the second robot;
Upon receiving a user input for selecting information on the displayed second robot, displaying a second image captured by the second robot; and
A control method including; displaying a UI for controlling the position or direction of the second robot.
상기 확인된 제2 로봇에 제어 권한을 요청하는 단계; 및
상기 제2 로봇으로부터 제어 권한 승인 메시지를 수신하면, 상기 제1 로봇이 기설정된 위치로 이동하도록 하는 제어 명령을 상기 제1 로봇에 전송하는 단계;를 포함하는, 제어 방법.
According to paragraph 1,
Requesting control authority from the identified second robot; and
Upon receiving a control authority approval message from the second robot, transmitting a control command to the first robot to cause the first robot to move to a preset position. A control method comprising a.
통신 인터페이스;
디스플레이; 및
제1 공간에 위치하는 제1 로봇을 제어하기 위한 UI를 표시하도록 상기 디스플레이를 제어하고,
사용자 조작 명령에 기초하여 상기 제1 로봇을 제어하기 위한 제어 명령을 상기 제1 로봇에 전송하도록 상기 통신 인터페이스를 제어하고,
상기 제1 로봇이 상기 제1 공간과 다른 제2 공간으로 이동하기 어려우면, 상기 제2 공간에 위치하는 제2 로봇을 확인하고,
상기 확인된 제2 로봇을 제어하기 위한 UI를 표시하도록 상기 디스플레이를 제어하는 프로세서;를 포함하는, 전자 장치.In electronic devices,
communication interface;
display; and
Controlling the display to display a UI for controlling a first robot located in a first space,
Controlling the communication interface to transmit a control command for controlling the first robot to the first robot based on a user operation command,
If it is difficult for the first robot to move to a second space different from the first space, check the second robot located in the second space,
An electronic device comprising; a processor controlling the display to display a UI for controlling the confirmed second robot.
상기 프로세서는,
상기 확인된 제2 로봇이 상기 제1 로봇과 인접한 영역으로 이동하도록 하는 제어 명령을 상기 제2 로봇에 전송하도록 상기 통신 인터페이스를 제어하는, 전자 장치.
According to clause 11,
The processor,
An electronic device that controls the communication interface to transmit a control command to the second robot to cause the identified second robot to move to an area adjacent to the first robot.
상기 프로세서는,
상기 제2 로봇이 상기 제1 로봇과 인접한 영역으로 이동하면, 상기 제2 로봇으로부터 상기 제2 로봇이 촬상한 제2 이미지를 수신하고,
상기 수신된 제2 이미지를 포함하는 UI를 표시하도록 상기 디스플레이를 제어하는, 전자 장치.According to clause 11,
The processor,
When the second robot moves to an area adjacent to the first robot, a second image captured by the second robot is received from the second robot,
An electronic device that controls the display to display a UI including the received second image.
상기 프로세서는,
상기 제1 로봇으로부터 상기 제1 로봇이 촬상한 제1 이미지를 수신하고,
상기 수신된 제1 이미지를 포함하는 UI를 표시하도록 상기 디스플레이를 제어하는, 전자 장치.According to clause 11,
The processor,
Receiving a first image captured by the first robot from the first robot,
An electronic device that controls the display to display a UI including the received first image.
상기 프로세서는,
상기 제1 로봇이 상기 제1 공간에서 상기 제2 공간을 향해 이동하면서 촬상한 제1 이미지를 수신하고, 상기 수신된 제1 이미지를 포함하는 UI를 표시하도록 상기 디스플레이를 제어하고,
상기 촬상된 제1 이미지에서 장애물을 식별하고,
상기 식별된 장애물이 화면의 기설정된 영역에 표시되는 경우, 상기 제1 로봇이 상기 제2 공간으로 이동하기 어려운 것으로 결정하는, 전자 장치.According to clause 11,
The processor,
Receiving a first image captured by the first robot while moving from the first space toward the second space, and controlling the display to display a UI including the received first image,
Identifying an obstacle in the captured first image,
The electronic device determines that it is difficult for the first robot to move to the second space when the identified obstacle is displayed in a preset area of the screen.
상기 프로세서는,
상기 제1 로봇으로부터 상기 제1 로봇이 상기 제1 공간에서 제2공간으로 이동하면서 식별한 장애물에 관한 정보를 수신하고,
상기 수신된 정보를 기초로 상기 제1 로봇이 상기 제2 공간으로 이동하기 어려운 것으로 확인되면, 상기 제2 공간에 로봇이 존재하는지 확인하는, 전자 장치.According to clause 11,
The processor,
Receiving information about obstacles identified by the first robot while moving from the first space to the second space from the first robot,
If it is determined that it is difficult for the first robot to move to the second space based on the received information, the electronic device checks whether the robot exists in the second space.
상기 프로세서는,
상기 제1 로봇이 상기 제1 공간에서 상기 제2 공간으로 이동하기 어려우면, 서버에 상기 제2 공간에 위치하는 로봇의 정보를 요청하고,
상기 서버로부터 상기 제2 공간에 위치하는 제2 로봇의 정보를 수신하고,
상기 제2 로봇에 관한 정보는,
상기 제2 로봇의 이미지, 제2 로봇의 종류, 식별 정보, 위치 정보, 배터리 정보 및 이동 가능한 영역에 관한 정보 중 적어도 하나를 포함하는, 전자 장치.According to clause 11,
The processor,
If it is difficult for the first robot to move from the first space to the second space, request information about the robot located in the second space from the server,
Receiving information about a second robot located in the second space from the server,
Information about the second robot,
An electronic device comprising at least one of an image of the second robot, a type of the second robot, identification information, location information, battery information, and information about a movable area.
상기 프로세서는,
상기 제2 로봇의 정보를 수신하면, 상기 수신된 제2 로봇의 정보를 표시하고,
상기 표시된 제2 로봇의 정보를 선택하는 사용자 입력을 수신하면, 상기 제2 로봇에서 촬상된 제2 이미지를 포함하는 UI 및 상기 제2 로봇의 위치 또는 방향을 제어하기 위한 UI를 표시하도록 상기 디스플레이를 제어하는, 전자 장치.According to clause 17,
The processor,
When receiving information about the second robot, display the received information about the second robot,
When receiving a user input for selecting information on the displayed second robot, the display is configured to display a UI including a second image captured by the second robot and a UI for controlling the position or direction of the second robot. Controlling electronic device.
상기 프로세서는,
상기 확인된 제2 로봇에 제어 권한을 요청하고,
상기 제2 로봇으로부터 제어 권한 승인 메시지를 수신하면, 상기 제1 로봇이 기설정된 위치로 이동하도록 하는 제어 명령을 상기 제1 로봇에 전송하도록 상기 통신 인터페이스를 제어하는, 전자 장치.According to clause 11,
The processor,
Request control authority from the confirmed second robot,
An electronic device that controls the communication interface to transmit a control command to the first robot to move the first robot to a preset position when receiving a control authority approval message from the second robot.
상기 제어 방법은,
제1 공간에 위치하는 제1 로봇을 제어하기 위한 UI를 표시하는 단계;
사용자 조작 명령에 기초하여 상기 제1 로봇을 제어하기 위한 제어 명령을 상기 제1 로봇에 전송하는 단계;
상기 제1 로봇이 상기 제1 공간과 다른 제2 공간으로 이동하기 어려우면, 상기 제2 공간에 위치하는 제2 로봇을 확인하는 단계; 및
상기 확인된 제2 로봇을 제어하기 위한 UI를 표시하는 단계;를 포함하는 기록 매체.
In the computer-readable recording medium including a program for executing a control method of an electronic device,
The control method is,
Displaying a UI for controlling a first robot located in a first space;
Transmitting a control command for controlling the first robot to the first robot based on a user operation command;
If it is difficult for the first robot to move to a second space different from the first space, confirming a second robot located in the second space; and
A recording medium comprising: displaying a UI for controlling the confirmed second robot.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200117915A KR20220035767A (en) | 2020-09-14 | 2020-09-14 | Electronic apparatus and controlling method thereof |
PCT/KR2021/009249 WO2022055117A1 (en) | 2020-09-14 | 2021-07-19 | Electronic device and method for controlling same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200117915A KR20220035767A (en) | 2020-09-14 | 2020-09-14 | Electronic apparatus and controlling method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220035767A true KR20220035767A (en) | 2022-03-22 |
Family
ID=80631894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200117915A KR20220035767A (en) | 2020-09-14 | 2020-09-14 | Electronic apparatus and controlling method thereof |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20220035767A (en) |
WO (1) | WO2022055117A1 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3302188B2 (en) * | 1994-09-13 | 2002-07-15 | 日本電信電話株式会社 | Telexistence-type video phone |
JP3152107B2 (en) * | 1995-06-09 | 2001-04-03 | 株式会社大林組 | Control method of multi robot system |
KR101855831B1 (en) * | 2011-05-12 | 2018-05-09 | 엘지전자 주식회사 | Cleaning apparatus and collaboration cleaning method using robot cleaners |
KR102094347B1 (en) * | 2013-07-29 | 2020-03-30 | 삼성전자주식회사 | Auto-cleaning system, cleaning robot and controlling method thereof |
KR20180039977A (en) * | 2016-10-11 | 2018-04-19 | 엘지전자 주식회사 | Assistant robot for airport and method thereof |
-
2020
- 2020-09-14 KR KR1020200117915A patent/KR20220035767A/en unknown
-
2021
- 2021-07-19 WO PCT/KR2021/009249 patent/WO2022055117A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022055117A1 (en) | 2022-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11886633B2 (en) | Virtual object display interface between a wearable device and a mobile device | |
KR102025544B1 (en) | Wearable video device and video system having the same | |
US11869156B2 (en) | Augmented reality eyewear with speech bubbles and translation | |
US20180060333A1 (en) | System and method for placement of virtual characters in an augmented/virtual reality environment | |
US11689877B2 (en) | Immersive augmented reality experiences using spatial audio | |
US11195341B1 (en) | Augmented reality eyewear with 3D costumes | |
US11908042B2 (en) | Electronic apparatus and control method thereof | |
US11392199B2 (en) | Eyewear with shared gaze-responsive viewing | |
US20210406542A1 (en) | Augmented reality eyewear with mood sharing | |
US20240045494A1 (en) | Augmented reality with eyewear triggered iot | |
US11826635B2 (en) | Context-sensitive remote eyewear controller | |
US20230007227A1 (en) | Augmented reality eyewear with x-ray effect | |
KR20220035767A (en) | Electronic apparatus and controlling method thereof | |
US11240482B2 (en) | Information processing device, information processing method, and computer program | |
US20160379416A1 (en) | Apparatus and method for controlling object movement | |
JP6736962B2 (en) | Image transmission control program, image transmission control method, and image transmission control device | |
US11863860B2 (en) | Image capture eyewear with context-based sending | |
KR20240018607A (en) | Devices with dynamic transcode throttling |