KR20240028574A - Robot managing electornic device and controlling method thereof - Google Patents

Robot managing electornic device and controlling method thereof Download PDF

Info

Publication number
KR20240028574A
KR20240028574A KR1020220105950A KR20220105950A KR20240028574A KR 20240028574 A KR20240028574 A KR 20240028574A KR 1020220105950 A KR1020220105950 A KR 1020220105950A KR 20220105950 A KR20220105950 A KR 20220105950A KR 20240028574 A KR20240028574 A KR 20240028574A
Authority
KR
South Korea
Prior art keywords
electronic device
robot
information
identified
operation confirmation
Prior art date
Application number
KR1020220105950A
Other languages
Korean (ko)
Inventor
황지웅
최예은
이승준
한훈
강현주
공진아
조용희
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020220105950A priority Critical patent/KR20240028574A/en
Priority to PCT/KR2023/009125 priority patent/WO2024043488A1/en
Publication of KR20240028574A publication Critical patent/KR20240028574A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y20/00Information sensed or collected by the things
    • G16Y20/10Information sensed or collected by the things relating to the environment, e.g. temperature; relating to location
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Environmental & Geological Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Computing Systems (AREA)
  • Manipulator (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)

Abstract

로봇 및 로봇의 제어 방법이 개시된다. 로봇은 카메라, 통신 인터페이스, 특정 공간에 대응되는 3차원 정보가 저장된 메모리 및 하나 이상의 프로세서를 포함한다. 하나 이상의 프로세서는 특정 공간을 로봇이 주행하는 동안 카메라를 통해 획득된 영상에서 전자 장치가 식별되면, 식별된 전자 장치의 식별 정보를 획득한다. 하나 이상의 프로세서는 식별된 전자 장치의 타입에 대응되는 동작 확인 신호를 통신 인터페이스를 통해 전자 장치로 전송한다. 하나 이상의 프로세서는 동작 확인 신호에 따른 전자 장치의 동작이 식별되면, 특정 공간 내 전자 장치의 위치 정보를 식별한다. 하나 이상의 프로세서는 전자 장치의 식별 정보 및 전자 장치의 위치 정보에 기초하여 전자 장치를 특정 공간에 매핑하여 3차원 정보를 업데이트한다.A robot and a method for controlling the robot are disclosed. The robot includes a camera, a communication interface, a memory storing 3D information corresponding to a specific space, and one or more processors. When an electronic device is identified in an image obtained through a camera while the robot is traveling in a specific space, one or more processors obtain identification information of the identified electronic device. One or more processors transmit an operation confirmation signal corresponding to the type of the identified electronic device to the electronic device through a communication interface. When the operation of the electronic device according to the operation confirmation signal is identified, one or more processors identify location information of the electronic device within a specific space. One or more processors update three-dimensional information by mapping the electronic device to a specific space based on the identification information of the electronic device and the location information of the electronic device.

Description

전자 장치를 관리하는 로봇 및 그 제어 방법{ROBOT MANAGING ELECTORNIC DEVICE AND CONTROLLING METHOD THEREOF}Robot for managing electronic devices and its control method {ROBOT MANAGING ELECTORNIC DEVICE AND CONTROLLING METHOD THEREOF}

본 개시는 일정 공간에 배치된 전자 장치를 관리하는 로봇 및 그 제어 방법에 관한 것이다.This disclosure relates to a robot that manages electronic devices placed in a certain space and a method of controlling the same.

전자 기술의 발전에 따라 다양한 전자 장치가 상용화되고 있다. 예를 들어, 전자 장치는 스마트폰, 태블릿 PC, 데스크탑 컴퓨터, 랩탑 컴퓨터, 오디오 장치, 스피커, TV, 전자 레인지 등을 포함할 수 있다. 또한, 냉장고, 세탁기, 건조기 등과 같은 기존의 가전 기기들도 통신 기능, 음성 인식 기능이나 제스처 인식 기능을 포함하는 형태로 발전하고 있다.With the advancement of electronic technology, various electronic devices are being commercialized. For example, electronic devices may include smartphones, tablet PCs, desktop computers, laptop computers, audio devices, speakers, TVs, microwave ovens, etc. In addition, existing home appliances such as refrigerators, washing machines, and dryers are also developing to include communication functions, voice recognition functions, and gesture recognition functions.

통신 기능을 포함하는 전자 장치는 타 전자 장치 또는 서버와 네트워크로 연결되어 타 전자 장치 또는 서버로 다양한 정보를 송수신할 수 있다. 또는, 음성 인식 기능이나 제스처 인식 기능을 포함하는 전자 장치는 사용자의 음성이나 제스처를 인식하고 인식된 음성이나 제스처에 대응되는 동작을 수행할 수 있다.An electronic device that includes a communication function can be connected to another electronic device or server through a network and transmit and receive various information to the other electronic device or server. Alternatively, an electronic device including a voice recognition function or a gesture recognition function may recognize a user's voice or gesture and perform an operation corresponding to the recognized voice or gesture.

또한, 로봇은 제품의 조립, 검사와 같은 산업용으로 활용될 뿐 아니라, 서빙, 배달, 보안, 관리 등과 같은 기능을 수행하며 일상 생활에 많이 활용되고 있다.In addition, robots are not only used for industrial purposes such as product assembly and inspection, but are also widely used in daily life by performing functions such as serving, delivery, security, and management.

본 개시의 일 실시 예에 따른 로봇은 카메라, 통신 인터페이스, 특정 공간에 대응되는 3차원 정보가 저장된 메모리 및 하나 이상의 프로세서를 포함한다. 상기 하나 이상의 프로세서는 상기 특정 공간을 상기 로봇이 주행하는 동안 상기 카메라를 통해 획득된 영상에서 전자 장치가 식별되면, 상기 식별된 전자 장치의 식별 정보를 획득할 수 있다. 상기 하나 이상의 프로세서는 상기 식별된 전자 장치의 타입에 대응되는 동작 확인 신호를 상기 통신 인터페이스를 통해 상기 전자 장치로 전송할 수 있다. 하나 이상의 프로세서는 상기 동작 확인 신호에 따른 상기 전자 장치의 동작이 식별되면, 상기 특정 공간 내 상기 전자 장치의 위치 정보를 식별할 수 있다. 하나 이상의 프로세서는 상기 전자 장치의 식별 정보 및 상기 전자 장치의 위치 정보에 기초하여 상기 전자 장치를 상기 특정 공간에 매핑하여 상기 3차원 정보를 업데이트할 수 있다.A robot according to an embodiment of the present disclosure includes a camera, a communication interface, a memory storing 3D information corresponding to a specific space, and one or more processors. When an electronic device is identified in an image obtained through the camera while the robot travels in the specific space, the one or more processors may obtain identification information of the identified electronic device. The one or more processors may transmit an operation confirmation signal corresponding to the type of the identified electronic device to the electronic device through the communication interface. When the operation of the electronic device according to the operation confirmation signal is identified, one or more processors may identify location information of the electronic device within the specific space. One or more processors may update the 3D information by mapping the electronic device to the specific space based on the identification information of the electronic device and the location information of the electronic device.

본 개시의 일 실시 예에 따른 로봇의 제어 방법은 특정 공간을 상기 로봇이 주행하는 동안 획득된 영상에서 전자 장치가 식별되면, 상기 식별된 전자 장치의 식별 정보를 획득할 수 있다. 제어 방법은 상기 식별된 전자 장치의 타입에 대응되는 동작 확인 신호를 상기 전자 장치로 전송할 수 있다. 제어 방법은 상기 동작 확인 신호에 따른 상기 전자 장치의 동작이 식별되면, 상기 특정 공간 내 상기 전자 장치의 위치 정보를 식별할 수 있다. 제어 방법은 상기 전자 장치의 식별 정보 및 상기 전자 장치의 위치 정보에 기초하여 상기 전자 장치를 상기 특정 공간에 매핑하여 저장된 3차원 정보를 업데이트할 수 있다.The robot control method according to an embodiment of the present disclosure can obtain identification information of the identified electronic device when an electronic device is identified in an image acquired while the robot is traveling in a specific space. The control method may transmit an operation confirmation signal corresponding to the type of the identified electronic device to the electronic device. The control method may identify location information of the electronic device within the specific space when the operation of the electronic device according to the operation confirmation signal is identified. The control method may update stored 3D information by mapping the electronic device to the specific space based on the identification information of the electronic device and the location information of the electronic device.

본 개시의 일 실시 예에 따른 비일시적 컴퓨터 판독 가능 저장 매체에 기록된 로봇의 제어 방법을 수행하는 프로그램은 특정 공간을 상기 로봇이 주행하는 동안 획득된 영상에서 전자 장치가 식별되면, 상기 식별된 전자 장치의 식별 정보를 획득할 수 있다. 프로그램은 상기 식별된 전자 장치의 타입에 대응되는 동작 확인 신호를 상기 전자 장치로 전송할 수 있다. 프로그램은 상기 동작 확인 신호에 따른 상기 전자 장치의 동작이 식별되면, 상기 특정 공간 내 상기 전자 장치의 위치 정보를 식별할 수 있다. 프로그램은 상기 전자 장치의 식별 정보 및 상기 전자 장치의 위치 정보에 기초하여 상기 전자 장치를 상기 특정 공간에 매핑하여 저장된 3차원 정보를 업데이트할 수 있다.A program that performs a method for controlling a robot recorded on a non-transitory computer-readable storage medium according to an embodiment of the present disclosure is configured to: When an electronic device is identified in an image acquired while the robot is traveling in a specific space, the identified electronic device Device identification information can be obtained. The program may transmit an operation confirmation signal corresponding to the type of the identified electronic device to the electronic device. When the operation of the electronic device according to the operation confirmation signal is identified, the program can identify location information of the electronic device within the specific space. The program may update the stored 3D information by mapping the electronic device to the specific space based on the identification information of the electronic device and the location information of the electronic device.

도 1은 본 개시의 일 실시 예에 따른 로봇 시스템을 설명하는 도면이다.
도 2는 본 개시의 일 실시 예에 따른 로봇의 구성을 설명하는 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 로봇의 구체적인 구성을 설명하는 블록도이다.
도 4 내지 도 6은 본 개시의 일 실시 예에 따른 전자 장치를 식별하는 과정을 설명하는 도면이다.
도 7은 본 개시의 일 실시 예에 따른 식별된 전자 장치를 3차원 정보에 매핑하는 과정을 설명하는 도면이다.
도 8은 본 개시의 일 실시 예에 따른 복수의 전자 장치를 동시에 식별하는 과정을 설명하는 도면이다.
도 9는 본 개시의 일 실시 예에 따른 전자 장치를 식별하는 로봇 시스템의 동작을 설명하는 타이밍도이다.
도 10은 본 개시의 일 실시 예에 따른 이동한 전자 장치를 식별하는 과정을 설명하는 도면이다.
도 11 및 도 12는 본 개시의 일 실시 예에 따른 주변 오브젝트에 의한 영향을 확인하는 과정을 설명하는 도면이다.
도 13은 본 개시의 일 실시 예에 따른 이동한 전자 장치를 식별하는 로봇 시스템의 동작을 설명하는 타이밍도이다.
도 14는 본 개시의 일 실시 예에 따른 사용자 명령을 수행하는 로봇을 설명하는 도면이다.
도 15 및 도 16은 본 개시의 일 실시 예에 따른 사용자 명령을 수행하는 단말 장치를 설명하는 도면이다.
도 17은 본 개시의 일 실시 예에 따른 로봇의 제어 방법을 설명하는 흐름도이다.
1 is a diagram illustrating a robot system according to an embodiment of the present disclosure.
Figure 2 is a block diagram explaining the configuration of a robot according to an embodiment of the present disclosure.
Figure 3 is a block diagram explaining the specific configuration of a robot according to an embodiment of the present disclosure.
4 to 6 are diagrams illustrating a process for identifying an electronic device according to an embodiment of the present disclosure.
FIG. 7 is a diagram illustrating a process of mapping an identified electronic device to 3D information according to an embodiment of the present disclosure.
FIG. 8 is a diagram illustrating a process for simultaneously identifying a plurality of electronic devices according to an embodiment of the present disclosure.
Figure 9 is a timing diagram explaining the operation of a robot system that identifies an electronic device according to an embodiment of the present disclosure.
FIG. 10 is a diagram illustrating a process for identifying a moving electronic device according to an embodiment of the present disclosure.
11 and 12 are diagrams illustrating a process for confirming the influence of surrounding objects according to an embodiment of the present disclosure.
FIG. 13 is a timing diagram explaining the operation of a robot system that identifies a moving electronic device according to an embodiment of the present disclosure.
Figure 14 is a diagram explaining a robot that performs a user command according to an embodiment of the present disclosure.
15 and 16 are diagrams illustrating a terminal device executing a user command according to an embodiment of the present disclosure.
Figure 17 is a flowchart explaining a method of controlling a robot according to an embodiment of the present disclosure.

이하에서는 첨부된 도면을 참조하여 다양한 실시 예를 보다 상세하게 설명한다. 본 명세서에 기재된 실시 예는 다양하게 변형될 수 있다. 특정한 실시 예가 도면에서 묘사되고 상세한 설명에서 자세하게 설명될 수 있다. 그러나, 첨부된 도면에 개시된 특정한 실시 예는 다양한 실시 예를 쉽게 이해하도록 하기 위한 것일 뿐이다. 따라서, 첨부된 도면에 개시된 특정 실시 예에 의해 기술적 사상이 제한되는 것은 아니며, 개시의 사상 및 기술 범위에 포함되는 모든 균등물 또는 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, various embodiments will be described in more detail with reference to the attached drawings. The embodiments described herein may be modified in various ways. Specific embodiments may be depicted in the drawings and described in detail in the detailed description. However, the specific embodiments disclosed in the attached drawings are only intended to facilitate understanding of the various embodiments. Accordingly, the technical idea is not limited to the specific embodiments disclosed in the attached drawings, and should be understood to include all equivalents or substitutes included in the spirit and technical scope of the disclosure.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이러한 구성요소들은 상술한 용어에 의해 한정되지는 않는다. 상술한 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but these components are not limited by the above-mentioned terms. The above-mentioned terms are used only for the purpose of distinguishing one component from another.

본 명세서에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.In this specification, terms such as “comprise” or “have” are intended to indicate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof. When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

한편, 본 명세서에서 사용되는 구성요소에 대한 "모듈" 또는 "부"는 적어도 하나의 기능 또는 동작을 수행한다. 그리고, "모듈" 또는 "부"는 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합에 의해 기능 또는 동작을 수행할 수 있다. 또한, 특정 하드웨어에서 수행되어야 하거나 적어도 하나의 프로세서에서 수행되는 "모듈" 또는 "부"를 제외한 복수의 "모듈들" 또는 복수의 "부들"은 적어도 하나의 모듈로 통합될 수도 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Meanwhile, a “module” or “unit” for a component used in this specification performs at least one function or operation. And, the “module” or “unit” may perform a function or operation by hardware, software, or a combination of hardware and software. Additionally, a plurality of “modules” or a plurality of “units” excluding a “module” or “unit” that must be performed on specific hardware or performed on at least one processor may be integrated into at least one module. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 개시의 설명에 있어서 각 단계의 순서는 선행 단계가 논리적 및 시간적으로 반드시 후행 단계에 앞서서 수행되어야 하는 경우가 아니라면 각 단계의 순서는 비제한적으로 이해되어야 한다. 즉, 위와 같은 예외적인 경우를 제외하고는 후행 단계로 설명된 과정이 선행단계로 설명된 과정보다 앞서서 수행되더라도 개시의 본질에는 영향이 없으며 권리범위 역시 단계의 순서에 관계없이 정의되어야 한다. 그리고 본 명세서에서 "A 또는 B"라고 기재한 것은 A와 B 중 어느 하나를 선택적으로 가리키는 것뿐만 아니라 A와 B 모두를 포함하는 것도 의미하는 것으로 정의된다. 또한, 본 명세서에서 "포함"이라는 용어는 포함하는 것으로 나열된 요소 이외에 추가로 다른 구성요소를 더 포함하는 것도 포괄하는 의미를 가진다.In the description of the present disclosure, the order of each step should be understood as non-limiting unless the preceding step must be performed logically and temporally prior to the subsequent step. In other words, except for the above exceptional cases, even if the process described as a subsequent step is performed before the process described as a preceding step, the nature of disclosure is not affected, and the scope of rights must also be defined regardless of the order of the steps. In this specification, the term “A or B” is defined not only to selectively indicate either A or B, but also to include both A and B. In addition, the term "included" in this specification has the meaning of including additional components in addition to the elements listed as included.

본 명세서에서는 본 개시의 설명에 필요한 필수적인 구성요소만을 설명하며, 본 개시의 본질과 관계가 없는 구성요소는 언급하지 아니한다. 그리고 언급되는 구성요소만을 포함하는 배타적인 의미로 해석되어서는 아니되며 다른 구성요소도 포함할 수 있는 비배타적인 의미로 해석되어야 한다.In this specification, only essential components necessary for description of the present disclosure are described, and components unrelated to the essence of the present disclosure are not mentioned. And it should not be interpreted in an exclusive sense that includes only the mentioned components, but in a non-exclusive sense that can also include other components.

그 밖에도, 본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그에 대한 상세한 설명은 축약하거나 생략한다. 한편, 각 실시 예는 독립적으로 구현되거나 동작될 수도 있지만, 각 실시 예는 조합되어 구현되거나 동작될 수도 있다.In addition, when describing the present disclosure, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present disclosure, the detailed description thereof is abbreviated or omitted. Meanwhile, each embodiment may be implemented or operated independently, but each embodiment may be implemented or operated in combination.

도 1은 본 개시의 일 실시 예에 따른 로봇 시스템을 설명하는 도면이다.1 is a diagram illustrating a robot system according to an embodiment of the present disclosure.

도 1을 참조하면, 로봇 시스템(1000)은 로봇(100), 전자 장치(200), 서버(300) 및 단말 장치(400)를 포함할 수 있다.Referring to FIG. 1 , the robot system 1000 may include a robot 100, an electronic device 200, a server 300, and a terminal device 400.

로봇(100)은 특정 공간의 맵 데이터 및 3차원 정보를 포함할 수 있다. 로봇(100)은 특정 공간을 탐색하며 맵 데이터 및 3차원 정보를 생성할 수 있다. 또는, 로봇(100)은 서버(300)로부터 특정 공간의 맵 데이터 및 3차원 정보를 수신할 수 있다. 예를 들어, 특정 공간은 가정, 학교, 회사 등을 포함할 수 있다. 일 예로, 로봇(100)은 가정의 방, 부엌, 거실 등을 탐색할 수 있다. 로봇(100)은 각 공간을 탐색하면서 2차원 맵 데이터를 생성할 수 있다. 또한, 로봇(100)은 방, 부엌, 거실의 바닥, 벽, 천장을 식별할 수 있다. 로봇(100)은 식별된 바닥, 벽, 천장의 정보를 이용하여 3차원 정보를 생성할 수 있다. 또한, 로봇(100)은 각 공간에 배치된 오브젝트를 식별할 수도 있다. 예를 들어, 오브젝트는 식탁, 테이블, 책장, 책상 등을 포함할 수 있다.The robot 100 may include map data and 3D information of a specific space. The robot 100 can explore a specific space and generate map data and 3D information. Alternatively, the robot 100 may receive map data and 3D information of a specific space from the server 300. For example, specific spaces may include home, school, work, etc. As an example, the robot 100 can explore a room, kitchen, living room, etc. in a home. The robot 100 can generate two-dimensional map data while exploring each space. Additionally, the robot 100 can identify the floor, walls, and ceiling of a room, kitchen, and living room. The robot 100 can generate 3D information using information on the identified floor, wall, and ceiling. Additionally, the robot 100 may identify objects placed in each space. For example, objects may include a dining table, a table, a bookshelf, a desk, etc.

각 공간에는 전자 장치(200)가 배치될 수 있다. 예를 들어, 전자 장치(200)는 네트워크로 연결된 네트워크 장치일 수 있고, 네트워크로 연결되지 않은 일반 장치일 수 있다. 네트워크로 연결되지 않은 일반 장치는 리모컨 등으로 제어되는 전자 장치를 포함할 수 있다. 본 명세서에서는 네트워크 장치를 IoT(Internet Of Things) 장치로 칭하고, 리모컨으로 제어되고 네트워크에 연결되지 않는 일반 장치를 IR(Infra-Red) 장치라고 칭하기로 한다. 예를 들어, 전자 장치(200)는 냉장고, TV, 로봇 청소기, 세탁기, 건조기, 공조기, 전등, 스피커, 센서, 전원 장치, 라우터 등을 포함할 수 있다. 상술한 전자 장치(200)의 예는 일 예이며, 상술한 예에 국한되는 것은 아니다.An electronic device 200 may be placed in each space. For example, the electronic device 200 may be a network device connected to a network, or may be a general device not connected to a network. General devices not connected to a network may include electronic devices controlled with a remote control or the like. In this specification, network devices are referred to as IoT (Internet of Things) devices, and general devices controlled by a remote control and not connected to the network are referred to as IR (Infra-Red) devices. For example, the electronic device 200 may include a refrigerator, TV, robot vacuum cleaner, washing machine, dryer, air conditioner, light, speaker, sensor, power supply, router, etc. The example of the electronic device 200 described above is an example, and is not limited to the example described above.

서버(300)는 전자 장치(200)(예, IoT 장치) 및 로봇(100)과 통신을 수행할 수 있다. 서버(300)는 특정 공간에 배치된 전자 장치(200)로부터 정보를 수신하고, 전자 장치(200)의 정보를 로봇(100)으로 전송할 수 있다.The server 300 may communicate with the electronic device 200 (eg, IoT device) and the robot 100. The server 300 may receive information from the electronic device 200 placed in a specific space and transmit the information of the electronic device 200 to the robot 100.

예를 들어, 특정 공간에 배치된 전자 장치(200)는 서버(300)로 정보를 전송할 수 있다. 서버(300)로 전송하는 정보는 타입, 이름, 모델명, 제어 관련 정보 등을 포함하는 식별 정보를 포함할 수 있다. 서버(300)는 전자 장치(200)로부터 수신된 식별 정보를 로봇(100)으로 전송할 수 있다.For example, the electronic device 200 placed in a specific space may transmit information to the server 300. Information transmitted to the server 300 may include identification information including type, name, model name, and control-related information. The server 300 may transmit the identification information received from the electronic device 200 to the robot 100.

로봇(100)은 공간을 탐색하며 배치된 전자 장치(200)를 식별할 수 있다. 로봇(100)은 특정 공간에서 카메라를 통해 획득된 영상에 기초하여 전자 장치(200)를 식별할 수 있다. 로봇(100)은 식별된 전자 장치(200)의 타입에 대응되는 동작 확인 신호를 전자 장치(200)로 전송할 수 있다. 전자 장치(200)는 수신된 동작 확인 신호에 따라 동작을 수행할 수 있다. 로봇(100)은 전자 장치(200)의 동작을 식별하면, 공간 내 전자 장치의 위치 정보를 식별할 수 있다. 예를 들어, 로봇(100)은 서버(300)로부터 공간에 배치된 전등과 관련된 정보를 서버(300)로부터 수신할 수 있다. 로봇(100)은 공간 탐색 및 카메라를 통해 획득한 영상으로부터 방의 벽면에 배치된 전등을 식별할 수 있다. 로봇(100)은 전등으로 동작 확인 신호를 전송하고, 전등의 동작을 식별할 수 있다. 로봇(100)은 전등의 위치 정보를 식별할 수 있다. 예를 들어, 전등의 위치 정보는 방, 벽면, 전등의 좌표 정보 등을 포함할 수 있다. 로봇(100)은 전등의 식별 정보와 위치 정보를 매칭시킬 수 있다. 그리고, 로봇(100)은 전등의 식별 정보와 위치 정보가 매칭된 정보를 공간에 매핑하여 3차원 정보를 업데이트할 수 있다.The robot 100 can explore space and identify the placed electronic device 200. The robot 100 may identify the electronic device 200 based on an image acquired through a camera in a specific space. The robot 100 may transmit an operation confirmation signal corresponding to the type of the identified electronic device 200 to the electronic device 200. The electronic device 200 may perform an operation according to the received operation confirmation signal. When the robot 100 identifies the operation of the electronic device 200, it can identify the location information of the electronic device in space. For example, the robot 100 may receive information related to lights placed in a space from the server 300 . The robot 100 can identify lights placed on the walls of a room from images acquired through spatial exploration and a camera. The robot 100 can transmit an operation confirmation signal to the light and identify the operation of the light. The robot 100 can identify the location information of the light. For example, the location information of the light may include coordinate information of the room, wall, and light. The robot 100 can match the identification information and location information of the light. In addition, the robot 100 can update the 3D information by mapping the information matching the lamp's identification information and location information to space.

로봇(100)은 전자 장치(200)의 식별 정보와 위치 정보가 공간에 매핑된 3차원 정보를 서버(300) 및/또는 단말 장치(400)로 전송할 수 있다. 서버(300)는 수신된 정보를 저장할 수 있다. 단말 장치(400)는 수신된 정보에 기초하여 제어 UI(User Interface)를 표시할 수 있다. 단말 장치(400)는 표시된 제어 UI 상에서 전자 장치(200)를 제어하는 명령을 입력받을 수 있다. 사용자의 제어 명령이 입력되면, 단말 장치(400)는 대응되는 전자 장치(200)로 입력된 제어 명령을 전송할 수 있다. 전자 장치(200)는 수신된 제어 명령에 따라 제어 동작을 수행할 수 있다.The robot 100 may transmit 3D information in which the identification information and location information of the electronic device 200 are mapped to space to the server 300 and/or the terminal device 400. Server 300 may store the received information. The terminal device 400 may display a control user interface (UI) based on the received information. The terminal device 400 may receive a command to control the electronic device 200 on the displayed control UI. When a user's control command is input, the terminal device 400 may transmit the input control command to the corresponding electronic device 200. The electronic device 200 may perform control operations according to received control commands.

도 1에서는 서버(300)를 포함하는 로봇 시스템(300)을 설명하였으나, 서버(300)의 일부 기능 또는 모든 기능은 로봇(100)에서 수행될 수 있다. 예를 들어, 로봇(100)은 상술한 서버(300)의 기능을 모두 수행할 수 있다. 또는, 로봇(100)은 상술한 서버(300)의 기능을 수행하면서 추가적으로 필요한 정보를 서버(300)로 요청할 수 있다.Although FIG. 1 illustrates the robot system 300 including the server 300, some or all functions of the server 300 may be performed in the robot 100. For example, the robot 100 can perform all of the functions of the server 300 described above. Alternatively, the robot 100 may request additional necessary information from the server 300 while performing the functions of the server 300 described above.

아래에서는 로봇 시스템(1000)의 다양한 예를 설명하기로 한다.Below, various examples of the robot system 1000 will be described.

도 2는 본 개시의 일 실시 예에 따른 로봇의 구성을 설명하는 블록도이다.Figure 2 is a block diagram explaining the configuration of a robot according to an embodiment of the present disclosure.

도 2를 참조하면, 로봇(100)은 카메라(110), 통신 인터페이스(120), 메모리(130) 및 프로세서(140)를 포함한다.Referring to FIG. 2, the robot 100 includes a camera 110, a communication interface 120, a memory 130, and a processor 140.

카메라(110)는 로봇(100)의 주변 환경의 영상을 촬영할 수 있다. 프로세서(140)는 촬영된 영상으로부터 공간, 전자 장치(200), 오브젝트 등을 식별할 수 있다. 또는, 카메라(110)는 사용자의 영상을 촬영할 수 있다. 프로세서(140)는 촬영된 사용자의 영상으로부터 사용자의 위치, 시선 방향, 지시 방향 등을 포함하는 사용자 관련 정보를 식별할 수 있다. 또는, 프로세서(140)는 사용자의 표정, 동작, 사용자의 시선 등에 기초하여 제어 명령을 인식하고, 인식된 제어 명령 또는 인식된 영역에 대응되는 제어 동작을 수행할 수 있다. 예를 들어, 카메라(1110)는 CCD 센서, CMOS 센서를 포함할 수 있다. 또한, 카메라(110)는 RGB 카메라, 뎁스 카메라를 포함할 수도 있다.The camera 110 can capture images of the surrounding environment of the robot 100. The processor 140 may identify a space, an electronic device 200, an object, etc. from a captured image. Alternatively, the camera 110 may capture an image of the user. The processor 140 may identify user-related information, including the user's location, gaze direction, and pointing direction, from the captured user's image. Alternatively, the processor 140 may recognize a control command based on the user's facial expression, motion, gaze, etc., and perform a control operation corresponding to the recognized control command or the recognized area. For example, the camera 1110 may include a CCD sensor or a CMOS sensor. Additionally, the camera 110 may include an RGB camera or a depth camera.

통신 인터페이스(120)는 외부 장치와 통신을 수행할 수 있다. 통신 인터페이스(120)는 외부 장치로부터 데이터를 수신하고, 식별된 데이터를 외부 장치로 전송할 수 있다. 예를 들어, 외부 장치는 전자 장치(200), 서버(300), 단말 장치(400)를 포함할 수 있다. 통신 인터페이스(120)는 서버(300)로부터 전자 장치(200)의 식별 정보를 수신할 수 있다. 그리고, 통신 인터페이스(120)는 전자 장치(200)의 식별 정보 및 위치 정보에 기초하여 특정 공간에 매핑된 3차원 정보를 단말 장치(400)로 전송할 수 있다. 또한, 통신 인터페이스(120)는 동작 확인 신호, 테스트 신호, 제어 신호를 전자 장치(200)로 전송할 수 있다.The communication interface 120 can communicate with an external device. The communication interface 120 may receive data from an external device and transmit identified data to the external device. For example, the external device may include an electronic device 200, a server 300, and a terminal device 400. The communication interface 120 may receive identification information of the electronic device 200 from the server 300. Additionally, the communication interface 120 may transmit 3D information mapped to a specific space to the terminal device 400 based on the identification information and location information of the electronic device 200. Additionally, the communication interface 120 may transmit an operation confirmation signal, a test signal, and a control signal to the electronic device 200.

예를 들어, 통신 인터페이스(120)는 Wi-Fi, Wi-Fi 다이렉트, 블루투스, 지그비, DLNA, Wide, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project) 및 LTE(Long Term Evoloution)의 통신 방식 중 적어도 하나 이상의 통신 방식으로 외부 장치와 통신을 수행할 수 있다. 통신 인터페이스(120)는 통신 장치, 통신부, 통신 모듈, 송수신부 등으로 지칭될 수 있다.For example, the communication interface 120 may use communication methods such as Wi-Fi, Wi-Fi Direct, Bluetooth, ZigBee, DLNA, Wide, 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), and LTE (Long Term Evolution). Communication with an external device can be performed using at least one of the following communication methods. The communication interface 120 may be referred to as a communication device, communication unit, communication module, transceiver, etc.

메모리(130)는 로봇(100)의 동작과 관련된 알고리즘, 데이터, 소프트웨어 등을 저장할 수 있다. 메모리(130)에 저장된 알고리즘, 데이터, 소프트웨어 등은 프로세서(140)의 제어에 의해 프로세서(140)에 로딩되어 데이터 처리 과정을 수행할 수 있다. 또한, 메모리(130)는 전자 장치(200)의 식별 정보, 위치 정보, 3차원 정보 등을 저장할 수 있다. 예를 들어, 메모리(135)는 롬, 램, HDD, SSD, 메모리 카드 등의 타입으로 구현될 수 있다.The memory 130 may store algorithms, data, software, etc. related to the operation of the robot 100. Algorithms, data, software, etc. stored in the memory 130 may be loaded into the processor 140 under the control of the processor 140 to perform a data processing process. Additionally, the memory 130 may store identification information, location information, 3D information, etc. of the electronic device 200. For example, the memory 135 may be implemented in the form of ROM, RAM, HDD, SSD, memory card, etc.

프로세서(140)는 로봇(100)의 각 구성을 제어할 수 있다. 예를 들어, 프로세서(140)는 영상을 촬영하도록 카메라(110)를 제어하고, 외부 장치와 데이터를 송수신하도록 통신 인터페이스(110)를 제어할 수 있다. 로봇(100)은 하나의 프로세서(140)를 포함할 수 있고, 복수의 프로세서(140)를 포함할 수 있다.The processor 140 can control each component of the robot 100. For example, the processor 140 may control the camera 110 to capture images and control the communication interface 110 to transmit and receive data with an external device. The robot 100 may include one processor 140 or may include a plurality of processors 140.

프로세서(140)는 카메라(110)를 통해 획득된 영상에서 전자 장치(200)를 식별하고, 식별된 전자 장치(200)의 정보를 획득할 수 있다. 예를 들어, 프로세서(140)는 서버(300)로부터 수신된 전자 장치(200)의 식별 정보로부터 영상에서 식별된 전자 장치(200)의 식별 정보를 획득할 수 있다. 또는, 전자 장치(200)의 식별 정보가 없는 경우(예, 전자 장치의 식별 정보 미저장, 미수신, 영상으로부터 식별된 전자 장치에 대응되는 식별 정보의 부존재), 프로세서(140)는 전자 장치(200)의 식별 정보를 요청하는 신호를 서버(300)로 전송하고, 서버(300)로부터 전자 장치(200)의 식별 정보를 수신하도록 통신 인터페이스(120)를 제어할 수 있다.The processor 140 may identify the electronic device 200 from the image acquired through the camera 110 and obtain information about the identified electronic device 200. For example, the processor 140 may obtain identification information of the electronic device 200 identified in the image from the identification information of the electronic device 200 received from the server 300. Alternatively, if there is no identification information of the electronic device 200 (e.g., the identification information of the electronic device is not stored, not received, or there is no identification information corresponding to the electronic device identified from the image), the processor 140 controls the electronic device 200. ) can transmit a signal requesting identification information of the electronic device 200 to the server 300, and control the communication interface 120 to receive identification information of the electronic device 200 from the server 300.

프로세서(140)는 식별된 전자 장치(200)의 타입에 대응되는 동작 확인 신호를 전자 장치(200)로 전송하도록 통신 인터페이스(120)를 제어하고, 전자 장치(200)의 동작을 식별할 수 있다. 예를 들어, 전자 장치(200)의 타입이 광 출력 장치(예, 전등)이면, 프로세서(140)는 광을 출력하는 동작 확인 신호를 전자 장치(200)로 전송하도록 통신 인터페이스(120)를 제어하고, 광을 출력하는 전자 장치(200)의 영상을 촬영하도록 카메라(110)를 제어할 수 있다. 전자 장치(200)의 타입이 사운드 출력 장치(예, 스피커)이면, 프로세서(140)는 사운드를 출력하는 동작 확인 신호를 전자 장치(200)로 전송하도록 통신 인터페이스(120)를 제어하고, 전자 장치(200)에서 출력되는 사운드를 수신하도록 스피커를 제어할 수 있다. 전자 장치(200)의 타입이 통신 장치이면, 응답 신호를 출력하는 동작 확인 신호를 전자 장치(200)로 전송하고, 전자 장치(200)에서 출력되는 응답 신호를 수신하도록 통신 인터페이스(120)를 제어할 수 있다. 또는, 동작 확인 신호는 전자 장치(200)를 온/오프하는 신호를 포함할 수 있다. 프로세서(140)는 전자 장치(200)로 전송한 동작 확인 신호에 대응되는 전자 장치(200)의 동작을 식별하여 영상에 포함된 전자 장치(200)가 식별 정보에 대응되는 전자 장치(200)인지 여부를 확인할 수 있다.The processor 140 may control the communication interface 120 to transmit an operation confirmation signal corresponding to the type of the identified electronic device 200 to the electronic device 200 and identify the operation of the electronic device 200. . For example, if the type of the electronic device 200 is a light output device (e.g., a light), the processor 140 controls the communication interface 120 to transmit an operation confirmation signal for outputting light to the electronic device 200. And, the camera 110 can be controlled to capture an image of the electronic device 200 that outputs light. If the type of the electronic device 200 is a sound output device (e.g., a speaker), the processor 140 controls the communication interface 120 to transmit an operation confirmation signal for outputting sound to the electronic device 200, and the electronic device 200 The speaker can be controlled to receive sound output from (200). If the type of the electronic device 200 is a communication device, an operation confirmation signal outputting a response signal is transmitted to the electronic device 200, and the communication interface 120 is controlled to receive a response signal output from the electronic device 200. can do. Alternatively, the operation confirmation signal may include a signal that turns on/off the electronic device 200. The processor 140 identifies the operation of the electronic device 200 corresponding to the operation confirmation signal transmitted to the electronic device 200 and determines whether the electronic device 200 included in the image is the electronic device 200 corresponding to the identification information. You can check whether or not.

예를 들어, 전자 장치(200)는 네트워크로 연결된 장치일 수 있고, 네트워크로 연결되지 않은 장치일 수 있다. 네트워크로 연결된 장치는 IoT 장치일 수 있고, 네트워크로 연결되지 않은 장치는 IR 장치일 수 있다.For example, the electronic device 200 may be a device connected to a network or a device not connected to a network. A device connected to a network may be an IoT device, and a device not connected to a network may be an IR device.

전자 장치(200)가 IR 장치인 경우, 프로세서(140)는 IR 장치를 촬영하도록 카메라(110)를 제어하고, 촬영된 이미지를 서버(300)로 전송할 수 있다. 서버(300)는 수신된 이미지에 기초하여 IR 장치를 식별하고, 식별된 IR 장치의 식별 정보를 획득할 수 있다. 서버(300)는 IR 장치의 식별 정보를 로봇(100)으로 전송할 수 있다. 따라서, 로봇(100)은 캡쳐된 IR 장치의 이미지에 기초하여 서버(300)로부터 IR 장치의 식별 정보를 획득할 수 있다.If the electronic device 200 is an IR device, the processor 140 may control the camera 110 to photograph the IR device and transmit the captured image to the server 300. The server 300 may identify the IR device based on the received image and obtain identification information of the identified IR device. The server 300 may transmit identification information of the IR device to the robot 100. Accordingly, the robot 100 can obtain identification information of the IR device from the server 300 based on the captured image of the IR device.

또는, 전자 장치(200)가 IoT 장치이고, 복수의 IoT 장치가 존재하면, 프로세서(140)는 복수의 IoT 장치를 동시에 식별할 수 있다. 본 명세서에서 동시의 의미는 특정 시점에 일치하는 시간 뿐만 아니라 매우 짧은 시간 간격의 순차적인 시간도 포함한다. 예를 들어, 동작 개시 시점으로부터 1초 후, 제어 신호가 복수의 IoT 장치로 전송되는 경우 뿐만 아니라 1초, 1.1초, 1.2초, 1.3초, … 에 순차적으로 각각의 IoT 장치로 제어 신호가 전송되는 경우도 포함될 수 있다. 프로세서(140)는 복수의 IoT 장치에 각각 구별되는 동작 확인 신호를 동시에 전송하고, 복수의 IoT 장치의 동작을 동시에 식별할 수 있다. 예를 들어, 구별되는 동작 확인 신호는 색상, 점멸 패턴, 그라데이션, 주파수, 사운드 출력 패턴 등이 구분되는 신호를 포함할 수 있다.Alternatively, if the electronic device 200 is an IoT device and a plurality of IoT devices exist, the processor 140 may simultaneously identify the plurality of IoT devices. As used herein, the meaning of simultaneous includes not only time coinciding with a specific point in time, but also sequential time at very short time intervals. For example, 1 second after the start of operation, a control signal is transmitted to multiple IoT devices, as well as 1 second, 1.1 second, 1.2 second, 1.3 second, … This may also include cases where control signals are sequentially transmitted to each IoT device. The processor 140 can simultaneously transmit distinct operation confirmation signals to a plurality of IoT devices and simultaneously identify the operations of the plurality of IoT devices. For example, distinct operation confirmation signals may include signals with distinct colors, flashing patterns, gradients, frequencies, sound output patterns, etc.

프로세서(140)는 전자 장치(200)의 위치 정보를 식별할 수 있다. 예를 들어, 위치 정보는 방, 거실, 부엌과 같은 2차원의 위치 정보 뿐만 아니라 좌측 벽, 우측 벽, 로봇(100)이 바라보는 방향을 기준으로 하는 정면 벽, 천장, 바닥, 오브젝트 및 각 영역의 좌표 정보를 포함하는 3차원의 위치 정보를 포함할 수 있다. 프로세서(140)는 전자 장치(200)의 식별 정보 및 위치 정보에 기초하여 전자 장치(200)를 특정 공간에 매핑하여 3차원 정보를 업데이트할 수 있다. 복수의 전자 장치(200)가 위치한 경우, 프로세서(140)는 복수의 전자 장치(200)의 위치 정보를 동시에 식별할 수 있다.The processor 140 may identify location information of the electronic device 200. For example, location information includes not only two-dimensional location information such as room, living room, and kitchen, but also left wall, right wall, front wall based on the direction the robot 100 is facing, ceiling, floor, object, and each area. It may contain three-dimensional location information including coordinate information. The processor 140 may update 3D information by mapping the electronic device 200 to a specific space based on the identification information and location information of the electronic device 200. When a plurality of electronic devices 200 are located, the processor 140 can simultaneously identify location information of the plurality of electronic devices 200.

프로세서(140)는 전자 장치(200)의 식별 정보 및 위치 정보가 매핑된 3차원 정보를 단말 장치(400)로 전송하도록 통신 인터페이스(120)를 제어할 수 있다. 단말 장치(400)는 수신된 정보에 기초하여 전자 장치(200)를 제어하는 제어 UI를 표시할 수 있다.The processor 140 may control the communication interface 120 to transmit 3D information to which the identification information and location information of the electronic device 200 are mapped to the terminal device 400 . The terminal device 400 may display a control UI for controlling the electronic device 200 based on the received information.

또한, 로봇(100)은 특정 공간에 배치된 전자 장치(200)의 3차원 정보를 생성(또는, 업데이트)한 후 환경의 변화를 감지할 수 있다. 예를 들어, 환경의 변화는 새로운 전자 장치(200)의 배치, 기존 전자 장치(200)의 부재, 새로운 오브젝트의 배치 등과 같은 변화를 포함할 수 있다.Additionally, the robot 100 may detect changes in the environment after generating (or updating) 3D information of the electronic device 200 placed in a specific space. For example, a change in the environment may include changes such as placement of a new electronic device 200, absence of an existing electronic device 200, placement of a new object, etc.

일 예로서, 프로세서(140)는 카메라(110)를 통해 획득된 영상에서 새로운 전자 장치(200)가 식별되면, 식별된 전자 장치(200)의 타입에 대응되는 기존 동작 확인 신호를 새로운 전자 장치(200)로 전송할 수 있다. 기존 동작 확인 신호에 따른 새로운 전자 장치(200)의 동작이 식별되면, 프로세서(140)는 새로운 전자 장치(200)를 위치가 변경된 기존 전자 장치로 식별할 수 있다. 프로세서(140)는 기존 전자 장치의 위치 정보를 수정한 3차원 정보를 업데이트할 수 있다.As an example, when a new electronic device 200 is identified in an image acquired through the camera 110, the processor 140 sends an existing operation confirmation signal corresponding to the type of the identified electronic device 200 to the new electronic device ( 200). When the operation of the new electronic device 200 according to the existing operation confirmation signal is identified, the processor 140 may identify the new electronic device 200 as the existing electronic device whose location has been changed. The processor 140 may update 3D information that modifies the location information of an existing electronic device.

또는, 프로세서(140)는 카메라(110)를 통해 획득된 영상에서 새로운 오브젝트를 식별할 수 있다. 프로세서(140)는 영상에서 3차원 정보 중 바닥에 위치한 새로운 오브젝트를 식별하면, 새로운 오브젝트의 위치와 관련된 정보를 로봇 청소기로 전송하도록 통신 인터페이스(120)를 제어할 수 있다. 로봇 청소기는 수신된 정보에 기초하여 청소 맵을 업데이트할 수 있다. 즉, 프로세서(140)는 새로운 오브젝트의 위치와 관련된 정보를 로봇 청소기로 전송하여 로봇 청소기의 청소 맵을 업데이트하도록 통신 인터페이스(120)를 제어할 수 있다.Alternatively, the processor 140 may identify a new object in the image acquired through the camera 110. When the processor 140 identifies a new object located on the floor among the 3D information in the image, it can control the communication interface 120 to transmit information related to the location of the new object to the robot cleaner. The robot cleaner can update the cleaning map based on the received information. That is, the processor 140 may control the communication interface 120 to update the cleaning map of the robot cleaner by transmitting information related to the location of the new object to the robot cleaner.

또는, 프로세서(140)는 카메라를 통해 획득된 영상에서 새로운 오브젝트가 식별되면, 전자 장치(200)의 타입에 대응되는 테스트 신호를 통신 인터페이스(120)를 통해 전자 장치(200)로 전송할 수 있다. 프로세서(140)는 테스트 신호에 따른 전자 장치(200)의 동작 성능을 식별하고, 동작 성능이 기 설정된 범위를 벗어나면 동작 성능과 관련된 정보를 단말 장치(400)로 전송하도록 통신 인터페이스(120)를 제어할 수 있다. 구체적인 설명은 후술한다.Alternatively, when a new object is identified in an image acquired through a camera, the processor 140 may transmit a test signal corresponding to the type of the electronic device 200 to the electronic device 200 through the communication interface 120. The processor 140 identifies the operating performance of the electronic device 200 according to the test signal, and when the operating performance is outside a preset range, the processor 140 uses the communication interface 120 to transmit information related to the operating performance to the terminal device 400. You can control it. A detailed explanation will be provided later.

또는, 로봇(100)이 사용자의 근처에 위치하고, 사용자의 음성 명령을 입력받으면, 프로세서(140)는 사용자를 촬영하도록 카메라(110)를 제어할 수 있다. 프로세서(140)는 카메라(110)를 통해 획득된 사용자의 영상에서 사용자의 위치, 시선 방향, 지시 방향 등을 포함하는 사용자 관련 정보를 식별할 수 있다. 프로세서(140)는 식별된 사용자 관련 정보에 기초하여 제어 대상 전자 장치(200)를 식별할 수 있다. 구체적인 설명은 후술한다.Alternatively, when the robot 100 is located near the user and receives the user's voice command, the processor 140 can control the camera 110 to photograph the user. The processor 140 may identify user-related information including the user's location, gaze direction, and pointing direction from the user's image acquired through the camera 110. The processor 140 may identify the control target electronic device 200 based on the identified user-related information. A detailed explanation will be provided later.

도 3은 본 개시의 일 실시 예에 따른 로봇의 구체적인 구성을 설명하는 블록도이다.Figure 3 is a block diagram explaining the specific configuration of a robot according to an embodiment of the present disclosure.

도 3을 참조하면, 로봇(100)은 카메라(110), 통신 인터페이스(120), 메모리(130), 프로세서(140), 유저 인터페이스(150), 마이크(155), 센서(160), 스피커(165), 디스플레이(170), 구동부(175), 전원부(180)를 포함할 수 있다. 카메라(110), 통신 인터페이스(120), 메모리(130)는 도 2에서 설명한 바와 동일할 수 있다.Referring to FIG. 3, the robot 100 includes a camera 110, a communication interface 120, a memory 130, a processor 140, a user interface 150, a microphone 155, a sensor 160, and a speaker ( 165), a display 170, a driving unit 175, and a power supply unit 180. The camera 110, communication interface 120, and memory 130 may be the same as those described in FIG. 2.

유저 인터페이스(150)는 사용자로부터 명령 등을 입력받을 수 있다. 유저 인터페이스(150)는 다양한 형태로 구현될 수 있다. 예를 들어, 유저 인터페이스(150)는 키보드, 버튼, 키 패드, 터치 패드, 터치 스크린 등을 포함할 수 있다. 유저 인터페이스(150)는 입력 장치, 입력부, 입력 모듈 등으로 불릴 수도 있다.The user interface 150 may receive commands, etc. from the user. The user interface 150 may be implemented in various forms. For example, the user interface 150 may include a keyboard, buttons, key pad, touch pad, touch screen, etc. The user interface 150 may also be called an input device, input unit, input module, etc.

마이크(155)는 사용자의 음성을 입력받을 수 있다. 프로세서(140)는 입력된 음성에 기초하여 제어 명령을 인식하고, 인식된 제어 명령에 대응되는 제어 동작을 수행할 수 있다.The microphone 155 can receive the user's voice. The processor 140 may recognize a control command based on the input voice and perform a control operation corresponding to the recognized control command.

센서(160)는 사용자와 관련된 정보 또는 주변 환경을 감지할 수 있다. 프로세서(140)는 감지된 정보에 기초하여 제어 동작을 수행할 수 있다. 예를 들어, 센서(160)는 거리 센서, 이미지 센서, 트래킹 센서, 각도 센서, 가속도 센서, 중력 센서, 자이로 센서, 지자기 센서, 방향 센서, 모션 인식 센서, 근접 센서, 전압계, 전류계, 기압계, 습도계, 온도계, 조도 센서, 열 감지 센서, 터치 센서, 적외선 센서, 초음파 센서 등을 포함할 수 있다. 거리 센서는 초음파 센서, 레이저 센서, LiDar 등으로 구현될 수 있다.The sensor 160 may detect information related to the user or the surrounding environment. The processor 140 may perform control operations based on the sensed information. For example, the sensor 160 may include a distance sensor, an image sensor, a tracking sensor, an angle sensor, an acceleration sensor, a gravity sensor, a gyro sensor, a geomagnetic sensor, a direction sensor, a motion recognition sensor, a proximity sensor, a voltmeter, an ammeter, a barometer, and a hygrometer. , a thermometer, an illumination sensor, a heat sensor, a touch sensor, an infrared sensor, an ultrasonic sensor, etc. Distance sensors can be implemented as ultrasonic sensors, laser sensors, LiDar, etc.

스피커(165)는 사운드 신호 처리가 수행된 사운드 신호를 출력한다. 예를 들어, 스피커(165)는 사용자의 입력 명령, 로봇(100)의 상태 관련 정보, 동작 관련 정보, 진단 대상 전자 장치의 이상 여부에 대한 알림 등을 음성이나 알림음으로 출력할 수 있다.The speaker 165 outputs a sound signal on which sound signal processing has been performed. For example, the speaker 165 may output a user's input command, status-related information of the robot 100, operation-related information, and notification of abnormalities in the electronic device to be diagnosed, etc., as a voice or notification sound.

디스플레이(170)는 정보를 시각적 방식으로 표시할 수 있다. 예를 들어, 디스플레이(150)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode), 터치 스크린 등으로 구현될 수 있다. 디스플레이(170)가 터치 스크린으로 구현되는 경우, 로봇(100)은 터치 스크린을 통해 제어 명령을 입력받을 수 있다.Display 170 may display information in a visual manner. For example, the display 150 may be implemented as a Liquid Crystal Display (LCD), Organic Light Emitting Diode (OLED), or a touch screen. When the display 170 is implemented as a touch screen, the robot 100 can receive control commands through the touch screen.

구동부(175)는 로봇(100)를 이동시키거나 기 설정된 제어 동작을 수행할 수 있다. 또는, 구동부(175)는 카메라(110) 또는 카메라(110)가 포함된 파트를 상하좌우로 회전시킬 수 있다. 구동부(175)는 저장된 맵 데이터, 감지된 정보에 기초한 프로세서(140)의 제어에 의해 동작할 수 있다. 예를 들어, 구동부(165)는 이동을 위한 휠 등을 포함하는 모듈 또는 기 설정된 제어 동작을 수행하는 로봇 암 등의 형태로 구현될 수 있다.The driving unit 175 may move the robot 100 or perform a preset control operation. Alternatively, the driving unit 175 may rotate the camera 110 or the part including the camera 110 up, down, left and right. The driver 175 may operate under the control of the processor 140 based on stored map data and sensed information. For example, the driving unit 165 may be implemented in the form of a module including a wheel for movement, or a robot arm that performs a preset control operation.

전원부(180)는 외부로부터 전력을 공급받아 로봇(100)의 다양한 구성에 전력을 공급할 수 있다.The power supply unit 180 can receive power from the outside and supply power to various components of the robot 100.

로봇(100)은 상술한 구성 모두를 포함할 수 있고, 일부 구성을 포함할 수 있다. 또는 로봇(100)은 상술한 구성 이외에 추가적인 구성을 포함할 수도 있다.The robot 100 may include all of the above-described configurations or may include some of the configurations. Alternatively, the robot 100 may include additional components other than those described above.

지금까지 로봇(100)의 구성을 설명하였다. 아래에서는 로봇(100)이 동작하는 과정에 대해 설명한다.So far, the configuration of the robot 100 has been described. Below, the process by which the robot 100 operates will be described.

도 4 내지 도 6은 본 개시의 일 실시 예에 따른 전자 장치를 식별하는 과정을 설명하는 도면이다. 그리고, 도 7은 본 개시의 일 실시 예에 따른 식별된 전자 장치를 3차원 정보에 매핑하는 과정을 설명하는 도면이다.4 to 6 are diagrams illustrating a process for identifying an electronic device according to an embodiment of the present disclosure. And, FIG. 7 is a diagram illustrating a process of mapping an identified electronic device to 3D information according to an embodiment of the present disclosure.

도 4 내지 도 6에는 특정 공간에 설치된 전자 장치(200a, 200b, 200c, 200d)와 로봇(100)이 도시되어 있다. 예를 들어, 특정 공간은 방(room)(10)일 수 있다.4 to 6 show electronic devices 200a, 200b, 200c, and 200d and a robot 100 installed in a specific space. For example, the specific space may be a room 10.

도 4를 참조하면, 방(10)에는 신규로 전자 장치(200a, 200b, 200c, 200d)가 설치될 수 있다. 로봇(100)은 서버(300)로부터 신규로 설치된 전자 장치(200a, 200b, 200c, 200d)의 식별 정보를 수신할 수 있다. 신규로 설치된 전자 장치(200a, 200b, 200c, 200d)의 위치 정보는 없으므로 로봇(100)은 전자 장치(200a, 200b, 200c, 200d)를 unknown으로 분류할 수 있다. 로봇(100)은 각 공간을 탐색하면서 방(10)으로 이동할 수 있다. 로봇(100)은 카메라를 이용하여 방(10)에 설치된 전자 장치(200a, 200b, 200c, 200d)를 식별할 수 있다. 로봇(100)은 전자 장치(200a, 200b, 200c, 200d)의 식별 정보를 알고 있으므로 각 전자 장치(200a, 200b, 200c, 200d)의 타입을 알 수 있다. 로봇(100)은 각 전자 장치(200a, 200b, 200c, 200d)로 전자 장치의 타입에 대응되는 동작 확인 신호를 전송할 수 있다. 도 4에 도시된 바와 같이, 로봇(100)은 제2 전자 장치(200b)로 제2 전자 장치(200b)의 타입에 대응되는 동작 확인 신호를 전송할 수 있다. 제2 전자 장치(200b)는 로봇(100)으로부터 타입에 대응되는 동작 확인 신호를 수신하였으므로 동작 확인 신호에 기초하여 동작을 수행할 수 있다.Referring to FIG. 4 , new electronic devices 200a, 200b, 200c, and 200d may be installed in the room 10. The robot 100 may receive identification information of the newly installed electronic devices 200a, 200b, 200c, and 200d from the server 300. Since there is no location information for the newly installed electronic devices 200a, 200b, 200c, and 200d, the robot 100 may classify the electronic devices 200a, 200b, 200c, and 200d as unknown. The robot 100 can move to the room 10 while exploring each space. The robot 100 can identify the electronic devices 200a, 200b, 200c, and 200d installed in the room 10 using a camera. Since the robot 100 knows the identification information of the electronic devices 200a, 200b, 200c, and 200d, it can know the type of each electronic device 200a, 200b, 200c, and 200d. The robot 100 may transmit an operation confirmation signal corresponding to the type of the electronic device to each of the electronic devices 200a, 200b, 200c, and 200d. As shown in FIG. 4, the robot 100 may transmit an operation confirmation signal corresponding to the type of the second electronic device 200b to the second electronic device 200b. Since the second electronic device 200b has received an operation confirmation signal corresponding to its type from the robot 100, it can perform an operation based on the operation confirmation signal.

예를 들어, 제2 전자 장치(200b)의 타입이 광 출력 장치이면, 동작 확인 신호는 광을 출력하는 제어 신호일 수 있다. 제2 전자 장치(200b)의 타입이 사운드 출력 장치이면, 동작 확인 신호는 사운드를 출력하는 제어 신호일 수 있다. 제2 전자 장치(200b)의 타입이 통신 장치이면, 동작 확인 신호는 응답 신호를 출력하는 제어 신호일 수 있다. For example, if the type of the second electronic device 200b is a light output device, the operation confirmation signal may be a control signal for outputting light. If the type of the second electronic device 200b is a sound output device, the operation confirmation signal may be a control signal for outputting sound. If the type of the second electronic device 200b is a communication device, the operation confirmation signal may be a control signal that outputs a response signal.

도 4에 도시된 제2 전자 장치(200b)는 전등일 수 있고, 동작 확인 신호는 전등 타입에 대응되는 광을 출력하는 제어 신호일 수 있다. 제2 전자 장치(200b)는 수신된 동작 확인 신호에 기초하여 광을 출력할 수 있다. 로봇(100)은 카메라를 이용하여 광을 출력하는 제2 전자 장치(200b)의 영상을 촬영할 수 있다. 그리고, 로봇(100)은 제2 전자 장치(200b)의 동작을 확인할 수 있다.The second electronic device 200b shown in FIG. 4 may be a lamp, and the operation confirmation signal may be a control signal that outputs light corresponding to the lamp type. The second electronic device 200b may output light based on the received operation confirmation signal. The robot 100 can capture an image of the second electronic device 200b that outputs light using a camera. And, the robot 100 can check the operation of the second electronic device 200b.

만일, 제2 전자 장치(200b)의 타입이 사운드 출력 장치이면, 동작 확인 신호는 사운드를 출력하는 제어 신호일 수 있다. 로봇(100)은 사운드 타입 및 볼륨 정보를 포함하는 동작 확인 신호를 제2 전자 장치(200b)로 전송하고, 제2 전자 장치(200b)의 출력 사운드를 확인할 수 있다. 제2 전자 장치(200b)의 타입이 통신 장치이면, 동작 확인 신호는 응답 신호를 출력하는 제어 신호일 수 있다. 로봇(100)은 제2 전자 장치(200b)의 신호 강도, 응답 메시지에 기초하여 제2 전자 장치(200b)를 식별할 수 있다. 또한, 제2 전자 장치(200b)는 동작 상황을 표시하는 인디케이터를 포함할 수 있다. 제2 전자 장치(200b)는 동작 확인 신호에 기초하여 동작을 수행할 때, 인디케이터를 이용하여 동작 상황을 나타낼 수 있다. 따라서, 제2 전자 장치(200b)가 사운드 출력 장치 또는 통신 장치인 경우에도 로봇(100)은 동작하는 제2 전자 장치(200b)의 영상을 촬영하고, 촬영된 영상을 함께 이용하여 제2 전자 장치(200b)의 동작을 식별할 수 있다.If the type of the second electronic device 200b is a sound output device, the operation confirmation signal may be a control signal for outputting sound. The robot 100 may transmit an operation confirmation signal including sound type and volume information to the second electronic device 200b and check the output sound of the second electronic device 200b. If the type of the second electronic device 200b is a communication device, the operation confirmation signal may be a control signal that outputs a response signal. The robot 100 may identify the second electronic device 200b based on the signal strength and response message of the second electronic device 200b. Additionally, the second electronic device 200b may include an indicator that displays an operating status. When performing an operation based on the operation confirmation signal, the second electronic device 200b may indicate the operation status using an indicator. Therefore, even when the second electronic device 200b is a sound output device or a communication device, the robot 100 captures an image of the second electronic device 200b operating and uses the captured image to create a sound output device or a communication device. The operation of (200b) can be identified.

제2 전자 장치(200b)의 동작을 확인하면, 로봇(100)은 제2 전자 장치(200b)의 위치 정보를 식별할 수 있다. 예를 들어, 방(10)은 좌측벽(11), 우측벽(12), 정면벽(13), 천장(14), 바닥(15)을 포함할 수 있다. 로봇(100)은 카메라를 이용하여 방(10)의 영상을 촬영하고, 방(10)의 각 면을 식별할 수 있다. 로봇(100)은 제2 전자 장치(200b)의 위치가 천장(14)이라고 식별할 수 있다.Upon confirming the operation of the second electronic device 200b, the robot 100 can identify the location information of the second electronic device 200b. For example, room 10 may include a left wall 11, a right wall 12, a front wall 13, a ceiling 14, and a floor 15. The robot 100 can capture images of the room 10 using a camera and identify each side of the room 10. The robot 100 may identify the location of the second electronic device 200b as the ceiling 14.

도 5에 도시된 바와 같이, 로봇(100)은 천장(14)에 가상의 그리드를 그릴 수 있다. 로봇(100)은 가상의 그리드 중 임의의 지점을 기준점으로 설정할 수 있다. 그리고, 로봇(100)은 기준점과 가상의 그리드에 기초하여 각 전자 장치(200a, 200b, 200c)의 좌표를 추출할 수 있다. 예를 들어, 도 5에 도시된 바와 같이, 로봇(100)은 제1 전자 장치(200a)의 좌표는 (3, 3), 제2 전자 장치(200b)의 좌표는 (3, 5), 제3 전자 장치(200c)의 좌표는 (3, 7)이라고 판단할 수 있다.As shown in FIG. 5, the robot 100 can draw a virtual grid on the ceiling 14. The robot 100 can set any point in the virtual grid as a reference point. Additionally, the robot 100 can extract the coordinates of each electronic device 200a, 200b, and 200c based on the reference point and the virtual grid. For example, as shown in FIG. 5, the robot 100 has coordinates of the first electronic device 200a (3, 3), coordinates of the second electronic device 200b (3, 5), and 3 The coordinates of the electronic device 200c can be determined to be (3, 7).

상술한 예에서 로봇(100)은 서버(300)로부터 수신한 제2 전자 장치(200b)의 식별 정보에 기초하여 제2 전자 장치(200b)를 식별할 수 있다. 그리고, 로봇(100)은 제2 전자 장치(200b)의 위치가 방(10), 천장(14), 좌표 (3, 5)라고 판단할 수 있다. 로봇(100)은 제2 전자 장치(200b)의 식별 정보와 위치 정보를 매칭시킬 수 있다. 또한, 로봇(100)은 전자 장치(200a, 200b, 200c, 200d)가 설치되기 전의 특정 공간에 대한 3차원 정보를 생성할 수 있다. 예를 들어, 로봇(100)은 미리 탐색을 통해 특정 공간의 3차원 정보를 생성할 수 있고, 서버(300)로부터 특정 공간에 대한 정보를 수신하여 3차원 정보를 생성할 수도 있다. 따라서, 로봇(100)은 식별 정보와 위치 정보가 매칭된 매칭 정보를 미리 생성된 3차원 정보에 매핑하여 미리 생성된 3차원 정보를 업데이트할 수 있다.In the above-described example, the robot 100 may identify the second electronic device 200b based on the identification information of the second electronic device 200b received from the server 300. Additionally, the robot 100 may determine that the location of the second electronic device 200b is the room 10, the ceiling 14, and the coordinates (3, 5). The robot 100 can match the identification information and location information of the second electronic device 200b. Additionally, the robot 100 may generate three-dimensional information about a specific space before the electronic devices 200a, 200b, 200c, and 200d are installed. For example, the robot 100 may generate 3D information of a specific space through advance search, and may also generate 3D information by receiving information about a specific space from the server 300. Accordingly, the robot 100 can update the pre-generated 3-D information by mapping the matching information in which the identification information and location information are matched to the pre-generated 3-D information.

로봇(100)은 제1 전자 장치(200a), 제3 전자 장치(200c), 제4 전자 장치(200d)에 대해서도 유사한 과정으로 위치 정보를 판단하고, 각 전자 장치(200a, 200c, 200d)의 식별 정보와 위치 정보를 매칭시킬 수 있다. 그리고, 로봇(100)은 각 전자 장치(200a, 200c, 200d)의 매칭 정보를 3차원 정보에 매핑하여 3차원 정보를 업데이트할 수 있다.The robot 100 determines the location information for the first electronic device 200a, the third electronic device 200c, and the fourth electronic device 200d through a similar process, and determines the location information of each electronic device 200a, 200c, and 200d. Identification information and location information can be matched. Additionally, the robot 100 may update the 3D information by mapping the matching information of each electronic device 200a, 200c, and 200d to the 3D information.

상술한 제1 내지 제4 전자 장치(200a, 200b, 200c, 200d)는 네트워크에 연결된 IoT 장치일 수 있다. 그러나, 방에는 네트워크에 연결되지 않는 IR 장치가 위치할 수도 있다. IR 장치는 네트워크에 연결되지 않고, 리모컨으로 제어되는 장치일 수 있다.The first to fourth electronic devices 200a, 200b, 200c, and 200d described above may be IoT devices connected to a network. However, there may be IR devices located in a room that are not connected to the network. An IR device may be a device that is not connected to a network and is controlled by a remote control.

도 6을 참조하면, IR 장치인 제5 전자 장치(200e)가 도시되어 있다. 로봇(100)은 네트워크에 연결되지 않은 제5 전자 장치(200e)의 식별 정보를 모를 수 있다. 로봇(100)은 카메라를 이용하여 방(10)을 탐색할 때, 제5 전자 장치(200e)를 식별할 수 있다. 로봇(100)은 제5 전자 장치(200e)의 식별 정보를 모르기 때문에 제5 전자 장치(200e)에 대한 매칭 정보를 생성할 수 없다.Referring to FIG. 6, a fifth electronic device 200e, which is an IR device, is shown. The robot 100 may not know the identification information of the fifth electronic device 200e that is not connected to the network. When the robot 100 searches the room 10 using a camera, it can identify the fifth electronic device 200e. Since the robot 100 does not know the identification information of the fifth electronic device 200e, it cannot generate matching information for the fifth electronic device 200e.

로봇(100)은 제5 전자 장치(200e)의 이미지를 캡쳐하고, 캡쳐한 이미지를 서버(300)로 전송할 수 있다. 로봇(100)은 하나의 이미지를 캡쳐하여 하나의 이미지를 서버(300)로 전송할 수 있고, 복수의 이미지를 캡쳐하여 복수의 이미지를 서버(300)로 전송할 수도 있다. 예를 들어, 로봇(100)은 제5 전자 장치(200e)의 정면, 측면, 후면 등과 같이 다양한 각도에서 제5 전자 장치(200e)의 이미지를 캡쳐하고, 캡쳐된 복수의 이미지를 서버(300)로 전송할 수 있다. 또한, 로봇(100)은 제5 전자 장치(200e)에 표시된 텍스트를 인식하고, 인식된 텍스트 영역을 캡쳐한 이미지를 서버(300)로 전송할 수 있다. 서버(300)는 로봇(100)으로부터 제5 전자 장치(200e)에 대한 이미지를 수신할 수 있다. 서버(300)는 수신된 이미지로부터 제5 전자 장치(200e)의 형태, 모양, 텍스트를 인식할 수 있다. 그리고, 서버(300)는 검색을 통해 제5 전자 장치(200e)의 식별 정보를 획득할 수 있다. 서버(300)는 획득된 제5 전자 장치(200e)의 식별 정보를 로봇(100)으로 전송할 수 있다. 로봇(100)은 수신된 제5 전자 장치(200e)의 식별 정보에 기초하여 제5 전자 장치(200e)의 위치 정보를 식별할 수 있다.The robot 100 may capture an image of the fifth electronic device 200e and transmit the captured image to the server 300. The robot 100 can capture one image and transmit one image to the server 300, and can also capture multiple images and transmit the multiple images to the server 300. For example, the robot 100 captures images of the fifth electronic device 200e from various angles, such as the front, side, and back of the fifth electronic device 200e, and sends the plurality of captured images to the server 300. It can be sent to . Additionally, the robot 100 may recognize text displayed on the fifth electronic device 200e and transmit an image capturing the recognized text area to the server 300. The server 300 may receive an image of the fifth electronic device 200e from the robot 100. The server 300 may recognize the shape, shape, and text of the fifth electronic device 200e from the received image. Additionally, the server 300 may obtain identification information of the fifth electronic device 200e through search. The server 300 may transmit the acquired identification information of the fifth electronic device 200e to the robot 100. The robot 100 may identify the location information of the fifth electronic device 200e based on the received identification information of the fifth electronic device 200e.

예를 들어, 로봇(100)은 제5 전자 장치(200e)의 식별 정보에 기초하여 제5 전자 장치(200e)의 타입에 대응되는 동작 확인 신호를 제5 전자 장치(200e)로 전송할 수 있다. 예를 들어, 제5 전자 장치(200e)는 선풍기일 수 있고, 동작 확인 신호는 선풍기를 온/오프하는 제어 신호 또는 팬을 동작시키는 제어 신호일 수 있다. 로봇(100)은 카메라를 이용하여 선풍기의 동작을 확인할 수 있다. 로봇(100)은 선풍기의 동작을 확인하면, 선풍기의 위치 정보를 식별할 수 있다. 로봇(100)은 선풍기가 바닥(15)에 위치한 것을 확인할 수 있다. 로봇(100)은 바닥(15)에 가상의 그리드를 생성하고, 기준점을 설정할 수 있다. 로봇(100)은 가상의 그리드 및 기준점에 기초하여 선풍기의 좌표 정보를 획득할 수 있다. 예를 들어, 도 6에 도시된 바와 같이, 로봇(100)은 방(10), 바닥(15), 좌표 (1, 8)과 같이 선풍기의 위치 정보를 식별할 수 있다. 로봇(100)은 선풍기의 식별 정보와 위치 정보를 매칭하여 매칭 정보를 생성할 수 있다. 그리고, 로봇(100)은 매칭 정보를 3차원 정보에 매핑하여 3차원 정보를 업데이트할 수 있다.For example, the robot 100 may transmit an operation confirmation signal corresponding to the type of the fifth electronic device 200e to the fifth electronic device 200e based on the identification information of the fifth electronic device 200e. For example, the fifth electronic device 200e may be a fan, and the operation confirmation signal may be a control signal for turning the fan on/off or a control signal for operating the fan. The robot 100 can check the operation of the fan using a camera. When the robot 100 checks the operation of the fan, it can identify the location information of the fan. The robot 100 can confirm that the fan is located on the floor 15. The robot 100 can create a virtual grid on the floor 15 and set a reference point. The robot 100 can acquire coordinate information of the fan based on the virtual grid and reference point. For example, as shown in FIG. 6, the robot 100 can identify location information of the fan, such as room 10, floor 15, and coordinates (1, 8). The robot 100 can generate matching information by matching the identification information and location information of the fan. And, the robot 100 can update the 3D information by mapping the matching information to the 3D information.

도 7을 참조하면, 로봇(100)은 위치 정보를 모르는 전자 장치(200)를 unknown으로 설정(1a)할 수 있다. 예를 들어, 5에 도시된 제1 내지 제4 전자 장치(200a, 200b, 200c, 200d)는 전등일 수 있다. 로봇(100)은 제1 내지 제4 전등의 식별 정보를 알지만 위치 정보를 모를 수 있다. 식별 정보는 전자 장치의 타입 정보를 포함할 수 있다. 따라서, 로봇(100)은 제1 내지 제4 전등을 각각 unknown lighting으로 설정(1a)할 수 있다. 로봇(100)은 동작 확인 신호를 각각 제1 내지 제4 전등으로 전송하여 동작을 확인할 수 있다. 로봇(100)은 제1 내지 제4 전등 각각의 동작을 확인하고, 제1 내지 제4 전등 각각의 식별 정보와 위치 정보를 매칭시킨 매칭 정보를 생성할 수 있다. 그리고, 로봇(100)은 3차원 정보(1b)에 생성된 매칭 정보를 매핑시켜 3차원 정보(1b)를 업데이트할 수 있다. 로봇(100)은 업데이트된 3차원 정보(1b)를 단말 장치(400)로 전송할 수 있다. 단말 장치(400)는 업데이트된 3차원 정보(1b)에 기초하여 각 공간의 이미지 및 배치된 전자 장치를 포함하는 제어 UI를 표시할 수 있다.Referring to FIG. 7, the robot 100 may set the electronic device 200, whose location information is unknown, to unknown (1a). For example, the first to fourth electronic devices 200a, 200b, 200c, and 200d shown in Figure 5 may be lights. The robot 100 may know the identification information of the first to fourth lights, but may not know the location information. Identification information may include type information of the electronic device. Accordingly, the robot 100 can set the first to fourth lights to unknown lighting (1a). The robot 100 can confirm its operation by transmitting an operation confirmation signal to the first to fourth lights, respectively. The robot 100 may check the operation of each of the first to fourth lights and generate matching information that matches the identification information and location information of each of the first to fourth lights. And, the robot 100 can update the 3D information 1b by mapping the generated matching information to the 3D information 1b. The robot 100 may transmit the updated 3D information 1b to the terminal device 400. The terminal device 400 may display a control UI including images of each space and deployed electronic devices based on the updated 3D information 1b.

로봇(100)은 방(10)에 위치한 전자 장치의 식별이 완료되면, 다른 공간으로 이동하여 유사한 과정을 수행할 수 있다.Once the robot 100 completes the identification of the electronic device located in the room 10, it can move to another space and perform a similar process.

로봇(100)은 복수의 전자 장치의 동작을 동시에 확인할 수 있다.The robot 100 can simultaneously check the operation of a plurality of electronic devices.

도 8은 본 개시의 일 실시 예에 따른 복수의 전자 장치를 동시에 식별하는 과정을 설명하는 도면이다.FIG. 8 is a diagram illustrating a process for simultaneously identifying a plurality of electronic devices according to an embodiment of the present disclosure.

도 8을 참조하면, 복수의 전자 장치(200a, 200b, 200c, 200d, 200e, 200f)가 도시되어 있다. 상술한 바와 같이, 로봇(100)은 복수의 전자 장치(200a, 200b, 200c, 200d, 200e, 200f)의 타입을 포함하는 식별 정보를 알고 있다. 일 예로, 도 8에 도시된 바와 같이, 전자 장치는 전등일 수 있고, 로봇(100)은 각 전등을 unknown lighting으로 설정(3a)할 수 있다. 로봇(100)은 각 전등에 대응되는 동작 확인 신호를 복수의 전등으로 동시에 전송할 수 있다. 복수의 전등으로 동시에 전송되는 동작 확인 신호는 각각 구별되는 동작 확인 신호일 수 있다. 예를 들어, 각각 구별되는 동작 확인 신호는 색상, 점멸 패턴, 그라데이션, 주파수, 사운드 출력 패턴 등이 구별되는 신호일 수 있다.Referring to FIG. 8, a plurality of electronic devices 200a, 200b, 200c, 200d, 200e, and 200f are shown. As described above, the robot 100 knows identification information including the types of the plurality of electronic devices 200a, 200b, 200c, 200d, 200e, and 200f. For example, as shown in FIG. 8, the electronic device may be a light, and the robot 100 may set each light to unknown lighting (3a). The robot 100 can simultaneously transmit an operation confirmation signal corresponding to each light to a plurality of lights. Operation confirmation signals simultaneously transmitted to a plurality of lights may be distinct operation confirmation signals. For example, each distinct operation confirmation signal may be a signal with distinct colors, flashing patterns, gradations, frequencies, sound output patterns, etc.

예를 들어, 도 8에 도시된 바와 같이, 로봇(100)은 제1 전자 장치(200a)로 제1 점멸 패턴의 신호를 전송하고, 제5 전자 장치(200e)로 제2 점멸 패턴의 신호를 전송할 수 있다. 로봇(100)은 제3 전자 장치(200c)로 제1 색상의 신호를 전송하고, 제4 전자 장치(200d)로 제2 색상의 신호를 전송할 수 있다. 로봇(100)은 제6 전자 장치(200f)로 그라데이션의 신호를 전송할 수 있다. 각 전자 장치(200a, 200b, 200c, 200d, 200e, 200f)는 수신된 신호에 대응되는 동작을 수행할 수 있다. 로봇(100)은 카메라를 이용하여 동작하는 복수의 전자 장치(200a, 200b, 200c, 200d, 200e, 200f)의 영상을 동시에 촬영할 수 있다. 로봇(100)은 각 전자 장치200a, 200b, 200c, 200d, 200e, 200f)의 동작을 식별하여 복수의 전자 장치(200a, 200b, 200c, 200d, 200e, 200f)를 동시에 식별할 수 있다. 또한, 로봇(100)은 획득된 이미지에 기초하여 복수의 전자 장치(200a, 200b, 200c, 200d, 200e, 200f)의 위치를 동시에 식별할 수 있다. 로봇(100)은 복수의 전자 장치(200a, 200b, 200c, 200d, 200e, 200f)의 식별 정보와 위치 정보를 매칭시킨 매칭 정보(3b)를 동시에 생성할 수 있다. 로봇(100)은 생성된 매칭 정보(3b)에 기초하여 3차원 정보를 업데이트할 수 있다. 그리고, 로봇(100)은 업데이트된 3차원 정보(3b)를 단말 장치(400)로 전송할 수 있다. 단말 장치(400)는 업데이트된 3차원 정보(3b)에 기초하여 각 공간의 이미지 및 배치된 전자 장치를 포함하는 제어 UI를 표시할 수 있다.For example, as shown in FIG. 8, the robot 100 transmits a signal of a first blinking pattern to the first electronic device 200a and transmits a signal of a second blinking pattern to the fifth electronic device 200e. Can be transmitted. The robot 100 may transmit a signal of a first color to the third electronic device 200c and a signal of a second color to the fourth electronic device 200d. The robot 100 may transmit a gradient signal to the sixth electronic device 200f. Each electronic device 200a, 200b, 200c, 200d, 200e, and 200f may perform an operation corresponding to the received signal. The robot 100 can simultaneously capture images of a plurality of operating electronic devices 200a, 200b, 200c, 200d, 200e, and 200f using a camera. The robot 100 can simultaneously identify a plurality of electronic devices 200a, 200b, 200c, 200d, 200e, and 200f by identifying the operations of each electronic device 200a, 200b, 200c, 200d, 200e, and 200f. Additionally, the robot 100 can simultaneously identify the locations of a plurality of electronic devices 200a, 200b, 200c, 200d, 200e, and 200f based on the acquired images. The robot 100 may simultaneously generate matching information 3b that matches the identification information and location information of the plurality of electronic devices 200a, 200b, 200c, 200d, 200e, and 200f. The robot 100 may update 3D information based on the generated matching information 3b. And, the robot 100 can transmit the updated 3D information 3b to the terminal device 400. The terminal device 400 may display a control UI including images of each space and deployed electronic devices based on the updated 3D information 3b.

복수의 전자 장치(200a, 200b, 200c, 200d, 200e, 200f)는 로봇(100)으로부터 구별되는 동작 확인 신호를 동시에 수신하므로 네트워크에 연결된 장치일 수 있고, 네트워크에 연결된 장치는 IoT 장치일 수 있다.A plurality of electronic devices (200a, 200b, 200c, 200d, 200e, 200f) simultaneously receive distinct operation confirmation signals from the robot 100, so they may be devices connected to the network, and the device connected to the network may be an IoT device. .

도 8에서는 전자 장치가 전등인 예가 도시되어 있어, 동작 확인 신호가 색상, 점멸 패턴, 그라데이션으로 구별되는 예를 설명하였다. 만일, 전자 장치가 오디오 장치이면, 로봇(100)은 온/오프 패턴, 주파수, 사운드 출력 패턴으로 구별되는 동작 확인 신호를 각 오디오 장치로 전송할 수 있다.In FIG. 8 , an example in which the electronic device is a light is shown, and an example in which the operation confirmation signal is distinguished by color, flashing pattern, and gradation has been described. If the electronic device is an audio device, the robot 100 may transmit an operation confirmation signal distinguished by an on/off pattern, frequency, and sound output pattern to each audio device.

도 9는 본 개시의 일 실시 예에 따른 전자 장치를 식별하는 로봇 시스템의 동작을 설명하는 타이밍도이다.Figure 9 is a timing diagram explaining the operation of a robot system that identifies an electronic device according to an embodiment of the present disclosure.

도 9를 참조하면, 로봇(100)은 서버(300)로부터 전자 장치(200)의 정보를 수신할 수 있다(S110). 예를 들어, 특정 공간에 전자 장치(200)가 설치되면, 전자 장치(200)는 식별 정보를 서버(300)로 전송할 수 있다. 서버(300)는 수신된 전자 장치(200)의 식별 정보를 로봇(100)으로 전송할 수 있다. 예를 들어, 식별 정보는 타입, 이름, 모델명, 제어 관련 정보 등을 포함할 수 있다.Referring to FIG. 9, the robot 100 may receive information on the electronic device 200 from the server 300 (S110). For example, when the electronic device 200 is installed in a specific space, the electronic device 200 may transmit identification information to the server 300. The server 300 may transmit the received identification information of the electronic device 200 to the robot 100. For example, identification information may include type, name, model name, control-related information, etc.

로봇(100)은 전자 장치를 탐색할 수 있다(S120). 로봇(100)은 카메라를 이용하여 특정 공간에 위치하는 전자 장치(200)를 탐색할 수 있다. 로봇(100)이 전자 장치(200)를 발견하면, 식별 정보를 획득할 수 있다. 예를 들어, 발견된 전자 장치(100)가 IoT 장치이면, 로봇(100)은 수신된 식별 정보 중에서 발견된 전자 장치(100)의 타입에 대응되는 식별 정보를 획득할 수 있다. 또는, 발견된 전자 장치가 IR 장치이면, 로봇(100)은 전자 장치(200)의 이미지를 촬영하고, 촬영된 이미지를 서버(300)로 전송할 수 있다. 그리고, 로봇(100)은 서버(300)로부터 전자 장치(200)의 식별 정보를 획득할 수 있다.The robot 100 can search for electronic devices (S120). The robot 100 can search for the electronic device 200 located in a specific space using a camera. When the robot 100 discovers the electronic device 200, identification information can be obtained. For example, if the discovered electronic device 100 is an IoT device, the robot 100 may obtain identification information corresponding to the type of the discovered electronic device 100 from the received identification information. Alternatively, if the discovered electronic device is an IR device, the robot 100 may capture an image of the electronic device 200 and transmit the captured image to the server 300. And, the robot 100 can obtain identification information of the electronic device 200 from the server 300.

로봇(100)은 전자 장치(200)로 동작 확인 신호를 전송할 수 있다(S130). 동작 확인 신호는 전자 장치(200)의 타입에 대응되는 신호일 수 있다. 예를 들어, 전자 장치(200)의 타입이 광 출력 장치이면, 동작 확인 신호는 광을 출력하는 제어 신호일 수 있다. 전자 장치(200)의 타입이 사운드 출력 장치이면, 동작 확인 신호는 사운드를 출력하는 제어 신호일 수 있다. 전자 장치(200)의 타입이 통신 장치이면, 동작 확인 신호는 응답 신호를 출력하는 제어 신호일 수 있다. 또는, 동작 확인 신호는 전자 장치(200)를 온/오프하는 신호를 포함할 수 있다.The robot 100 may transmit an operation confirmation signal to the electronic device 200 (S130). The operation confirmation signal may be a signal corresponding to the type of the electronic device 200. For example, if the type of electronic device 200 is a light output device, the operation confirmation signal may be a control signal that outputs light. If the type of electronic device 200 is a sound output device, the operation confirmation signal may be a control signal that outputs sound. If the type of electronic device 200 is a communication device, the operation confirmation signal may be a control signal that outputs a response signal. Alternatively, the operation confirmation signal may include a signal that turns on/off the electronic device 200.

만일, 전자 장치(200)가 IoT 장치이고, 복수의 동일한 전자 장치이면, 로봇(100)은 복수의 전자 장치(200)에 각각 구별되는 동작 확인 신호를 동시에 전송할 수 있다. 로봇(100)은 복수의 전자 장치(200)의 동작을 동시에 식별할 수 있다. 본 명세서에서 ‘동시’는 동일한 시간 뿐만 아니라 동일한 시간으로 간주할 수 있는 순차적인 일련의 시간을 포함할 수 있다.If the electronic device 200 is an IoT device and there are a plurality of identical electronic devices, the robot 100 may simultaneously transmit a distinct operation confirmation signal to each of the plurality of electronic devices 200. The robot 100 can simultaneously identify the operations of a plurality of electronic devices 200. In this specification, ‘simultaneous’ may include not only the same time but also a sequential series of times that can be considered the same time.

전자 장치(200)는 수신된 동작 확인 신호에 따라 동작하고(S140), 로봇(100)은 전자 장치를 식별할 수 있다(S150). 예를 들어, 전자 장치(200)가 광 출력 장치이면, 로봇(100)은 카메라를 이용하여 전자 장치(200)의 광 출력, 점멸 등의 동작을 확인할 수 있다. 전자 장치(200)가 사운드 출력 장치이면, 로봇(100)은 카메라를 이용하여 촬영한 전자 장치(200)의 동작 영상 및 스피커를 이용하여 전자 장치(200)의 사운드 출력, 사운드 출력 패턴, 주파수, 볼륨 등의 정보에 기초하여 전자 장치(200)의 동작을 확인할 수 있다. 전자 장치(200)가 통신 장치이면, 로봇은 카메라를 이용하여 촬영한 전자 장치(200)의 동작 영상 및 주파수, 신호 강도, 응답 메시지 등의 정보에 기초하여 전자 장치(200)의 동작을 확인할 수 있다.The electronic device 200 operates according to the received operation confirmation signal (S140), and the robot 100 can identify the electronic device (S150). For example, if the electronic device 200 is a light output device, the robot 100 can use a camera to check operations such as light output and blinking of the electronic device 200. If the electronic device 200 is a sound output device, the robot 100 uses the operation image of the electronic device 200 captured using a camera and the speaker to determine the sound output, sound output pattern, frequency, and The operation of the electronic device 200 can be confirmed based on information such as volume. If the electronic device 200 is a communication device, the robot can check the operation of the electronic device 200 based on the operation image of the electronic device 200 captured using a camera and information such as frequency, signal strength, and response message. there is.

로봇(100)은 동작 확인 신호에 따른 전자 장치(200)의 동작이 식별되면, 특정 공간 내 전자 장치(200)의 위치 정보를 식별할 수 있다.When the operation of the electronic device 200 according to the operation confirmation signal is identified, the robot 100 may identify location information of the electronic device 200 within a specific space.

로봇(100)은 전자 장치와 식별 정보와 위치 정보를 동기화하고(S160), 로봇(100)은 3차원 정보를 매핑할 수 있다(S170). 로봇(100)은 전자 장치(200)의 식별 정보 및 위치 정보를 매칭한 매칭 정보를 생성할 수 있다. 그리고, 로봇(100)은 전자 장치(200)를 특정 공간에 매핑하여 3차원 정보를 업데이트할 수 있다.The robot 100 synchronizes identification information and location information with the electronic device (S160), and the robot 100 can map 3D information (S170). The robot 100 may generate matching information that matches the identification information and location information of the electronic device 200. Additionally, the robot 100 can update 3D information by mapping the electronic device 200 to a specific space.

또한, 로봇(100)은 매칭 정보 또는 3차원 정보를 서버(300)로 전송하고, 서버(300)는 저장된 전자 장치(200)의 정보를 업데이트할 수 있다(S180). 또한, 로봇(10)은 매칭 정보가 매핑되어 업데이트된 3차원 정보를 단말 장치로 전송할 수도 있다.Additionally, the robot 100 can transmit matching information or 3D information to the server 300, and the server 300 can update the stored information in the electronic device 200 (S180). Additionally, the robot 10 may transmit updated 3D information to a terminal device by mapping the matching information.

도 10은 본 개시의 일 실시 예에 따른 이동한 전자 장치를 식별하는 과정을 설명하는 도면이다.FIG. 10 is a diagram illustrating a process for identifying a moving electronic device according to an embodiment of the present disclosure.

도 10을 참조하면, 전자 장치(200)가 제1 공간에서 제2 공간으로 이동한 예가 도시되어 있다. 예를 들어, 제1 공간은 방(10)이고, 제2 공간은 거실(20)일 수 있다. 그리고, 전자 장치(200)는 상술한 예에서 설명한 로봇(100)에 의해 매칭 정보가 생성되어 3차원 정보에 업데이트된 장치일 수 있다.Referring to FIG. 10, an example of the electronic device 200 moving from the first space to the second space is shown. For example, the first space may be the room 10 and the second space may be the living room 20. Additionally, the electronic device 200 may be a device in which matching information is generated by the robot 100 described in the above example and updated to 3D information.

로봇(100)은 공간을 탐색하면서 공간을 촬영할 수 있다. 로봇(100)은 획득된 영상에서 새로운 전자 장치(200)가 식별되면, 식별된 전자 장치의 타입에 대응되는 기존 동작 확인 신호를 새로운 전자 장치(200)로 전송할 수 있다. 상술한 바와 같이, 전자 장치가 공간에 배치되면, 로봇(100)은 서버(300)로부터 배치된 전자 장치의 식별 정보를 수신할 수 있다. 로봇(100)이 특정 공간에서 새로운 전자 장치를 발견하였으나 서버(300)로부터 식별 정보를 수신하지 못 하였다면, 새로운 전자 장치는 타 공간에서 이동한 전자 장치일 가능성이 있다. 따라서, 로봇(100)은 기존 동작 확인 신호에 따른 새로운 전자 장치(200)의 동작이 식별되면, 새로운 전자 장치(200)를 위치가 변경된 기존 전자 장치로 식별할 수 있다. 로봇(100)은 기존 전자 장치의 식별 정보 및 기존 위치 정보를 매칭한 매칭 정보를 포함하고 있다. 따라서, 로봇(100)은 새로운 전자 장치(200)의 위치 정보를 식별하고, 기존 매칭 정보를 수정할 수 있다. 그리고, 로봇(100)은 전자 장치(200)의 위치 정보를 수정한 3차원 정보를 업데이트할 수 있다.The robot 100 can take pictures of the space while exploring the space. When a new electronic device 200 is identified in the acquired image, the robot 100 may transmit an existing operation confirmation signal corresponding to the type of the identified electronic device to the new electronic device 200. As described above, when an electronic device is placed in a space, the robot 100 may receive identification information of the placed electronic device from the server 300. If the robot 100 discovers a new electronic device in a specific space but fails to receive identification information from the server 300, there is a possibility that the new electronic device is an electronic device that has moved from another space. Accordingly, when the robot 100 identifies the operation of the new electronic device 200 according to the existing operation confirmation signal, it can identify the new electronic device 200 as the existing electronic device whose location has been changed. The robot 100 includes matching information that matches the identification information and existing location information of the existing electronic device. Accordingly, the robot 100 can identify the new location information of the electronic device 200 and modify the existing matching information. Additionally, the robot 100 can update 3D information that modifies the location information of the electronic device 200.

전자 장치(200)의 위치가 변경된 경우 주변 환경의 영향에 따라 전자 장치(200)의 성능이 달라질 수 있다. 또는, 전자 장치(200) 주변에 새로운 오브젝트가 배치됨에 따라 전자 장치(200)의 성능이 배치된 오브젝트의 영향을 받을 수 있다. 따라서, 로봇(100)은 전자 장치의 위치가 변경된 경우 또는 새로운 오브젝트가 배치된 경우 전자 장치(200)의 성능을 테스트할 수 있다.When the location of the electronic device 200 changes, the performance of the electronic device 200 may vary depending on the influence of the surrounding environment. Alternatively, as a new object is placed around the electronic device 200, the performance of the electronic device 200 may be affected by the placed object. Accordingly, the robot 100 can test the performance of the electronic device 200 when the location of the electronic device changes or when a new object is placed.

도 11 및 도 12는 본 개시의 일 실시 예에 따른 주변 오브젝트에 의한 영향을 확인하는 과정을 설명하는 도면이다.11 and 12 are diagrams illustrating a process for confirming the influence of surrounding objects according to an embodiment of the present disclosure.

도 11을 참조하면, 방(10)에 새로운 오브젝트(600a)가 배치된 도면이 도시되어 있다. 예를 들어, 제2 전자 장치(200b)는 전등일 수 있고, 전등 아래에 책장이 배치될 수 있다. 전등 아래 배치된 책장은 전등에 의한 방의 밝기 등에 영향을 줄 수 있다. 로봇(100)은 카메라를 통해 획득된 영상에서 새로운 오브젝트(600a)를 식별할 수 있다. 로봇(100)은 제2 전자 장치(200b)의 타입에 대응되는 테스트 신호를 제2 전자 장치(200b)로 전송할 수 있다. 예를 들어, 테스트 신호는 동작 확인 신호와 동일한 신호일 수 있다. 또는, 테스트 신호는 전자 장치를 턴-온 하는 신호일 수 있다. 제2 전자 장치(200b)는 수신된 테스트 신호에 따라 동작을 수행할 수 있다. 로봇(100)은 테스트 신호에 따른 제2 전자 장치(200b)의 동작 성능을 식별할 수 있다. 예를 들어, 제2 전자 장치(200b)가 전등인 경우 조도 등을 측정할 수 있다. 제2 전자 장치(200b)가 스피커인 경우 음량 등을 측정할 수 있다. 제2 전자 장치(200b)가 통신 장치인 경우 신호 강도 및 데이터 손실율 등을 측정할 수 있다.Referring to FIG. 11, a diagram showing a new object 600a arranged in a room 10 is shown. For example, the second electronic device 200b may be a lamp, and a bookshelf may be placed under the lamp. A bookshelf placed under a light can affect the brightness of the room caused by the light. The robot 100 may identify a new object 600a from an image acquired through a camera. The robot 100 may transmit a test signal corresponding to the type of the second electronic device 200b to the second electronic device 200b. For example, the test signal may be the same signal as the operation confirmation signal. Alternatively, the test signal may be a signal that turns on the electronic device. The second electronic device 200b may perform an operation according to the received test signal. The robot 100 may identify the operational performance of the second electronic device 200b according to the test signal. For example, if the second electronic device 200b is a lamp, illuminance, etc. can be measured. If the second electronic device 200b is a speaker, sound volume, etc. can be measured. If the second electronic device 200b is a communication device, signal strength and data loss rate can be measured.

로봇(100)은 전자 장치가 최초 배치되었을 때 테스트 신호를 전자 장치에 전송하여 전자 장치의 동작 성능을 식별할 수 있다. 따라서, 제2 전자 장치(200b)가 기존에 배치된 전자 장치이면, 로봇(100)은 제2 전자 장치(200b)의 동작 성능에 대한 정보를 포함할 수 있다. 로봇(100)은 측정된 제2 전자 장치(200b)의 동작 성능과 저장된 동작 성능을 비교할 수 있다. 로봇(100)은 제2 전자 장치(200b)의 동작 성능이 기 설정된 범위를 벗어나면 동작 성능과 관련된 정보(5)를 생성할 수 있다. 그리고, 로봇(100)은 생성된 동작 성능과 관련된 정보(5)를 단말 장치(400)로 전송할 수 있다. 단말 장치(400)는 수신된 동작 성능과 관련된 정보를 출력할 수 있다.The robot 100 may identify the operational performance of the electronic device by transmitting a test signal to the electronic device when the electronic device is first deployed. Accordingly, if the second electronic device 200b is an existing electronic device, the robot 100 may include information about the operating performance of the second electronic device 200b. The robot 100 may compare the measured operation performance of the second electronic device 200b with the stored operation performance. If the operational performance of the second electronic device 200b is outside a preset range, the robot 100 may generate information 5 related to the operational performance. Additionally, the robot 100 may transmit information 5 related to the generated motion performance to the terminal device 400 . The terminal device 400 may output information related to the received operational performance.

도 12를 참조하면, 방(10)의 바닥에 새로운 오브젝트(600b)가 배치된 도면이 도시되어 있다. 도 12에 도시된 새로운 오브젝트(600b)는 바닥에 배치되어 있다. 바닥에 배치된 오브젝트(600b)는 로봇 청소기(200c)가 청소를 할 때 영향을 줄 수 있다.Referring to FIG. 12, a diagram showing a new object 600b placed on the floor of the room 10 is shown. The new object 600b shown in FIG. 12 is placed on the floor. The object 600b placed on the floor may affect the robot cleaner 200c when it cleans.

로봇(100)은 획득된 영상에서 바닥에 위치한 새로운 오브젝트(600b)를 식별할 수 있다. 로봇(100)은 새로운 오브젝트(600b)의 위치와 관련된 3차원 정보 중 바닥의 정보(7)를 전자 장치 중 로봇 청소기(200c)로 전송할 수 있다. 로봇 청소기(200c)는 바닥을 탐색하고, 청소 맵을 생성할 수 있다. 만일, 새로운 오브젝트(600b)가 배치된 경우, 로봇 청소기(200c)는 새로운 오브젝트(600b)를 발견하고 기존 청소 맵을 업데이트해야 한다. 따라서, 로봇 청소기(200c)는 오브젝트를 식별하고 청소 맵을 업데이트 하기 위한 시간을 사용해야 한다. 그러나, 로봇(100)이 오브젝트(600b)를 발견하고, 오브젝트(600b)가 배치된 3차원 정보 중 바닥의 정보(7)를 로봇 청소기(200c)로 전송하면, 로봇 청소기(200c)는 빠르게 청소 맵을 업데이트할 수 있다.The robot 100 may identify a new object 600b located on the floor from the acquired image. The robot 100 may transmit floor information 7 among the 3D information related to the location of the new object 600b to the robot vacuum cleaner 200c among the electronic devices. The robot vacuum cleaner 200c can explore the floor and create a cleaning map. If a new object 600b is placed, the robot cleaner 200c must discover the new object 600b and update the existing cleaning map. Therefore, the robot cleaner 200c must use time to identify objects and update the cleaning map. However, when the robot 100 discovers the object 600b and transmits floor information 7 among the three-dimensional information on which the object 600b is placed to the robot cleaner 200c, the robot cleaner 200c quickly cleans. The map can be updated.

도 13은 본 개시의 일 실시 예에 따른 이동한 전자 장치를 식별하는 로봇 시스템의 동작을 설명하는 타이밍도이다.FIG. 13 is a timing diagram explaining the operation of a robot system that identifies a moving electronic device according to an embodiment of the present disclosure.

도 13을 참조하면, 로봇(100)은 신규 전자 장치(200)를 발견할 수 있다(S205). 로봇(100)은 설치된 전자 장치의 식별 정보와 위치 정보를 매칭한 매칭 정보를 공간에 매핑한 3차원 정보를 생성할 수 있다. 그 이후 로봇(100)은 공간 탐색 과정에서 기존 배치된 전자 장치 외에 배치된 신규 전자 장치(200)를 발견할 수 있다. 만일, 로봇(100)이 서버(300)로부터 전자 장치의 식별 정보를 수신하지 않은 경우, 발견된 전자 장치(200)는 기존 전자 장치일 가능성이 있다.Referring to FIG. 13, the robot 100 can discover a new electronic device 200 (S205). The robot 100 can generate three-dimensional information by mapping the matching information that matches the identification information and location information of the installed electronic device to space. Afterwards, the robot 100 may discover a new electronic device 200 in addition to the existing electronic device during space exploration. If the robot 100 does not receive the identification information of the electronic device from the server 300, there is a possibility that the discovered electronic device 200 is an existing electronic device.

로봇(100)은 발견된 전자 장치(200)로 기존 동작 확인 신호를 전송할 수 있다(S210). 기존 동작 확인 신호는 발견된 전자 장치(200)의 타입에 대응되는 신호이다. 발견된 전자 장치(200)가 타 공간에서 이동한 전자 장치이면, 기존 동작 확인 신호에 따라 동작할 수 있다(S215).The robot 100 may transmit an existing operation confirmation signal to the discovered electronic device 200 (S210). The existing operation confirmation signal is a signal corresponding to the type of the discovered electronic device 200. If the discovered electronic device 200 is an electronic device that has moved from another space, it may operate according to an existing operation confirmation signal (S215).

로봇(100)은 전자 장치(200)의 동작을 확인하고, 기존 전자 장치라고 식별할 수 있다(S220). 전자 장치(200)가 기존 전자 장치인 경우, 매칭 정보 또는 3차원 정보 중 위치 정보만 다를 수 있다. 따라서, 로봇(100)은 전자 장치가 배치된 위치 정보를 획득하고, 기존 정보에 포함된 위치 정보를 획득된 위치 정보로 수정할 수 있다. 즉, 로봇(100)은 전자 장치(200)와 관련된 3차원 정보를 업데이트할 수 있다(S225).The robot 100 can check the operation of the electronic device 200 and identify it as an existing electronic device (S220). If the electronic device 200 is an existing electronic device, only the location information among the matching information or 3D information may be different. Accordingly, the robot 100 can obtain location information where the electronic device is placed and modify the location information included in the existing information with the acquired location information. That is, the robot 100 can update 3D information related to the electronic device 200 (S225).

한편, 전자 장치(200)의 이동에 따라 주변 환경이 달라지고, 달라진 주변 환경이 전자 장치(200)의 동작 성능에 영향을 줄 수 있다. 따라서, 로봇(100)은 전자 장치(200)의 동작 성능을 확인하기 위해 전자 장치(200)로 테스트 신호를 전송할 수 있다(S230). 예를 들어, 테스트 신호는 발광, 사운드 출력, 데이터 송수신 등을 제어하는 신호일 수 있다. 전자 장치(200)는 수신된 테스트 신호에 따라 동작을 수행할 수 있다(S235).Meanwhile, the surrounding environment changes as the electronic device 200 moves, and the changed surrounding environment may affect the operating performance of the electronic device 200. Accordingly, the robot 100 may transmit a test signal to the electronic device 200 to check the operating performance of the electronic device 200 (S230). For example, the test signal may be a signal that controls light emission, sound output, data transmission and reception, etc. The electronic device 200 may perform an operation according to the received test signal (S235).

로봇(100)은 전자 장치(200)의 동작을 확인하고, 전자 장치(200)의 동작 성능을 식별할 수 있다(S240). 로봇(100)은 기존 저장된 전자 장치의 동작 성능과 식별된 동작 성능을 비교할 수 있다. 로봇(100)은 동작 성능에 대한 정보를 생성할 수 있다(S245). 그리고, 식별된 동작 성능이 기 설정된 범위를 벗어나면, 로봇(100)은 동작 성능과 관련된 정보를 단말 장치(400)로 전송할 수 있다.The robot 100 can check the operation of the electronic device 200 and identify the operating performance of the electronic device 200 (S240). The robot 100 may compare the identified operation performance with the operation performance of an existing stored electronic device. The robot 100 may generate information about operation performance (S245). And, if the identified motion performance is outside the preset range, the robot 100 may transmit information related to the motion performance to the terminal device 400.

도 14는 본 개시의 일 실시 예에 따른 사용자 명령을 수행하는 로봇을 설명하는 도면이다.Figure 14 is a diagram explaining a robot that performs a user command according to an embodiment of the present disclosure.

도 14를 참조하면, 사용자(90)와 사용자 근처에 위치한 로봇(100)이 도시되어 있다. 로봇(100)은 사용자(90)의 음성을 인식하여 제어 동작을 수행할 수 있다. 예를 들어, 제1 전자 장치(200a)와 제2 전자 장치(200b)는 전등이고, 제1 전자 장치(200a)는 1번 전등, 제2 전자 장치(200b)는 2번 전등일 수 있다. 사용자(90)가 “2번 전등 켜 줘.”라고 발화하면, 로봇(100)은 2번 전등인 제2 전자 장치(200b)를 턴-온시킬 수 있다. 즉, 로봇(100)은 사용자의 발화를 인식하고, 제2 전자 장치(200b)로 턴-온 제어 신호를 전송할 수 있다.Referring to FIG. 14, a user 90 and a robot 100 located near the user are shown. The robot 100 can recognize the voice of the user 90 and perform control operations. For example, the first electronic device 200a and the second electronic device 200b may be lights, the first electronic device 200a may be light number 1, and the second electronic device 200b may be light number 2. When the user 90 says, “Turn on light number 2,” the robot 100 can turn on the second electronic device 200b, which is light number 2. That is, the robot 100 can recognize the user's utterance and transmit a turn-on control signal to the second electronic device 200b.

또는, 사용자(90)는 특정 전자 장치를 표현하지 않고, “이것 켜 줘.”라고 발화할 수 있다. 이때, 사용자(90)의 근처에 위치한 로봇(100)은 사용자의 영상을 획득할 수 있다. 로봇(100)은 사용자(90)의 발화를 인식하고, 획득한 영상에서 사용자 관련 정보를 식별할 수 있다. 예를 들어, 사용자 관련 정보는 사용자의 위치, 시선 방향, 지시 방향 등을 포함할 수 있다. 도 14에 도시된 바와 같이, 로봇(100)은 획득한 사용자의 영상에서 사용자의 시선 방향, 사용자의 지시 방향을 식별하고, 사용자가 발화한 “이것”이 2번 전등인 제2 전자 장치(200b)라고 식별할 수 있다. 로봇(100)은 제2 전자 장치(200b)로 턴-온 제어 신호를 전송하고, 제2 전자 장치(200b)는 수신된 제어 신호에 따라 턴-온 동작을 수행할 수 있다.Alternatively, the user 90 may utter “Turn this on,” without referring to a specific electronic device. At this time, the robot 100 located near the user 90 can acquire the user's image. The robot 100 can recognize the user 90's utterance and identify user-related information from the acquired image. For example, user-related information may include the user's location, gaze direction, pointing direction, etc. As shown in FIG. 14, the robot 100 identifies the user's gaze direction and the user's pointing direction from the acquired user's image, and identifies the second electronic device (200b) where “this” uttered by the user is the number 2 light. ) can be identified. The robot 100 transmits a turn-on control signal to the second electronic device 200b, and the second electronic device 200b may perform a turn-on operation according to the received control signal.

또는, 사용자(90)는 단말 장치(400)를 이용하여 전자 장치(200)를 제어할 수 있다.Alternatively, the user 90 may control the electronic device 200 using the terminal device 400.

도 15 및 도 16은 본 개시의 일 실시 예에 따른 사용자 명령을 수행하는 단말 장치를 설명하는 도면이다.15 and 16 are diagrams illustrating a terminal device executing a user command according to an embodiment of the present disclosure.

도 15를 참조하면, 특정 공간의 맵 데이터가 도시되어 있다. 로봇(100)은 탐색 또는 서버(300)로부터 수신한 데이터에 기초하여 맵 데이터(50)를 생성할 수 있다. 맵 데이터(50)는 각 영역을 포함할 수 있다. 예를 들어, 도 15에 도시된 바와 같이, 맵 데이터(50)는 Bathroom 1, Room 1, Kitchen, Living room, Room 2, Bathroom 2, Room 3와 같은 영역을 표시할 수 있다. 사용자(90)는 제어를 위한 전자 장치가 위치한 영역을 선택할 수 있다. 예를 들어, 사용자(90)는 Room 3를 선택할 수 있다.Referring to FIG. 15, map data of a specific space is shown. The robot 100 may generate map data 50 based on navigation or data received from the server 300. Map data 50 may include each area. For example, as shown in FIG. 15, the map data 50 may display areas such as Bathroom 1, Room 1, Kitchen, Living room, Room 2, Bathroom 2, and Room 3. The user 90 can select an area where an electronic device for control is located. For example, user 90 may select Room 3.

단말 장치(400)는 Room 3에 배치된 전자 장치의 3차원 정보를 표시할 수 있다.The terminal device 400 can display 3D information on electronic devices placed in Room 3.

도 16을 참조하면, Room 3의 전자 장치(200a, 200b, 200c, 200d, 200e)가 위치한 3차원 정보(51)가 도시되어 있다. 상술한 바와 같이, 로봇(100)은 전자 장치가 위치한 영역 뿐만 아니라 벽, 바닥, 천장의 공간적 위치 및 좌표를 식별할 수 있다. 즉, 로봇(100)은 제1 내지 4 전자 장치(200a, 200b, 200c, 200d)가 위치한 면 및 좌표를 식별할 수 있다. 또한, 로봇(100)은 오브젝트(600c), 오브젝트(600c)가 위치한 면 및 좌표를 식별할 수 있다. 그리고, 로봇(100)은 제5 전자 장치(200e)의 위치를 식별할 수 있다. Referring to FIG. 16, three-dimensional information 51 where the electronic devices 200a, 200b, 200c, 200d, and 200e in Room 3 are located is shown. As described above, the robot 100 can identify the spatial location and coordinates of the wall, floor, and ceiling as well as the area where the electronic device is located. That is, the robot 100 can identify the plane and coordinates where the first to fourth electronic devices 200a, 200b, 200c, and 200d are located. Additionally, the robot 100 can identify the object 600c, the surface on which the object 600c is located, and its coordinates. And, the robot 100 can identify the location of the fifth electronic device 200e.

예를 들어, 로봇(100)은 제1 전자 장치(200a)의 위치는 좌표 (3, 3)의 천장, 제2 전자 장치(200b)의 위치는 좌표 (3, 5)의 천장, 제3 전자 장치의 위치는 좌표 (3, 7)의 천장, 제4 전자 장치(200d)의 위치는 좌표 (5, 2)에서 (5, 8)의 천장, 오브젝트(600c)의 위치는 좌표 (1, 8)의 바닥, 제5 전자 장치(200e)의 위치는 오브젝트(600c)의 상면과 같이 각 전자 장치(200a, 200b, 200c, 200d, 200e) 및 오브젝트(600c)의 위치를 식별할 수 있다. 그리고, 로봇(100)은 각 전자 장치(200a, 200b, 200c, 200d, 200e)의 식별 정보와 위치 정보를 매칭(동기화)하여 매칭 정보를 생성하고, 매칭 정보를 매핑한 3차원 정보(51)를 생성할 수 있다.For example, the robot 100 has a position of the first electronic device 200a at the ceiling of coordinates (3, 3), a position of the second electronic device 200b at the ceiling of coordinates (3, 5), and a third electronic device 200b. The location of the device is the ceiling at coordinates (3, 7), the location of the fourth electronic device 200d is the ceiling at coordinates (5, 2) to (5, 8), and the location of the object 600c is at coordinates (1, 8) ), the location of the fifth electronic device 200e can be identified as the top surface of the object 600c. In addition, the robot 100 generates matching information by matching (synchronizing) the identification information and location information of each electronic device (200a, 200b, 200c, 200d, 200e), and three-dimensional information 51 that maps the matching information. can be created.

로봇(100)은 생성된 3차원 정보(51)를 단말 장치(400)로 전송할 수 있다. 그리고, 단말 장치(400)는 도 16에 도시된 바와 같이, 수신된 3차원 정보(51)에 기초하여 제어 UI를 표시할 수 있다. 사용자(90)는 제1 전자 장치(200a)를 선택할 수 있다. 단말 장치(400)는 사용자의 입력 명령에 따라 제어 신호를 제1 전자 장치(200a)로 전송할 수 있다. 또는, 단말 장치(400)는 로봇(100)을 통해 제1 전자 장치(200a)를 제어할 수도 있다.The robot 100 can transmit the generated 3D information 51 to the terminal device 400. And, as shown in FIG. 16, the terminal device 400 may display a control UI based on the received 3D information 51. The user 90 may select the first electronic device 200a. The terminal device 400 may transmit a control signal to the first electronic device 200a according to the user's input command. Alternatively, the terminal device 400 may control the first electronic device 200a through the robot 100.

단말 장치(400)는 3차원 정보(51)를 포함하는 제어 UI를 표시함에 따라 사용자는 직관적으로 전자 장치를 제어할 수 있다.As the terminal device 400 displays a control UI including 3D information 51, the user can intuitively control the electronic device.

지금까지 로봇 시스템(1000)의 다양한 실시 예를 설명하였다. 아래에서는 로봇(100)의 제어 방법을 설명한다.So far, various embodiments of the robot system 1000 have been described. Below, the control method of the robot 100 will be described.

도 17은 본 개시의 일 실시 예에 따른 로봇의 제어 방법을 설명하는 흐름도이다.Figure 17 is a flowchart explaining a method of controlling a robot according to an embodiment of the present disclosure.

도 17을 참조하면, 로봇은 식별된 전자 장치의 식별 정보를 획득한다(S310). 예를 들어, 로봇은 특정 공간을 주행하는 동안 카메라를 통해 획득된 영상에서 전자 장치가 식별하고, 전자 장치의 식별 정보를 획득할 수 있다. 전자 장치는 네트워크에 연결된 IoT 장치 또는 네트워크에 연결되지 않은 IR 장치를 포함할 수 있다. 전자 장치가 IR 장치인 경우, 로봇은 전자 장치를 캡처한 이미지를 서버로 전송하고, 서버로부터 이미지에 대응되는 전자 장치의 식별 정보를 획득할 수 있다.Referring to FIG. 17, the robot acquires identification information of the identified electronic device (S310). For example, while a robot is traveling in a specific space, an electronic device can identify it from an image acquired through a camera and obtain identification information of the electronic device. Electronic devices may include network-connected IoT devices or non-network-connected IR devices. If the electronic device is an IR device, the robot can transmit a captured image of the electronic device to the server and obtain identification information of the electronic device corresponding to the image from the server.

로봇은 동작 확인 신호를 전자 장치로 전송할 수 있다(S320). 로봇은 식별된 전자 장치의 타입에 대응되는 동작 확인 신호를 전자 장치로 전송할 수 있다. 예를 들어, 전자 장치의 타입이 광 출력 장치이면, 동작 확인 신호는 광을 출력하는 신호일 수 있다. 전자 장치의 타입이 사운드 출력 장치이면, 동작 확인 신호는 사운드를 출력하는 신호일 수 있다. 전자 장치의 타입이 통신 장치이면, 동작 확인 신호는 응답 신호를 출력하는 신호일 수 있다.The robot can transmit an operation confirmation signal to the electronic device (S320). The robot may transmit an operation confirmation signal corresponding to the type of the identified electronic device to the electronic device. For example, if the type of electronic device is a light output device, the operation confirmation signal may be a signal that outputs light. If the type of electronic device is a sound output device, the operation confirmation signal may be a signal that outputs sound. If the type of electronic device is a communication device, the operation confirmation signal may be a signal that outputs a response signal.

또는, 복수의 동일한 전자 장치가 식별되면, 로봇은 복수의 IoT 장치에 각각 구별되는 동작 확인 신호를 동시에 전송하고, 복수의 IoT 장치의 동작을 동시에 식별할 수 있다. 예를 들어, 구별되는 동작 확인 신호는 색상, 점멸 패턴, 그라데이션, 주파수, 사운드 출력 패턴 등을 이용하여 구별되는 신호일 수 있다.Alternatively, when a plurality of identical electronic devices are identified, the robot can simultaneously transmit distinct operation confirmation signals to each of the plurality of IoT devices and simultaneously identify the operations of the plurality of IoT devices. For example, a distinct operation confirmation signal may be a signal that is distinguished using color, flashing pattern, gradation, frequency, sound output pattern, etc.

로봇은 공간 내 전자 장치의 위치 정보를 식별할 수 있다(S330). 위치 정보는 전자 장치가 위치한 3차원 공간상의 면, 좌표 정보를 포함할 수 있다. 예를 들어, 로봇은 제1 전자 장치는 좌표 (3, 5)의 천장과 같이 전자 장치의 위치 정보를 식별할 수 있다. 좌표 정보는 각 면 개별적으로 산출될 수 있다. 예를 들어, 천장 (1, 1)의 위치는 천장의 가상의 그리드에 설정된 제1 기준점을 기준으로 산출되고, 우측벽 (1, 1)의 위치는 우측벽의 가상의 그리드에 설정된 제2 기준점을 기준으로 산출될 수 있다.The robot can identify location information of electronic devices in space (S330). Location information may include surface and coordinate information in three-dimensional space where the electronic device is located. For example, the robot may identify location information of the electronic device, such as the ceiling of the first electronic device at coordinates (3, 5). Coordinate information can be calculated individually for each side. For example, the position of the ceiling (1, 1) is calculated based on the first reference point set in the virtual grid of the ceiling, and the position of the right wall (1, 1) is calculated based on the second reference point set in the virtual grid of the right wall. It can be calculated based on .

또한, 로봇은 오브젝트를 식별하고, 오브젝트에 위치하는 전자 장치의 위치 정보를 식별할 수 있다. 예를 들어, 로봇은 테이블을 식별하고, 테이블 위에 위치한 제2 전자 장치에 대해 테이블 상면과 같이 제2 전자 장치의 위치 정보를 식별할 수 있다.Additionally, the robot can identify an object and identify location information of an electronic device located on the object. For example, the robot can identify a table and identify location information about the second electronic device located on the table, such as the top of the table.

로봇은 전자 장치를 공간에 매핑하여 저장된 3차원 정보를 업데이트할 수 있다(S340). 로봇은 전자 장치의 식별 정보와 위치 정보를 매칭한 매칭 정보를 생성할 수 있다. 그리고 생성된 매칭 정보를 특정 공간에 매핑하여 3차원 정보를 생성(업데이트)할 수 있다. 생성(업데이트)된 3차원 정보는 단말 장치 및/또는 서버로 전송될 수 있다.The robot can update the stored 3D information by mapping the electronic device to space (S340). The robot can generate matching information that matches the identification information and location information of the electronic device. In addition, 3D information can be created (updated) by mapping the generated matching information to a specific space. The generated (updated) 3D information may be transmitted to the terminal device and/or server.

또한, 로봇은 카메라를 통해 획득된 영상에서 새로운 전자 장치가 식별되면, 식별된 전자 장치의 타입에 대응되는 기존 동작 확인 신호를 새로운 전자 장치로 전송할 수 있다. 기존 동작 확인 신호에 따른 새로운 전자 장치의 동작이 식별되면, 로봇은 새로운 전자 장치를 위치가 변경된 기존 전자 장치로 식별할 수 있다. 로봇은 기존 전자 장치의 위치 정보를 수정한 3차원 정보를 업데이트할 수 있다.Additionally, when a new electronic device is identified in an image acquired through a camera, the robot may transmit an existing operation confirmation signal corresponding to the type of the identified electronic device to the new electronic device. When the operation of the new electronic device according to the existing operation confirmation signal is identified, the robot can identify the new electronic device as the existing electronic device whose location has changed. The robot can update 3D information that modifies the location information of existing electronic devices.

또한, 로봇은 카메라를 통해 획득된 영상에서 3차원 정보 중 바닥에 위치한 새로운 오브젝트가 식별되면, 새로운 오브젝트의 위치와 관련된 정보를 로봇 청소기로 전송하여 청소 맵을 업데이트시킬 수 있다.Additionally, when a new object located on the floor is identified among the 3D information in an image acquired through a camera, the robot can update the cleaning map by transmitting information related to the location of the new object to the robot cleaner.

그리고, 로봇은 카메라를 통해 획득된 영상에서 새로운 오브젝트가 식별되면, 전자 장치의 타입에 대응되는 테스트 신호를 전자 장치로 전송하여 전자 장치의 동작 성능을 테스트할 수 있다. 로봇은 전자 장치의 동작 성능이 기 설정된 범위를 벗어나면 동작 성능과 관련된 정보를 단말 장치로 전송할 수 있다.Additionally, when a new object is identified in an image acquired through a camera, the robot can test the operational performance of the electronic device by transmitting a test signal corresponding to the type of the electronic device to the electronic device. If the operational performance of the electronic device is outside a preset range, the robot can transmit information related to the operational performance to the terminal device.

로봇은 사용자의 근처에서 사용자의 음성 명령을 입력받을 수 있다. 로봇은 카메라를 통해 획득된 사용자의 영상에서 사용자 관련 정보를 식별하고, 식별된 사용자 관련 정보에 기초하여 제어 대상 전자 장치를 식별할 수 있다. 예를 들어, 사용자 관련 정보는 사용자의 위치, 시선 방향, 지시 방향 등을 포함할 수 있다.The robot can receive the user's voice commands near the user. The robot can identify user-related information from the user's image acquired through a camera and identify the electronic device to be controlled based on the identified user-related information. For example, user-related information may include the user's location, gaze direction, pointing direction, etc.

지금까지 상술한 다양한 예는 설명의 편의를 위해 나누어 설명한 것일 뿐, 별도의 다른 실시 예가 아니다. 예를 들어, 로봇은 전자 장치를 발견한 경우, 새로운 전자 장치인지 기존 전자 장치인지 식별할 수 있다. 로봇은 새로운 전자 장치이면 식별 정보와 위치 정보를 매칭하고 맵 데이터에 매핑하는 과정을 수행할 수 있다. 기존 전자 장치이면 기존 위치 정보를 업데이트하는 과정을 수행할 수 있다. 또한, 로봇이 신규 전자 장치, 위치 변경, 주변 환경의 변경을 감지하면, 전자 장치의 동작 성능을 테스트하는 과정을 수행할 수 있다.The various examples described above are merely divided for convenience of explanation and are not separate embodiments. For example, if a robot finds an electronic device, it can identify whether it is a new or existing electronic device. If the robot is a new electronic device, it can perform the process of matching identification information and location information and mapping it to map data. If it is an existing electronic device, a process of updating existing location information can be performed. Additionally, when the robot detects a new electronic device, a change in location, or a change in the surrounding environment, it can perform a process to test the operational performance of the electronic device.

상술한 다양한 실시 예에 따른 로봇의 제어 방법은 컴퓨터 프로그램 제품으로 제공될 수도 있다. 컴퓨터 프로그램 제품은 S/W 프로그램 자체 또는 S/W 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)를 포함할 수 있다.The robot control method according to the various embodiments described above may be provided as a computer program product. A computer program product may include the S/W program itself or a non-transitory computer readable medium in which the S/W program is stored.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다. A non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as registers, caches, and memories. Specifically, the various applications or programs described above may be stored and provided on non-transitory readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, etc.

또한, 이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시가 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In addition, although the preferred embodiments of the present disclosure have been shown and described above, the present disclosure is not limited to the specific embodiments described above, and the technical field to which the disclosure pertains without departing from the gist of the present disclosure as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical idea or perspective of the present disclosure.

1000: 로봇 시스템 100: 로봇
110: 카메라 120: 통신 인터페이스
130: 메모리 140: 프로세서
200: 전자 장치
300: 서버 400: 단말 장치
1000: Robot system 100: Robot
110: camera 120: communication interface
130: memory 140: processor
200: electronic device
300: Server 400: Terminal device

Claims (20)

로봇에 있어서,
카메라;
통신 인터페이스;
특정 공간에 대응되는 3차원 정보가 저장된 메모리; 및
하나 이상의 프로세서;를 포함하고,
상기 하나 이상의 프로세서는,
상기 특정 공간을 상기 로봇이 주행하는 동안 상기 카메라를 통해 획득된 영상에서 전자 장치가 식별되면, 상기 식별된 전자 장치의 식별 정보를 획득하고,
상기 식별된 전자 장치의 타입에 대응되는 동작 확인 신호를 상기 통신 인터페이스를 통해 상기 전자 장치로 전송하며,
상기 동작 확인 신호에 따른 상기 전자 장치의 동작이 식별되면, 상기 특정 공간 내 상기 전자 장치의 위치 정보를 식별하고,
상기 전자 장치의 식별 정보 및 상기 전자 장치의 위치 정보에 기초하여 상기 전자 장치를 상기 특정 공간에 매핑하여 상기 3차원 정보를 업데이트하는, 로봇.
In robots,
camera;
communication interface;
A memory storing three-dimensional information corresponding to a specific space; and
Contains one or more processors;
The one or more processors:
If an electronic device is identified in an image obtained through the camera while the robot is traveling in the specific space, obtain identification information of the identified electronic device,
Transmitting an operation confirmation signal corresponding to the type of the identified electronic device to the electronic device through the communication interface,
When the operation of the electronic device according to the operation confirmation signal is identified, location information of the electronic device within the specific space is identified,
A robot that updates the three-dimensional information by mapping the electronic device to the specific space based on the identification information of the electronic device and the location information of the electronic device.
제1항에 있어서,
상기 하나 이상의 프로세서는,
상기 전자 장치의 식별 정보 및 상기 전자 장치의 위치 정보가 매핑된 상기 3차원 정보를 상기 통신 인터페이스를 통해 단말 장치로 전송하는, 로봇.
According to paragraph 1,
The one or more processors:
A robot that transmits the three-dimensional information to which the identification information of the electronic device and the location information of the electronic device are mapped to a terminal device through the communication interface.
제1항 또는 제2항에 있어서,
상기 하나 이상의 프로세서는,
상기 전자 장치의 타입이 광 출력 장치이면, 광을 출력하는 동작 확인 신호를 상기 광 출력 장치로 전송하고,
상기 전자 장치의 타입이 사운드 출력 장치이면, 사운드를 출력하는 동작 확인 신호를 상기 사운드 출력 장치로 전송하며,
상기 전자 장치의 타입이 통신 장치이면, 응답 신호를 출력하는 동작 확인 신호를 상기 통신 장치로 전송하도록 상기 통신 인터페이스를 제어하는, 로봇.
According to claim 1 or 2,
The one or more processors:
If the type of the electronic device is an optical output device, transmitting an operation confirmation signal for outputting light to the optical output device,
If the type of the electronic device is a sound output device, an operation confirmation signal for outputting sound is transmitted to the sound output device,
If the type of the electronic device is a communication device, the robot controls the communication interface to transmit an operation confirmation signal that outputs a response signal to the communication device.
제1항 내지 제3항 중 어느 하나의 항에 있어서,
마이크;를 더 포함하고,
상기 하나 이상의 프로세서는,
상기 로봇이 사용자의 근처에 위치하고, 상기 마이크를 통해 사용자의 음성 명령을 입력받는 경우, 상기 카메라를 통해 획득된 사용자의 영상에서 상기 사용자의 위치, 시선 방향 및 지시 방향 중 적어도 하나를 포함하는 사용자 관련 정보를 식별하며, 상기 식별된 사용자 관련 정보에 기초하여 제어 대상 전자 장치를 식별하는, 로봇.
According to any one of claims 1 to 3,
Further including a microphone;
The one or more processors:
When the robot is located near the user and receives the user's voice command through the microphone, user-related information including at least one of the user's location, gaze direction, and pointing direction in the user's image acquired through the camera. A robot that identifies information and identifies a controlled electronic device based on the identified user-related information.
제1항 내지 제4항 중 어느 하나의 항에 있어서,
상기 하나 이상의 프로세서는,
상기 카메라를 통해 획득된 영상에서 새로운 전자 장치가 식별되면, 상기 식별된 전자 장치의 타입에 대응되는 기존 동작 확인 신호를 상기 새로운 전자 장치로 전송하며, 상기 기존 동작 확인 신호에 따른 상기 새로운 전자 장치의 동작이 식별되면, 상기 새로운 전자 장치를 위치가 변경된 기존 전자 장치로 식별하고, 상기 기존 전자 장치의 위치 정보를 수정한 상기 3차원 정보를 업데이트하는, 로봇.
According to any one of claims 1 to 4,
The one or more processors:
When a new electronic device is identified in the image acquired through the camera, an existing operation confirmation signal corresponding to the type of the identified electronic device is transmitted to the new electronic device, and the new electronic device is activated according to the existing operation confirmation signal. When the motion is identified, the robot identifies the new electronic device as an existing electronic device whose location has changed and updates the 3D information with the modified location information of the existing electronic device.
제1항 내지 제5항 중 어느 하나의 항에 있어서,
상기 하나 이상의 프로세서는,
상기 카메라를 통해 획득된 영상에서 상기 3차원 정보 중 바닥에 위치한 새로운 오브젝트가 식별되면, 상기 통신 인터페이스를 통해 상기 새로운 오브젝트의 위치와 관련된 정보를 상기 전자 장치 중 로봇 청소기로 전송하여 상기 로봇 청소기의 청소 맵을 업데이트시키는, 로봇.
According to any one of claims 1 to 5,
The one or more processors:
When a new object located on the floor is identified among the 3D information in the image acquired through the camera, information related to the location of the new object is transmitted to the robot cleaner among the electronic devices through the communication interface to perform cleaning of the robot cleaner. A robot that updates the map.
제1항 내지 제6항 중 어느 하나의 항에 있어서,
상기 전자 장치는,
IoT(Internet Of Thing) 장치 및 IR(Infra-Red) 장치 중 적어도 하나의 장치를 포함하는, 로봇.
According to any one of claims 1 to 6,
The electronic device is,
A robot including at least one of an Internet of Thing (IoT) device and an Infra-Red (IR) device.
제7항에 있어서,
상기 하나 이상의 프로세서는,
상기 전자 장치가 IR 장치인 경우, 상기 전자 장치를 캡처한 이미지를 상기 통신 인터페이스를 통해 서버로 전송하고, 상기 서버로부터 상기 이미지에 대응되는 상기 전자 장치의 식별 정보를 획득하는, 로봇.
In clause 7,
The one or more processors:
When the electronic device is an IR device, a robot transmits an image captured of the electronic device to a server through the communication interface and obtains identification information of the electronic device corresponding to the image from the server.
제7항 또는 제8항에 있어서,
상기 하나 이상의 프로세서는,
복수의 동일한 IoT 장치가 식별되면, 상기 복수의 IoT 장치에 각각 구별되는 동작 확인 신호를 동시에 전송하고, 상기 복수의 IoT 장치의 동작을 동시에 식별하여 상기 복수의 IoT 장치의 위치 정보를 동시에 식별하는, 로봇.
According to clause 7 or 8,
The one or more processors:
When a plurality of identical IoT devices are identified, a distinct operation confirmation signal is simultaneously transmitted to each of the plurality of IoT devices, and the operation of the plurality of IoT devices is simultaneously identified to simultaneously identify the location information of the plurality of IoT devices. robot.
제9항에 있어서,
상기 구별되는 동작 확인 신호는,
색상, 점멸 패턴, 그라데이션, 주파수, 사운드 출력 패턴 중 적어도 하나가 구별되는, 로봇.
According to clause 9,
The distinct operation confirmation signal is,
A robot that is distinguished by at least one of color, flashing pattern, gradient, frequency, and sound output pattern.
제1항 내지 제10항 중 어느 하나의 항에 있어서,
상기 하나 이상의 프로세서는,
상기 카메라를 통해 획득된 영상에서 새로운 오브젝트가 식별되면, 상기 전자 장치의 타입에 대응되는 테스트 신호를 상기 통신 인터페이스를 통해 상기 전자 장치로 전송하며, 상기 테스트 신호에 따른 상기 전자 장치의 동작 성능을 식별하고, 상기 동작 성능이 기 설정된 범위를 벗어나면 상기 동작 성능과 관련된 정보를 상기 단말 장치로 전송하도록 상기 통신 인터페이스를 제어하는, 로봇.
According to any one of claims 1 to 10,
The one or more processors:
When a new object is identified in the image acquired through the camera, a test signal corresponding to the type of the electronic device is transmitted to the electronic device through the communication interface, and the operating performance of the electronic device according to the test signal is identified. and controlling the communication interface to transmit information related to the operating performance to the terminal device when the operating performance is outside a preset range.
로봇의 제어 방법에 있어서,
특정 공간을 상기 로봇이 주행하는 동안 획득된 영상에서 전자 장치가 식별되면, 상기 식별된 전자 장치의 식별 정보를 획득하는 단계;
상기 식별된 전자 장치의 타입에 대응되는 동작 확인 신호를 상기 전자 장치로 전송하는 단계;
상기 동작 확인 신호에 따른 상기 전자 장치의 동작이 식별되면, 상기 특정 공간 내 상기 전자 장치의 위치 정보를 식별하는 단계; 및
상기 전자 장치의 식별 정보 및 상기 전자 장치의 위치 정보에 기초하여 상기 전자 장치를 상기 특정 공간에 매핑하여 저장된 3차원 정보를 업데이트하는 단계;를 포함하는 로봇의 제어 방법.
In the robot control method,
When an electronic device is identified in an image obtained while the robot is traveling in a specific space, obtaining identification information of the identified electronic device;
transmitting an operation confirmation signal corresponding to the type of the identified electronic device to the electronic device;
When the operation of the electronic device according to the operation confirmation signal is identified, identifying location information of the electronic device within the specific space; and
A method of controlling a robot comprising: updating stored 3D information by mapping the electronic device to the specific space based on the identification information of the electronic device and the location information of the electronic device.
제12항에 있어서,
상기 전자 장치의 식별 정보 및 상기 전자 장치의 위치 정보가 매핑된 상기 3차원 정보를 단말 장치로 전송하는 단계;를 더 포함하는 로봇의 제어 방법.
According to clause 12,
A method of controlling a robot further comprising transmitting the 3D information to which the identification information of the electronic device and the location information of the electronic device are mapped to a terminal device.
제12항 또는 제13항에 있어서,
상기 동작 확인 신호를 상기 전자 장치로 전송하는 단계는,
상기 전자 장치의 타입이 광 출력 장치이면, 광을 출력하는 동작 확인 신호를 상기 광 출력 장치로 전송하고,
상기 전자 장치의 타입이 사운드 출력 장치이면, 사운드를 출력하는 동작 확인 신호를 상기 사운드 출력 장치로 전송하며,
상기 전자 장치의 타입이 통신 장치이면, 응답 신호를 출력하는 동작 확인 신호를 상기 통신 장치로 전송하는, 로봇의 제어 방법.
According to claim 12 or 13,
The step of transmitting the operation confirmation signal to the electronic device includes:
If the type of the electronic device is an optical output device, transmitting an operation confirmation signal for outputting light to the optical output device,
If the type of the electronic device is a sound output device, an operation confirmation signal for outputting sound is transmitted to the sound output device,
If the type of the electronic device is a communication device, an operation confirmation signal that outputs a response signal is transmitted to the communication device.
제12항 내지 제14항 중 어느 하나의 항에 있어서,
상기 로봇이 사용자의 근처에 위치하고, 사용자의 음성 명령을 입력받는 경우, 획득된 사용자의 영상에서 상기 사용자의 위치, 시선 방향 및 지시 방향 중 적어도 하나를 포함하는 사용자 관련 정보를 식별하는 단계; 및
상기 식별된 사용자 관련 정보에 기초하여 제어 대상 전자 장치를 식별하는 단계;를 더 포함하는 로봇의 제어 방법.
According to any one of claims 12 to 14,
When the robot is located near the user and receives the user's voice command, identifying user-related information including at least one of the user's location, gaze direction, and pointing direction from the obtained user's image; and
A robot control method further comprising: identifying a control target electronic device based on the identified user-related information.
제12항 내지 제15항 중 어느 하나의 항에 있어서,
획득된 영상에서 새로운 전자 장치가 식별되면, 상기 식별된 전자 장치의 타입에 대응되는 기존 동작 확인 신호를 상기 새로운 전자 장치로 전송하는 단계;
상기 기존 동작 확인 신호에 따른 상기 새로운 전자 장치의 동작이 식별되면, 상기 새로운 전자 장치를 위치가 변경된 기존 전자 장치로 식별하는 단계; 및
상기 기존 전자 장치의 위치 정보를 수정한 상기 3차원 정보를 업데이트하는 단계;를 포함하는 로봇의 제어 방법.
According to any one of claims 12 to 15,
When a new electronic device is identified in the acquired image, transmitting an existing operation confirmation signal corresponding to the type of the identified electronic device to the new electronic device;
When the operation of the new electronic device according to the existing operation confirmation signal is identified, identifying the new electronic device as an existing electronic device whose location has changed; and
A method of controlling a robot comprising: updating the 3D information that modifies the location information of the existing electronic device.
제12항 내지 제16항 중 어느 하나의 항에 있어서,
획득된 영상에서 상기 3차원 정보 중 바닥에 위치한 새로운 오브젝트가 식별되면, 상기 새로운 오브젝트의 위치와 관련된 정보를 상기 전자 장치 중 로봇 청소기로 전송하여 상기 로봇 청소기의 청소 맵을 업데이트시키는 단계;를 더 포함하는 로봇의 제어 방법.
According to any one of claims 12 to 16,
When a new object located on the floor is identified among the 3D information in the acquired image, transmitting information related to the location of the new object to the robot cleaner among the electronic devices to update the cleaning map of the robot cleaner. How to control a robot.
제12항 내지 제17항 중 어느 하나의 항에 있어서,
상기 전자 장치는,
IoT(Internet Of Thing) 장치 및 IR(Infra-Red) 장치 중 적어도 하나의 장치를 포함하는, 로봇의 제어 방법.
According to any one of claims 12 to 17,
The electronic device is,
A method of controlling a robot, including at least one of an IoT (Internet of Thing) device and an IR (Infra-Red) device.
제18항에 있어서,
상기 전자 장치가 IR 장치인 경우, 상기 전자 장치를 캡처한 이미지를 서버로 전송하는 단계; 및
상기 서버로부터 상기 이미지에 대응되는 상기 전자 장치의 식별 정보를 획득하는 단계;를 더 포함하는 로봇의 제어 방법.
According to clause 18,
If the electronic device is an IR device, transmitting an image captured of the electronic device to a server; and
Obtaining identification information of the electronic device corresponding to the image from the server.
제18항 또는 제19항에 있어서,
복수의 동일한 IoT 장치가 식별되면, 상기 복수의 IoT 장치에 각각 구별되는 동작 확인 신호를 동시에 전송하는 단계; 및
상기 복수의 IoT 장치의 동작을 동시에 식별하여 상기 복수의 IoT 장치의 위치 정보를 동시에 식별하는 단계;를 더 포함하는 로봇의 제어 방법.
According to claim 18 or 19,
When a plurality of identical IoT devices are identified, simultaneously transmitting distinct operation confirmation signals to each of the plurality of IoT devices; and
Simultaneously identifying the operations of the plurality of IoT devices and simultaneously identifying location information of the plurality of IoT devices.
KR1020220105950A 2022-08-24 2022-08-24 Robot managing electornic device and controlling method thereof KR20240028574A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220105950A KR20240028574A (en) 2022-08-24 2022-08-24 Robot managing electornic device and controlling method thereof
PCT/KR2023/009125 WO2024043488A1 (en) 2022-08-24 2023-06-29 Robot for managing electronic device and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220105950A KR20240028574A (en) 2022-08-24 2022-08-24 Robot managing electornic device and controlling method thereof

Publications (1)

Publication Number Publication Date
KR20240028574A true KR20240028574A (en) 2024-03-05

Family

ID=90013480

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220105950A KR20240028574A (en) 2022-08-24 2022-08-24 Robot managing electornic device and controlling method thereof

Country Status (2)

Country Link
KR (1) KR20240028574A (en)
WO (1) WO2024043488A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102071575B1 (en) * 2013-04-23 2020-01-30 삼성전자 주식회사 Moving robot, user terminal apparatus, and control method thereof
KR102000067B1 (en) * 2017-01-16 2019-09-17 엘지전자 주식회사 Moving Robot
KR101976424B1 (en) * 2017-01-25 2019-05-09 엘지전자 주식회사 Moving Robot
KR102326077B1 (en) * 2017-06-15 2021-11-12 엘지전자 주식회사 Method of identifying movable obstacle in 3-dimensional space and robot implementing thereof
WO2020184733A1 (en) * 2019-03-08 2020-09-17 엘지전자 주식회사 Robot

Also Published As

Publication number Publication date
WO2024043488A1 (en) 2024-02-29

Similar Documents

Publication Publication Date Title
EP3664974B1 (en) Mobile home robot and controlling method of the mobile home robot
CN107113544B (en) Method, system, and medium for 3D mapping of Internet of things devices
US9728009B2 (en) Augmented reality based management of a representation of a smart environment
US11082249B2 (en) Location determination for device control and configuration
US11676405B2 (en) Identification of objects for three-dimensional depth imaging
US20170160371A1 (en) Luminaire locating device, luminaire, and luminaire configuring and commissioning device
US20220057922A1 (en) Systems and interfaces for location-based device control
US10701661B1 (en) Location determination for device control and configuration
KR20200006707A (en) Method of controlling electronic apparatus and computer-readable recording medium
CN108432213B (en) Electronic device and control method thereof
JP2019061334A (en) Equipment control device, equipment control method and equipment control system
KR20240028574A (en) Robot managing electornic device and controlling method thereof
JP2012156834A (en) Remote controller and program
US20210333863A1 (en) Extended Reality Localization
CN111819841B (en) Information processing apparatus, information processing method, and storage medium
WO2018047458A1 (en) Information processing device, information processing method, and program
JP7163361B2 (en) A system for communicating the presence of a device via a light source
US20240005921A1 (en) Command Disambiguation based on Environmental Context
US20240144517A1 (en) Displaying an aggregation of data in dependence on a distance to a closest device in an image
US20220383635A1 (en) Method and an electronic apparatus for acquiring a floor map of a room layout
TW202201269A (en) Interaction method based on position, interaction system and computer readable storage medium
JP2018151759A (en) Object selection system, object selection method and program