KR20240028574A - Robot managing electornic device and controlling method thereof - Google Patents
Robot managing electornic device and controlling method thereof Download PDFInfo
- Publication number
- KR20240028574A KR20240028574A KR1020220105950A KR20220105950A KR20240028574A KR 20240028574 A KR20240028574 A KR 20240028574A KR 1020220105950 A KR1020220105950 A KR 1020220105950A KR 20220105950 A KR20220105950 A KR 20220105950A KR 20240028574 A KR20240028574 A KR 20240028574A
- Authority
- KR
- South Korea
- Prior art keywords
- electronic device
- robot
- information
- identified
- operation confirmation
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012790 confirmation Methods 0.000 claims abstract description 87
- 238000004891 communication Methods 0.000 claims abstract description 55
- 238000013507 mapping Methods 0.000 claims abstract description 20
- 230000015654 memory Effects 0.000 claims abstract description 12
- 238000012360 testing method Methods 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 10
- 238000004140 cleaning Methods 0.000 claims description 8
- 230000033001 locomotion Effects 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 claims 4
- 238000010586 diagram Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 13
- 230000004397 blinking Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000005406 washing Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/006—Controls for manipulators by means of a wireless system for controlling one or several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y20/00—Information sensed or collected by the things
- G16Y20/10—Information sensed or collected by the things relating to the environment, e.g. temperature; relating to location
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Environmental & Geological Engineering (AREA)
- Health & Medical Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- General Health & Medical Sciences (AREA)
- Toxicology (AREA)
- Computing Systems (AREA)
- Manipulator (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
Abstract
로봇 및 로봇의 제어 방법이 개시된다. 로봇은 카메라, 통신 인터페이스, 특정 공간에 대응되는 3차원 정보가 저장된 메모리 및 하나 이상의 프로세서를 포함한다. 하나 이상의 프로세서는 특정 공간을 로봇이 주행하는 동안 카메라를 통해 획득된 영상에서 전자 장치가 식별되면, 식별된 전자 장치의 식별 정보를 획득한다. 하나 이상의 프로세서는 식별된 전자 장치의 타입에 대응되는 동작 확인 신호를 통신 인터페이스를 통해 전자 장치로 전송한다. 하나 이상의 프로세서는 동작 확인 신호에 따른 전자 장치의 동작이 식별되면, 특정 공간 내 전자 장치의 위치 정보를 식별한다. 하나 이상의 프로세서는 전자 장치의 식별 정보 및 전자 장치의 위치 정보에 기초하여 전자 장치를 특정 공간에 매핑하여 3차원 정보를 업데이트한다.A robot and a method for controlling the robot are disclosed. The robot includes a camera, a communication interface, a memory storing 3D information corresponding to a specific space, and one or more processors. When an electronic device is identified in an image obtained through a camera while the robot is traveling in a specific space, one or more processors obtain identification information of the identified electronic device. One or more processors transmit an operation confirmation signal corresponding to the type of the identified electronic device to the electronic device through a communication interface. When the operation of the electronic device according to the operation confirmation signal is identified, one or more processors identify location information of the electronic device within a specific space. One or more processors update three-dimensional information by mapping the electronic device to a specific space based on the identification information of the electronic device and the location information of the electronic device.
Description
본 개시는 일정 공간에 배치된 전자 장치를 관리하는 로봇 및 그 제어 방법에 관한 것이다.This disclosure relates to a robot that manages electronic devices placed in a certain space and a method of controlling the same.
전자 기술의 발전에 따라 다양한 전자 장치가 상용화되고 있다. 예를 들어, 전자 장치는 스마트폰, 태블릿 PC, 데스크탑 컴퓨터, 랩탑 컴퓨터, 오디오 장치, 스피커, TV, 전자 레인지 등을 포함할 수 있다. 또한, 냉장고, 세탁기, 건조기 등과 같은 기존의 가전 기기들도 통신 기능, 음성 인식 기능이나 제스처 인식 기능을 포함하는 형태로 발전하고 있다.With the advancement of electronic technology, various electronic devices are being commercialized. For example, electronic devices may include smartphones, tablet PCs, desktop computers, laptop computers, audio devices, speakers, TVs, microwave ovens, etc. In addition, existing home appliances such as refrigerators, washing machines, and dryers are also developing to include communication functions, voice recognition functions, and gesture recognition functions.
통신 기능을 포함하는 전자 장치는 타 전자 장치 또는 서버와 네트워크로 연결되어 타 전자 장치 또는 서버로 다양한 정보를 송수신할 수 있다. 또는, 음성 인식 기능이나 제스처 인식 기능을 포함하는 전자 장치는 사용자의 음성이나 제스처를 인식하고 인식된 음성이나 제스처에 대응되는 동작을 수행할 수 있다.An electronic device that includes a communication function can be connected to another electronic device or server through a network and transmit and receive various information to the other electronic device or server. Alternatively, an electronic device including a voice recognition function or a gesture recognition function may recognize a user's voice or gesture and perform an operation corresponding to the recognized voice or gesture.
또한, 로봇은 제품의 조립, 검사와 같은 산업용으로 활용될 뿐 아니라, 서빙, 배달, 보안, 관리 등과 같은 기능을 수행하며 일상 생활에 많이 활용되고 있다.In addition, robots are not only used for industrial purposes such as product assembly and inspection, but are also widely used in daily life by performing functions such as serving, delivery, security, and management.
본 개시의 일 실시 예에 따른 로봇은 카메라, 통신 인터페이스, 특정 공간에 대응되는 3차원 정보가 저장된 메모리 및 하나 이상의 프로세서를 포함한다. 상기 하나 이상의 프로세서는 상기 특정 공간을 상기 로봇이 주행하는 동안 상기 카메라를 통해 획득된 영상에서 전자 장치가 식별되면, 상기 식별된 전자 장치의 식별 정보를 획득할 수 있다. 상기 하나 이상의 프로세서는 상기 식별된 전자 장치의 타입에 대응되는 동작 확인 신호를 상기 통신 인터페이스를 통해 상기 전자 장치로 전송할 수 있다. 하나 이상의 프로세서는 상기 동작 확인 신호에 따른 상기 전자 장치의 동작이 식별되면, 상기 특정 공간 내 상기 전자 장치의 위치 정보를 식별할 수 있다. 하나 이상의 프로세서는 상기 전자 장치의 식별 정보 및 상기 전자 장치의 위치 정보에 기초하여 상기 전자 장치를 상기 특정 공간에 매핑하여 상기 3차원 정보를 업데이트할 수 있다.A robot according to an embodiment of the present disclosure includes a camera, a communication interface, a memory storing 3D information corresponding to a specific space, and one or more processors. When an electronic device is identified in an image obtained through the camera while the robot travels in the specific space, the one or more processors may obtain identification information of the identified electronic device. The one or more processors may transmit an operation confirmation signal corresponding to the type of the identified electronic device to the electronic device through the communication interface. When the operation of the electronic device according to the operation confirmation signal is identified, one or more processors may identify location information of the electronic device within the specific space. One or more processors may update the 3D information by mapping the electronic device to the specific space based on the identification information of the electronic device and the location information of the electronic device.
본 개시의 일 실시 예에 따른 로봇의 제어 방법은 특정 공간을 상기 로봇이 주행하는 동안 획득된 영상에서 전자 장치가 식별되면, 상기 식별된 전자 장치의 식별 정보를 획득할 수 있다. 제어 방법은 상기 식별된 전자 장치의 타입에 대응되는 동작 확인 신호를 상기 전자 장치로 전송할 수 있다. 제어 방법은 상기 동작 확인 신호에 따른 상기 전자 장치의 동작이 식별되면, 상기 특정 공간 내 상기 전자 장치의 위치 정보를 식별할 수 있다. 제어 방법은 상기 전자 장치의 식별 정보 및 상기 전자 장치의 위치 정보에 기초하여 상기 전자 장치를 상기 특정 공간에 매핑하여 저장된 3차원 정보를 업데이트할 수 있다.The robot control method according to an embodiment of the present disclosure can obtain identification information of the identified electronic device when an electronic device is identified in an image acquired while the robot is traveling in a specific space. The control method may transmit an operation confirmation signal corresponding to the type of the identified electronic device to the electronic device. The control method may identify location information of the electronic device within the specific space when the operation of the electronic device according to the operation confirmation signal is identified. The control method may update stored 3D information by mapping the electronic device to the specific space based on the identification information of the electronic device and the location information of the electronic device.
본 개시의 일 실시 예에 따른 비일시적 컴퓨터 판독 가능 저장 매체에 기록된 로봇의 제어 방법을 수행하는 프로그램은 특정 공간을 상기 로봇이 주행하는 동안 획득된 영상에서 전자 장치가 식별되면, 상기 식별된 전자 장치의 식별 정보를 획득할 수 있다. 프로그램은 상기 식별된 전자 장치의 타입에 대응되는 동작 확인 신호를 상기 전자 장치로 전송할 수 있다. 프로그램은 상기 동작 확인 신호에 따른 상기 전자 장치의 동작이 식별되면, 상기 특정 공간 내 상기 전자 장치의 위치 정보를 식별할 수 있다. 프로그램은 상기 전자 장치의 식별 정보 및 상기 전자 장치의 위치 정보에 기초하여 상기 전자 장치를 상기 특정 공간에 매핑하여 저장된 3차원 정보를 업데이트할 수 있다.A program that performs a method for controlling a robot recorded on a non-transitory computer-readable storage medium according to an embodiment of the present disclosure is configured to: When an electronic device is identified in an image acquired while the robot is traveling in a specific space, the identified electronic device Device identification information can be obtained. The program may transmit an operation confirmation signal corresponding to the type of the identified electronic device to the electronic device. When the operation of the electronic device according to the operation confirmation signal is identified, the program can identify location information of the electronic device within the specific space. The program may update the stored 3D information by mapping the electronic device to the specific space based on the identification information of the electronic device and the location information of the electronic device.
도 1은 본 개시의 일 실시 예에 따른 로봇 시스템을 설명하는 도면이다.
도 2는 본 개시의 일 실시 예에 따른 로봇의 구성을 설명하는 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 로봇의 구체적인 구성을 설명하는 블록도이다.
도 4 내지 도 6은 본 개시의 일 실시 예에 따른 전자 장치를 식별하는 과정을 설명하는 도면이다.
도 7은 본 개시의 일 실시 예에 따른 식별된 전자 장치를 3차원 정보에 매핑하는 과정을 설명하는 도면이다.
도 8은 본 개시의 일 실시 예에 따른 복수의 전자 장치를 동시에 식별하는 과정을 설명하는 도면이다.
도 9는 본 개시의 일 실시 예에 따른 전자 장치를 식별하는 로봇 시스템의 동작을 설명하는 타이밍도이다.
도 10은 본 개시의 일 실시 예에 따른 이동한 전자 장치를 식별하는 과정을 설명하는 도면이다.
도 11 및 도 12는 본 개시의 일 실시 예에 따른 주변 오브젝트에 의한 영향을 확인하는 과정을 설명하는 도면이다.
도 13은 본 개시의 일 실시 예에 따른 이동한 전자 장치를 식별하는 로봇 시스템의 동작을 설명하는 타이밍도이다.
도 14는 본 개시의 일 실시 예에 따른 사용자 명령을 수행하는 로봇을 설명하는 도면이다.
도 15 및 도 16은 본 개시의 일 실시 예에 따른 사용자 명령을 수행하는 단말 장치를 설명하는 도면이다.
도 17은 본 개시의 일 실시 예에 따른 로봇의 제어 방법을 설명하는 흐름도이다.1 is a diagram illustrating a robot system according to an embodiment of the present disclosure.
Figure 2 is a block diagram explaining the configuration of a robot according to an embodiment of the present disclosure.
Figure 3 is a block diagram explaining the specific configuration of a robot according to an embodiment of the present disclosure.
4 to 6 are diagrams illustrating a process for identifying an electronic device according to an embodiment of the present disclosure.
FIG. 7 is a diagram illustrating a process of mapping an identified electronic device to 3D information according to an embodiment of the present disclosure.
FIG. 8 is a diagram illustrating a process for simultaneously identifying a plurality of electronic devices according to an embodiment of the present disclosure.
Figure 9 is a timing diagram explaining the operation of a robot system that identifies an electronic device according to an embodiment of the present disclosure.
FIG. 10 is a diagram illustrating a process for identifying a moving electronic device according to an embodiment of the present disclosure.
11 and 12 are diagrams illustrating a process for confirming the influence of surrounding objects according to an embodiment of the present disclosure.
FIG. 13 is a timing diagram explaining the operation of a robot system that identifies a moving electronic device according to an embodiment of the present disclosure.
Figure 14 is a diagram explaining a robot that performs a user command according to an embodiment of the present disclosure.
15 and 16 are diagrams illustrating a terminal device executing a user command according to an embodiment of the present disclosure.
Figure 17 is a flowchart explaining a method of controlling a robot according to an embodiment of the present disclosure.
이하에서는 첨부된 도면을 참조하여 다양한 실시 예를 보다 상세하게 설명한다. 본 명세서에 기재된 실시 예는 다양하게 변형될 수 있다. 특정한 실시 예가 도면에서 묘사되고 상세한 설명에서 자세하게 설명될 수 있다. 그러나, 첨부된 도면에 개시된 특정한 실시 예는 다양한 실시 예를 쉽게 이해하도록 하기 위한 것일 뿐이다. 따라서, 첨부된 도면에 개시된 특정 실시 예에 의해 기술적 사상이 제한되는 것은 아니며, 개시의 사상 및 기술 범위에 포함되는 모든 균등물 또는 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, various embodiments will be described in more detail with reference to the attached drawings. The embodiments described herein may be modified in various ways. Specific embodiments may be depicted in the drawings and described in detail in the detailed description. However, the specific embodiments disclosed in the attached drawings are only intended to facilitate understanding of the various embodiments. Accordingly, the technical idea is not limited to the specific embodiments disclosed in the attached drawings, and should be understood to include all equivalents or substitutes included in the spirit and technical scope of the disclosure.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이러한 구성요소들은 상술한 용어에 의해 한정되지는 않는다. 상술한 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but these components are not limited by the above-mentioned terms. The above-mentioned terms are used only for the purpose of distinguishing one component from another.
본 명세서에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.In this specification, terms such as “comprise” or “have” are intended to indicate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof. When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.
한편, 본 명세서에서 사용되는 구성요소에 대한 "모듈" 또는 "부"는 적어도 하나의 기능 또는 동작을 수행한다. 그리고, "모듈" 또는 "부"는 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합에 의해 기능 또는 동작을 수행할 수 있다. 또한, 특정 하드웨어에서 수행되어야 하거나 적어도 하나의 프로세서에서 수행되는 "모듈" 또는 "부"를 제외한 복수의 "모듈들" 또는 복수의 "부들"은 적어도 하나의 모듈로 통합될 수도 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Meanwhile, a “module” or “unit” for a component used in this specification performs at least one function or operation. And, the “module” or “unit” may perform a function or operation by hardware, software, or a combination of hardware and software. Additionally, a plurality of “modules” or a plurality of “units” excluding a “module” or “unit” that must be performed on specific hardware or performed on at least one processor may be integrated into at least one module. Singular expressions include plural expressions unless the context clearly dictates otherwise.
본 개시의 설명에 있어서 각 단계의 순서는 선행 단계가 논리적 및 시간적으로 반드시 후행 단계에 앞서서 수행되어야 하는 경우가 아니라면 각 단계의 순서는 비제한적으로 이해되어야 한다. 즉, 위와 같은 예외적인 경우를 제외하고는 후행 단계로 설명된 과정이 선행단계로 설명된 과정보다 앞서서 수행되더라도 개시의 본질에는 영향이 없으며 권리범위 역시 단계의 순서에 관계없이 정의되어야 한다. 그리고 본 명세서에서 "A 또는 B"라고 기재한 것은 A와 B 중 어느 하나를 선택적으로 가리키는 것뿐만 아니라 A와 B 모두를 포함하는 것도 의미하는 것으로 정의된다. 또한, 본 명세서에서 "포함"이라는 용어는 포함하는 것으로 나열된 요소 이외에 추가로 다른 구성요소를 더 포함하는 것도 포괄하는 의미를 가진다.In the description of the present disclosure, the order of each step should be understood as non-limiting unless the preceding step must be performed logically and temporally prior to the subsequent step. In other words, except for the above exceptional cases, even if the process described as a subsequent step is performed before the process described as a preceding step, the nature of disclosure is not affected, and the scope of rights must also be defined regardless of the order of the steps. In this specification, the term “A or B” is defined not only to selectively indicate either A or B, but also to include both A and B. In addition, the term "included" in this specification has the meaning of including additional components in addition to the elements listed as included.
본 명세서에서는 본 개시의 설명에 필요한 필수적인 구성요소만을 설명하며, 본 개시의 본질과 관계가 없는 구성요소는 언급하지 아니한다. 그리고 언급되는 구성요소만을 포함하는 배타적인 의미로 해석되어서는 아니되며 다른 구성요소도 포함할 수 있는 비배타적인 의미로 해석되어야 한다.In this specification, only essential components necessary for description of the present disclosure are described, and components unrelated to the essence of the present disclosure are not mentioned. And it should not be interpreted in an exclusive sense that includes only the mentioned components, but in a non-exclusive sense that can also include other components.
그 밖에도, 본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그에 대한 상세한 설명은 축약하거나 생략한다. 한편, 각 실시 예는 독립적으로 구현되거나 동작될 수도 있지만, 각 실시 예는 조합되어 구현되거나 동작될 수도 있다.In addition, when describing the present disclosure, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present disclosure, the detailed description thereof is abbreviated or omitted. Meanwhile, each embodiment may be implemented or operated independently, but each embodiment may be implemented or operated in combination.
도 1은 본 개시의 일 실시 예에 따른 로봇 시스템을 설명하는 도면이다.1 is a diagram illustrating a robot system according to an embodiment of the present disclosure.
도 1을 참조하면, 로봇 시스템(1000)은 로봇(100), 전자 장치(200), 서버(300) 및 단말 장치(400)를 포함할 수 있다.Referring to FIG. 1 , the
로봇(100)은 특정 공간의 맵 데이터 및 3차원 정보를 포함할 수 있다. 로봇(100)은 특정 공간을 탐색하며 맵 데이터 및 3차원 정보를 생성할 수 있다. 또는, 로봇(100)은 서버(300)로부터 특정 공간의 맵 데이터 및 3차원 정보를 수신할 수 있다. 예를 들어, 특정 공간은 가정, 학교, 회사 등을 포함할 수 있다. 일 예로, 로봇(100)은 가정의 방, 부엌, 거실 등을 탐색할 수 있다. 로봇(100)은 각 공간을 탐색하면서 2차원 맵 데이터를 생성할 수 있다. 또한, 로봇(100)은 방, 부엌, 거실의 바닥, 벽, 천장을 식별할 수 있다. 로봇(100)은 식별된 바닥, 벽, 천장의 정보를 이용하여 3차원 정보를 생성할 수 있다. 또한, 로봇(100)은 각 공간에 배치된 오브젝트를 식별할 수도 있다. 예를 들어, 오브젝트는 식탁, 테이블, 책장, 책상 등을 포함할 수 있다.The
각 공간에는 전자 장치(200)가 배치될 수 있다. 예를 들어, 전자 장치(200)는 네트워크로 연결된 네트워크 장치일 수 있고, 네트워크로 연결되지 않은 일반 장치일 수 있다. 네트워크로 연결되지 않은 일반 장치는 리모컨 등으로 제어되는 전자 장치를 포함할 수 있다. 본 명세서에서는 네트워크 장치를 IoT(Internet Of Things) 장치로 칭하고, 리모컨으로 제어되고 네트워크에 연결되지 않는 일반 장치를 IR(Infra-Red) 장치라고 칭하기로 한다. 예를 들어, 전자 장치(200)는 냉장고, TV, 로봇 청소기, 세탁기, 건조기, 공조기, 전등, 스피커, 센서, 전원 장치, 라우터 등을 포함할 수 있다. 상술한 전자 장치(200)의 예는 일 예이며, 상술한 예에 국한되는 것은 아니다.An
서버(300)는 전자 장치(200)(예, IoT 장치) 및 로봇(100)과 통신을 수행할 수 있다. 서버(300)는 특정 공간에 배치된 전자 장치(200)로부터 정보를 수신하고, 전자 장치(200)의 정보를 로봇(100)으로 전송할 수 있다.The
예를 들어, 특정 공간에 배치된 전자 장치(200)는 서버(300)로 정보를 전송할 수 있다. 서버(300)로 전송하는 정보는 타입, 이름, 모델명, 제어 관련 정보 등을 포함하는 식별 정보를 포함할 수 있다. 서버(300)는 전자 장치(200)로부터 수신된 식별 정보를 로봇(100)으로 전송할 수 있다.For example, the
로봇(100)은 공간을 탐색하며 배치된 전자 장치(200)를 식별할 수 있다. 로봇(100)은 특정 공간에서 카메라를 통해 획득된 영상에 기초하여 전자 장치(200)를 식별할 수 있다. 로봇(100)은 식별된 전자 장치(200)의 타입에 대응되는 동작 확인 신호를 전자 장치(200)로 전송할 수 있다. 전자 장치(200)는 수신된 동작 확인 신호에 따라 동작을 수행할 수 있다. 로봇(100)은 전자 장치(200)의 동작을 식별하면, 공간 내 전자 장치의 위치 정보를 식별할 수 있다. 예를 들어, 로봇(100)은 서버(300)로부터 공간에 배치된 전등과 관련된 정보를 서버(300)로부터 수신할 수 있다. 로봇(100)은 공간 탐색 및 카메라를 통해 획득한 영상으로부터 방의 벽면에 배치된 전등을 식별할 수 있다. 로봇(100)은 전등으로 동작 확인 신호를 전송하고, 전등의 동작을 식별할 수 있다. 로봇(100)은 전등의 위치 정보를 식별할 수 있다. 예를 들어, 전등의 위치 정보는 방, 벽면, 전등의 좌표 정보 등을 포함할 수 있다. 로봇(100)은 전등의 식별 정보와 위치 정보를 매칭시킬 수 있다. 그리고, 로봇(100)은 전등의 식별 정보와 위치 정보가 매칭된 정보를 공간에 매핑하여 3차원 정보를 업데이트할 수 있다.The
로봇(100)은 전자 장치(200)의 식별 정보와 위치 정보가 공간에 매핑된 3차원 정보를 서버(300) 및/또는 단말 장치(400)로 전송할 수 있다. 서버(300)는 수신된 정보를 저장할 수 있다. 단말 장치(400)는 수신된 정보에 기초하여 제어 UI(User Interface)를 표시할 수 있다. 단말 장치(400)는 표시된 제어 UI 상에서 전자 장치(200)를 제어하는 명령을 입력받을 수 있다. 사용자의 제어 명령이 입력되면, 단말 장치(400)는 대응되는 전자 장치(200)로 입력된 제어 명령을 전송할 수 있다. 전자 장치(200)는 수신된 제어 명령에 따라 제어 동작을 수행할 수 있다.The
도 1에서는 서버(300)를 포함하는 로봇 시스템(300)을 설명하였으나, 서버(300)의 일부 기능 또는 모든 기능은 로봇(100)에서 수행될 수 있다. 예를 들어, 로봇(100)은 상술한 서버(300)의 기능을 모두 수행할 수 있다. 또는, 로봇(100)은 상술한 서버(300)의 기능을 수행하면서 추가적으로 필요한 정보를 서버(300)로 요청할 수 있다.Although FIG. 1 illustrates the
아래에서는 로봇 시스템(1000)의 다양한 예를 설명하기로 한다.Below, various examples of the
도 2는 본 개시의 일 실시 예에 따른 로봇의 구성을 설명하는 블록도이다.Figure 2 is a block diagram explaining the configuration of a robot according to an embodiment of the present disclosure.
도 2를 참조하면, 로봇(100)은 카메라(110), 통신 인터페이스(120), 메모리(130) 및 프로세서(140)를 포함한다.Referring to FIG. 2, the
카메라(110)는 로봇(100)의 주변 환경의 영상을 촬영할 수 있다. 프로세서(140)는 촬영된 영상으로부터 공간, 전자 장치(200), 오브젝트 등을 식별할 수 있다. 또는, 카메라(110)는 사용자의 영상을 촬영할 수 있다. 프로세서(140)는 촬영된 사용자의 영상으로부터 사용자의 위치, 시선 방향, 지시 방향 등을 포함하는 사용자 관련 정보를 식별할 수 있다. 또는, 프로세서(140)는 사용자의 표정, 동작, 사용자의 시선 등에 기초하여 제어 명령을 인식하고, 인식된 제어 명령 또는 인식된 영역에 대응되는 제어 동작을 수행할 수 있다. 예를 들어, 카메라(1110)는 CCD 센서, CMOS 센서를 포함할 수 있다. 또한, 카메라(110)는 RGB 카메라, 뎁스 카메라를 포함할 수도 있다.The
통신 인터페이스(120)는 외부 장치와 통신을 수행할 수 있다. 통신 인터페이스(120)는 외부 장치로부터 데이터를 수신하고, 식별된 데이터를 외부 장치로 전송할 수 있다. 예를 들어, 외부 장치는 전자 장치(200), 서버(300), 단말 장치(400)를 포함할 수 있다. 통신 인터페이스(120)는 서버(300)로부터 전자 장치(200)의 식별 정보를 수신할 수 있다. 그리고, 통신 인터페이스(120)는 전자 장치(200)의 식별 정보 및 위치 정보에 기초하여 특정 공간에 매핑된 3차원 정보를 단말 장치(400)로 전송할 수 있다. 또한, 통신 인터페이스(120)는 동작 확인 신호, 테스트 신호, 제어 신호를 전자 장치(200)로 전송할 수 있다.The
예를 들어, 통신 인터페이스(120)는 Wi-Fi, Wi-Fi 다이렉트, 블루투스, 지그비, DLNA, Wide, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project) 및 LTE(Long Term Evoloution)의 통신 방식 중 적어도 하나 이상의 통신 방식으로 외부 장치와 통신을 수행할 수 있다. 통신 인터페이스(120)는 통신 장치, 통신부, 통신 모듈, 송수신부 등으로 지칭될 수 있다.For example, the
메모리(130)는 로봇(100)의 동작과 관련된 알고리즘, 데이터, 소프트웨어 등을 저장할 수 있다. 메모리(130)에 저장된 알고리즘, 데이터, 소프트웨어 등은 프로세서(140)의 제어에 의해 프로세서(140)에 로딩되어 데이터 처리 과정을 수행할 수 있다. 또한, 메모리(130)는 전자 장치(200)의 식별 정보, 위치 정보, 3차원 정보 등을 저장할 수 있다. 예를 들어, 메모리(135)는 롬, 램, HDD, SSD, 메모리 카드 등의 타입으로 구현될 수 있다.The
프로세서(140)는 로봇(100)의 각 구성을 제어할 수 있다. 예를 들어, 프로세서(140)는 영상을 촬영하도록 카메라(110)를 제어하고, 외부 장치와 데이터를 송수신하도록 통신 인터페이스(110)를 제어할 수 있다. 로봇(100)은 하나의 프로세서(140)를 포함할 수 있고, 복수의 프로세서(140)를 포함할 수 있다.The
프로세서(140)는 카메라(110)를 통해 획득된 영상에서 전자 장치(200)를 식별하고, 식별된 전자 장치(200)의 정보를 획득할 수 있다. 예를 들어, 프로세서(140)는 서버(300)로부터 수신된 전자 장치(200)의 식별 정보로부터 영상에서 식별된 전자 장치(200)의 식별 정보를 획득할 수 있다. 또는, 전자 장치(200)의 식별 정보가 없는 경우(예, 전자 장치의 식별 정보 미저장, 미수신, 영상으로부터 식별된 전자 장치에 대응되는 식별 정보의 부존재), 프로세서(140)는 전자 장치(200)의 식별 정보를 요청하는 신호를 서버(300)로 전송하고, 서버(300)로부터 전자 장치(200)의 식별 정보를 수신하도록 통신 인터페이스(120)를 제어할 수 있다.The
프로세서(140)는 식별된 전자 장치(200)의 타입에 대응되는 동작 확인 신호를 전자 장치(200)로 전송하도록 통신 인터페이스(120)를 제어하고, 전자 장치(200)의 동작을 식별할 수 있다. 예를 들어, 전자 장치(200)의 타입이 광 출력 장치(예, 전등)이면, 프로세서(140)는 광을 출력하는 동작 확인 신호를 전자 장치(200)로 전송하도록 통신 인터페이스(120)를 제어하고, 광을 출력하는 전자 장치(200)의 영상을 촬영하도록 카메라(110)를 제어할 수 있다. 전자 장치(200)의 타입이 사운드 출력 장치(예, 스피커)이면, 프로세서(140)는 사운드를 출력하는 동작 확인 신호를 전자 장치(200)로 전송하도록 통신 인터페이스(120)를 제어하고, 전자 장치(200)에서 출력되는 사운드를 수신하도록 스피커를 제어할 수 있다. 전자 장치(200)의 타입이 통신 장치이면, 응답 신호를 출력하는 동작 확인 신호를 전자 장치(200)로 전송하고, 전자 장치(200)에서 출력되는 응답 신호를 수신하도록 통신 인터페이스(120)를 제어할 수 있다. 또는, 동작 확인 신호는 전자 장치(200)를 온/오프하는 신호를 포함할 수 있다. 프로세서(140)는 전자 장치(200)로 전송한 동작 확인 신호에 대응되는 전자 장치(200)의 동작을 식별하여 영상에 포함된 전자 장치(200)가 식별 정보에 대응되는 전자 장치(200)인지 여부를 확인할 수 있다.The
예를 들어, 전자 장치(200)는 네트워크로 연결된 장치일 수 있고, 네트워크로 연결되지 않은 장치일 수 있다. 네트워크로 연결된 장치는 IoT 장치일 수 있고, 네트워크로 연결되지 않은 장치는 IR 장치일 수 있다.For example, the
전자 장치(200)가 IR 장치인 경우, 프로세서(140)는 IR 장치를 촬영하도록 카메라(110)를 제어하고, 촬영된 이미지를 서버(300)로 전송할 수 있다. 서버(300)는 수신된 이미지에 기초하여 IR 장치를 식별하고, 식별된 IR 장치의 식별 정보를 획득할 수 있다. 서버(300)는 IR 장치의 식별 정보를 로봇(100)으로 전송할 수 있다. 따라서, 로봇(100)은 캡쳐된 IR 장치의 이미지에 기초하여 서버(300)로부터 IR 장치의 식별 정보를 획득할 수 있다.If the
또는, 전자 장치(200)가 IoT 장치이고, 복수의 IoT 장치가 존재하면, 프로세서(140)는 복수의 IoT 장치를 동시에 식별할 수 있다. 본 명세서에서 동시의 의미는 특정 시점에 일치하는 시간 뿐만 아니라 매우 짧은 시간 간격의 순차적인 시간도 포함한다. 예를 들어, 동작 개시 시점으로부터 1초 후, 제어 신호가 복수의 IoT 장치로 전송되는 경우 뿐만 아니라 1초, 1.1초, 1.2초, 1.3초, … 에 순차적으로 각각의 IoT 장치로 제어 신호가 전송되는 경우도 포함될 수 있다. 프로세서(140)는 복수의 IoT 장치에 각각 구별되는 동작 확인 신호를 동시에 전송하고, 복수의 IoT 장치의 동작을 동시에 식별할 수 있다. 예를 들어, 구별되는 동작 확인 신호는 색상, 점멸 패턴, 그라데이션, 주파수, 사운드 출력 패턴 등이 구분되는 신호를 포함할 수 있다.Alternatively, if the
프로세서(140)는 전자 장치(200)의 위치 정보를 식별할 수 있다. 예를 들어, 위치 정보는 방, 거실, 부엌과 같은 2차원의 위치 정보 뿐만 아니라 좌측 벽, 우측 벽, 로봇(100)이 바라보는 방향을 기준으로 하는 정면 벽, 천장, 바닥, 오브젝트 및 각 영역의 좌표 정보를 포함하는 3차원의 위치 정보를 포함할 수 있다. 프로세서(140)는 전자 장치(200)의 식별 정보 및 위치 정보에 기초하여 전자 장치(200)를 특정 공간에 매핑하여 3차원 정보를 업데이트할 수 있다. 복수의 전자 장치(200)가 위치한 경우, 프로세서(140)는 복수의 전자 장치(200)의 위치 정보를 동시에 식별할 수 있다.The
프로세서(140)는 전자 장치(200)의 식별 정보 및 위치 정보가 매핑된 3차원 정보를 단말 장치(400)로 전송하도록 통신 인터페이스(120)를 제어할 수 있다. 단말 장치(400)는 수신된 정보에 기초하여 전자 장치(200)를 제어하는 제어 UI를 표시할 수 있다.The
또한, 로봇(100)은 특정 공간에 배치된 전자 장치(200)의 3차원 정보를 생성(또는, 업데이트)한 후 환경의 변화를 감지할 수 있다. 예를 들어, 환경의 변화는 새로운 전자 장치(200)의 배치, 기존 전자 장치(200)의 부재, 새로운 오브젝트의 배치 등과 같은 변화를 포함할 수 있다.Additionally, the
일 예로서, 프로세서(140)는 카메라(110)를 통해 획득된 영상에서 새로운 전자 장치(200)가 식별되면, 식별된 전자 장치(200)의 타입에 대응되는 기존 동작 확인 신호를 새로운 전자 장치(200)로 전송할 수 있다. 기존 동작 확인 신호에 따른 새로운 전자 장치(200)의 동작이 식별되면, 프로세서(140)는 새로운 전자 장치(200)를 위치가 변경된 기존 전자 장치로 식별할 수 있다. 프로세서(140)는 기존 전자 장치의 위치 정보를 수정한 3차원 정보를 업데이트할 수 있다.As an example, when a new
또는, 프로세서(140)는 카메라(110)를 통해 획득된 영상에서 새로운 오브젝트를 식별할 수 있다. 프로세서(140)는 영상에서 3차원 정보 중 바닥에 위치한 새로운 오브젝트를 식별하면, 새로운 오브젝트의 위치와 관련된 정보를 로봇 청소기로 전송하도록 통신 인터페이스(120)를 제어할 수 있다. 로봇 청소기는 수신된 정보에 기초하여 청소 맵을 업데이트할 수 있다. 즉, 프로세서(140)는 새로운 오브젝트의 위치와 관련된 정보를 로봇 청소기로 전송하여 로봇 청소기의 청소 맵을 업데이트하도록 통신 인터페이스(120)를 제어할 수 있다.Alternatively, the
또는, 프로세서(140)는 카메라를 통해 획득된 영상에서 새로운 오브젝트가 식별되면, 전자 장치(200)의 타입에 대응되는 테스트 신호를 통신 인터페이스(120)를 통해 전자 장치(200)로 전송할 수 있다. 프로세서(140)는 테스트 신호에 따른 전자 장치(200)의 동작 성능을 식별하고, 동작 성능이 기 설정된 범위를 벗어나면 동작 성능과 관련된 정보를 단말 장치(400)로 전송하도록 통신 인터페이스(120)를 제어할 수 있다. 구체적인 설명은 후술한다.Alternatively, when a new object is identified in an image acquired through a camera, the
또는, 로봇(100)이 사용자의 근처에 위치하고, 사용자의 음성 명령을 입력받으면, 프로세서(140)는 사용자를 촬영하도록 카메라(110)를 제어할 수 있다. 프로세서(140)는 카메라(110)를 통해 획득된 사용자의 영상에서 사용자의 위치, 시선 방향, 지시 방향 등을 포함하는 사용자 관련 정보를 식별할 수 있다. 프로세서(140)는 식별된 사용자 관련 정보에 기초하여 제어 대상 전자 장치(200)를 식별할 수 있다. 구체적인 설명은 후술한다.Alternatively, when the
도 3은 본 개시의 일 실시 예에 따른 로봇의 구체적인 구성을 설명하는 블록도이다.Figure 3 is a block diagram explaining the specific configuration of a robot according to an embodiment of the present disclosure.
도 3을 참조하면, 로봇(100)은 카메라(110), 통신 인터페이스(120), 메모리(130), 프로세서(140), 유저 인터페이스(150), 마이크(155), 센서(160), 스피커(165), 디스플레이(170), 구동부(175), 전원부(180)를 포함할 수 있다. 카메라(110), 통신 인터페이스(120), 메모리(130)는 도 2에서 설명한 바와 동일할 수 있다.Referring to FIG. 3, the
유저 인터페이스(150)는 사용자로부터 명령 등을 입력받을 수 있다. 유저 인터페이스(150)는 다양한 형태로 구현될 수 있다. 예를 들어, 유저 인터페이스(150)는 키보드, 버튼, 키 패드, 터치 패드, 터치 스크린 등을 포함할 수 있다. 유저 인터페이스(150)는 입력 장치, 입력부, 입력 모듈 등으로 불릴 수도 있다.The
마이크(155)는 사용자의 음성을 입력받을 수 있다. 프로세서(140)는 입력된 음성에 기초하여 제어 명령을 인식하고, 인식된 제어 명령에 대응되는 제어 동작을 수행할 수 있다.The
센서(160)는 사용자와 관련된 정보 또는 주변 환경을 감지할 수 있다. 프로세서(140)는 감지된 정보에 기초하여 제어 동작을 수행할 수 있다. 예를 들어, 센서(160)는 거리 센서, 이미지 센서, 트래킹 센서, 각도 센서, 가속도 센서, 중력 센서, 자이로 센서, 지자기 센서, 방향 센서, 모션 인식 센서, 근접 센서, 전압계, 전류계, 기압계, 습도계, 온도계, 조도 센서, 열 감지 센서, 터치 센서, 적외선 센서, 초음파 센서 등을 포함할 수 있다. 거리 센서는 초음파 센서, 레이저 센서, LiDar 등으로 구현될 수 있다.The
스피커(165)는 사운드 신호 처리가 수행된 사운드 신호를 출력한다. 예를 들어, 스피커(165)는 사용자의 입력 명령, 로봇(100)의 상태 관련 정보, 동작 관련 정보, 진단 대상 전자 장치의 이상 여부에 대한 알림 등을 음성이나 알림음으로 출력할 수 있다.The
디스플레이(170)는 정보를 시각적 방식으로 표시할 수 있다. 예를 들어, 디스플레이(150)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode), 터치 스크린 등으로 구현될 수 있다. 디스플레이(170)가 터치 스크린으로 구현되는 경우, 로봇(100)은 터치 스크린을 통해 제어 명령을 입력받을 수 있다.
구동부(175)는 로봇(100)를 이동시키거나 기 설정된 제어 동작을 수행할 수 있다. 또는, 구동부(175)는 카메라(110) 또는 카메라(110)가 포함된 파트를 상하좌우로 회전시킬 수 있다. 구동부(175)는 저장된 맵 데이터, 감지된 정보에 기초한 프로세서(140)의 제어에 의해 동작할 수 있다. 예를 들어, 구동부(165)는 이동을 위한 휠 등을 포함하는 모듈 또는 기 설정된 제어 동작을 수행하는 로봇 암 등의 형태로 구현될 수 있다.The driving
전원부(180)는 외부로부터 전력을 공급받아 로봇(100)의 다양한 구성에 전력을 공급할 수 있다.The
로봇(100)은 상술한 구성 모두를 포함할 수 있고, 일부 구성을 포함할 수 있다. 또는 로봇(100)은 상술한 구성 이외에 추가적인 구성을 포함할 수도 있다.The
지금까지 로봇(100)의 구성을 설명하였다. 아래에서는 로봇(100)이 동작하는 과정에 대해 설명한다.So far, the configuration of the
도 4 내지 도 6은 본 개시의 일 실시 예에 따른 전자 장치를 식별하는 과정을 설명하는 도면이다. 그리고, 도 7은 본 개시의 일 실시 예에 따른 식별된 전자 장치를 3차원 정보에 매핑하는 과정을 설명하는 도면이다.4 to 6 are diagrams illustrating a process for identifying an electronic device according to an embodiment of the present disclosure. And, FIG. 7 is a diagram illustrating a process of mapping an identified electronic device to 3D information according to an embodiment of the present disclosure.
도 4 내지 도 6에는 특정 공간에 설치된 전자 장치(200a, 200b, 200c, 200d)와 로봇(100)이 도시되어 있다. 예를 들어, 특정 공간은 방(room)(10)일 수 있다.4 to 6 show
도 4를 참조하면, 방(10)에는 신규로 전자 장치(200a, 200b, 200c, 200d)가 설치될 수 있다. 로봇(100)은 서버(300)로부터 신규로 설치된 전자 장치(200a, 200b, 200c, 200d)의 식별 정보를 수신할 수 있다. 신규로 설치된 전자 장치(200a, 200b, 200c, 200d)의 위치 정보는 없으므로 로봇(100)은 전자 장치(200a, 200b, 200c, 200d)를 unknown으로 분류할 수 있다. 로봇(100)은 각 공간을 탐색하면서 방(10)으로 이동할 수 있다. 로봇(100)은 카메라를 이용하여 방(10)에 설치된 전자 장치(200a, 200b, 200c, 200d)를 식별할 수 있다. 로봇(100)은 전자 장치(200a, 200b, 200c, 200d)의 식별 정보를 알고 있으므로 각 전자 장치(200a, 200b, 200c, 200d)의 타입을 알 수 있다. 로봇(100)은 각 전자 장치(200a, 200b, 200c, 200d)로 전자 장치의 타입에 대응되는 동작 확인 신호를 전송할 수 있다. 도 4에 도시된 바와 같이, 로봇(100)은 제2 전자 장치(200b)로 제2 전자 장치(200b)의 타입에 대응되는 동작 확인 신호를 전송할 수 있다. 제2 전자 장치(200b)는 로봇(100)으로부터 타입에 대응되는 동작 확인 신호를 수신하였으므로 동작 확인 신호에 기초하여 동작을 수행할 수 있다.Referring to FIG. 4 , new
예를 들어, 제2 전자 장치(200b)의 타입이 광 출력 장치이면, 동작 확인 신호는 광을 출력하는 제어 신호일 수 있다. 제2 전자 장치(200b)의 타입이 사운드 출력 장치이면, 동작 확인 신호는 사운드를 출력하는 제어 신호일 수 있다. 제2 전자 장치(200b)의 타입이 통신 장치이면, 동작 확인 신호는 응답 신호를 출력하는 제어 신호일 수 있다. For example, if the type of the second
도 4에 도시된 제2 전자 장치(200b)는 전등일 수 있고, 동작 확인 신호는 전등 타입에 대응되는 광을 출력하는 제어 신호일 수 있다. 제2 전자 장치(200b)는 수신된 동작 확인 신호에 기초하여 광을 출력할 수 있다. 로봇(100)은 카메라를 이용하여 광을 출력하는 제2 전자 장치(200b)의 영상을 촬영할 수 있다. 그리고, 로봇(100)은 제2 전자 장치(200b)의 동작을 확인할 수 있다.The second
만일, 제2 전자 장치(200b)의 타입이 사운드 출력 장치이면, 동작 확인 신호는 사운드를 출력하는 제어 신호일 수 있다. 로봇(100)은 사운드 타입 및 볼륨 정보를 포함하는 동작 확인 신호를 제2 전자 장치(200b)로 전송하고, 제2 전자 장치(200b)의 출력 사운드를 확인할 수 있다. 제2 전자 장치(200b)의 타입이 통신 장치이면, 동작 확인 신호는 응답 신호를 출력하는 제어 신호일 수 있다. 로봇(100)은 제2 전자 장치(200b)의 신호 강도, 응답 메시지에 기초하여 제2 전자 장치(200b)를 식별할 수 있다. 또한, 제2 전자 장치(200b)는 동작 상황을 표시하는 인디케이터를 포함할 수 있다. 제2 전자 장치(200b)는 동작 확인 신호에 기초하여 동작을 수행할 때, 인디케이터를 이용하여 동작 상황을 나타낼 수 있다. 따라서, 제2 전자 장치(200b)가 사운드 출력 장치 또는 통신 장치인 경우에도 로봇(100)은 동작하는 제2 전자 장치(200b)의 영상을 촬영하고, 촬영된 영상을 함께 이용하여 제2 전자 장치(200b)의 동작을 식별할 수 있다.If the type of the second
제2 전자 장치(200b)의 동작을 확인하면, 로봇(100)은 제2 전자 장치(200b)의 위치 정보를 식별할 수 있다. 예를 들어, 방(10)은 좌측벽(11), 우측벽(12), 정면벽(13), 천장(14), 바닥(15)을 포함할 수 있다. 로봇(100)은 카메라를 이용하여 방(10)의 영상을 촬영하고, 방(10)의 각 면을 식별할 수 있다. 로봇(100)은 제2 전자 장치(200b)의 위치가 천장(14)이라고 식별할 수 있다.Upon confirming the operation of the second
도 5에 도시된 바와 같이, 로봇(100)은 천장(14)에 가상의 그리드를 그릴 수 있다. 로봇(100)은 가상의 그리드 중 임의의 지점을 기준점으로 설정할 수 있다. 그리고, 로봇(100)은 기준점과 가상의 그리드에 기초하여 각 전자 장치(200a, 200b, 200c)의 좌표를 추출할 수 있다. 예를 들어, 도 5에 도시된 바와 같이, 로봇(100)은 제1 전자 장치(200a)의 좌표는 (3, 3), 제2 전자 장치(200b)의 좌표는 (3, 5), 제3 전자 장치(200c)의 좌표는 (3, 7)이라고 판단할 수 있다.As shown in FIG. 5, the
상술한 예에서 로봇(100)은 서버(300)로부터 수신한 제2 전자 장치(200b)의 식별 정보에 기초하여 제2 전자 장치(200b)를 식별할 수 있다. 그리고, 로봇(100)은 제2 전자 장치(200b)의 위치가 방(10), 천장(14), 좌표 (3, 5)라고 판단할 수 있다. 로봇(100)은 제2 전자 장치(200b)의 식별 정보와 위치 정보를 매칭시킬 수 있다. 또한, 로봇(100)은 전자 장치(200a, 200b, 200c, 200d)가 설치되기 전의 특정 공간에 대한 3차원 정보를 생성할 수 있다. 예를 들어, 로봇(100)은 미리 탐색을 통해 특정 공간의 3차원 정보를 생성할 수 있고, 서버(300)로부터 특정 공간에 대한 정보를 수신하여 3차원 정보를 생성할 수도 있다. 따라서, 로봇(100)은 식별 정보와 위치 정보가 매칭된 매칭 정보를 미리 생성된 3차원 정보에 매핑하여 미리 생성된 3차원 정보를 업데이트할 수 있다.In the above-described example, the
로봇(100)은 제1 전자 장치(200a), 제3 전자 장치(200c), 제4 전자 장치(200d)에 대해서도 유사한 과정으로 위치 정보를 판단하고, 각 전자 장치(200a, 200c, 200d)의 식별 정보와 위치 정보를 매칭시킬 수 있다. 그리고, 로봇(100)은 각 전자 장치(200a, 200c, 200d)의 매칭 정보를 3차원 정보에 매핑하여 3차원 정보를 업데이트할 수 있다.The
상술한 제1 내지 제4 전자 장치(200a, 200b, 200c, 200d)는 네트워크에 연결된 IoT 장치일 수 있다. 그러나, 방에는 네트워크에 연결되지 않는 IR 장치가 위치할 수도 있다. IR 장치는 네트워크에 연결되지 않고, 리모컨으로 제어되는 장치일 수 있다.The first to fourth
도 6을 참조하면, IR 장치인 제5 전자 장치(200e)가 도시되어 있다. 로봇(100)은 네트워크에 연결되지 않은 제5 전자 장치(200e)의 식별 정보를 모를 수 있다. 로봇(100)은 카메라를 이용하여 방(10)을 탐색할 때, 제5 전자 장치(200e)를 식별할 수 있다. 로봇(100)은 제5 전자 장치(200e)의 식별 정보를 모르기 때문에 제5 전자 장치(200e)에 대한 매칭 정보를 생성할 수 없다.Referring to FIG. 6, a fifth
로봇(100)은 제5 전자 장치(200e)의 이미지를 캡쳐하고, 캡쳐한 이미지를 서버(300)로 전송할 수 있다. 로봇(100)은 하나의 이미지를 캡쳐하여 하나의 이미지를 서버(300)로 전송할 수 있고, 복수의 이미지를 캡쳐하여 복수의 이미지를 서버(300)로 전송할 수도 있다. 예를 들어, 로봇(100)은 제5 전자 장치(200e)의 정면, 측면, 후면 등과 같이 다양한 각도에서 제5 전자 장치(200e)의 이미지를 캡쳐하고, 캡쳐된 복수의 이미지를 서버(300)로 전송할 수 있다. 또한, 로봇(100)은 제5 전자 장치(200e)에 표시된 텍스트를 인식하고, 인식된 텍스트 영역을 캡쳐한 이미지를 서버(300)로 전송할 수 있다. 서버(300)는 로봇(100)으로부터 제5 전자 장치(200e)에 대한 이미지를 수신할 수 있다. 서버(300)는 수신된 이미지로부터 제5 전자 장치(200e)의 형태, 모양, 텍스트를 인식할 수 있다. 그리고, 서버(300)는 검색을 통해 제5 전자 장치(200e)의 식별 정보를 획득할 수 있다. 서버(300)는 획득된 제5 전자 장치(200e)의 식별 정보를 로봇(100)으로 전송할 수 있다. 로봇(100)은 수신된 제5 전자 장치(200e)의 식별 정보에 기초하여 제5 전자 장치(200e)의 위치 정보를 식별할 수 있다.The
예를 들어, 로봇(100)은 제5 전자 장치(200e)의 식별 정보에 기초하여 제5 전자 장치(200e)의 타입에 대응되는 동작 확인 신호를 제5 전자 장치(200e)로 전송할 수 있다. 예를 들어, 제5 전자 장치(200e)는 선풍기일 수 있고, 동작 확인 신호는 선풍기를 온/오프하는 제어 신호 또는 팬을 동작시키는 제어 신호일 수 있다. 로봇(100)은 카메라를 이용하여 선풍기의 동작을 확인할 수 있다. 로봇(100)은 선풍기의 동작을 확인하면, 선풍기의 위치 정보를 식별할 수 있다. 로봇(100)은 선풍기가 바닥(15)에 위치한 것을 확인할 수 있다. 로봇(100)은 바닥(15)에 가상의 그리드를 생성하고, 기준점을 설정할 수 있다. 로봇(100)은 가상의 그리드 및 기준점에 기초하여 선풍기의 좌표 정보를 획득할 수 있다. 예를 들어, 도 6에 도시된 바와 같이, 로봇(100)은 방(10), 바닥(15), 좌표 (1, 8)과 같이 선풍기의 위치 정보를 식별할 수 있다. 로봇(100)은 선풍기의 식별 정보와 위치 정보를 매칭하여 매칭 정보를 생성할 수 있다. 그리고, 로봇(100)은 매칭 정보를 3차원 정보에 매핑하여 3차원 정보를 업데이트할 수 있다.For example, the
도 7을 참조하면, 로봇(100)은 위치 정보를 모르는 전자 장치(200)를 unknown으로 설정(1a)할 수 있다. 예를 들어, 5에 도시된 제1 내지 제4 전자 장치(200a, 200b, 200c, 200d)는 전등일 수 있다. 로봇(100)은 제1 내지 제4 전등의 식별 정보를 알지만 위치 정보를 모를 수 있다. 식별 정보는 전자 장치의 타입 정보를 포함할 수 있다. 따라서, 로봇(100)은 제1 내지 제4 전등을 각각 unknown lighting으로 설정(1a)할 수 있다. 로봇(100)은 동작 확인 신호를 각각 제1 내지 제4 전등으로 전송하여 동작을 확인할 수 있다. 로봇(100)은 제1 내지 제4 전등 각각의 동작을 확인하고, 제1 내지 제4 전등 각각의 식별 정보와 위치 정보를 매칭시킨 매칭 정보를 생성할 수 있다. 그리고, 로봇(100)은 3차원 정보(1b)에 생성된 매칭 정보를 매핑시켜 3차원 정보(1b)를 업데이트할 수 있다. 로봇(100)은 업데이트된 3차원 정보(1b)를 단말 장치(400)로 전송할 수 있다. 단말 장치(400)는 업데이트된 3차원 정보(1b)에 기초하여 각 공간의 이미지 및 배치된 전자 장치를 포함하는 제어 UI를 표시할 수 있다.Referring to FIG. 7, the
로봇(100)은 방(10)에 위치한 전자 장치의 식별이 완료되면, 다른 공간으로 이동하여 유사한 과정을 수행할 수 있다.Once the
로봇(100)은 복수의 전자 장치의 동작을 동시에 확인할 수 있다.The
도 8은 본 개시의 일 실시 예에 따른 복수의 전자 장치를 동시에 식별하는 과정을 설명하는 도면이다.FIG. 8 is a diagram illustrating a process for simultaneously identifying a plurality of electronic devices according to an embodiment of the present disclosure.
도 8을 참조하면, 복수의 전자 장치(200a, 200b, 200c, 200d, 200e, 200f)가 도시되어 있다. 상술한 바와 같이, 로봇(100)은 복수의 전자 장치(200a, 200b, 200c, 200d, 200e, 200f)의 타입을 포함하는 식별 정보를 알고 있다. 일 예로, 도 8에 도시된 바와 같이, 전자 장치는 전등일 수 있고, 로봇(100)은 각 전등을 unknown lighting으로 설정(3a)할 수 있다. 로봇(100)은 각 전등에 대응되는 동작 확인 신호를 복수의 전등으로 동시에 전송할 수 있다. 복수의 전등으로 동시에 전송되는 동작 확인 신호는 각각 구별되는 동작 확인 신호일 수 있다. 예를 들어, 각각 구별되는 동작 확인 신호는 색상, 점멸 패턴, 그라데이션, 주파수, 사운드 출력 패턴 등이 구별되는 신호일 수 있다.Referring to FIG. 8, a plurality of
예를 들어, 도 8에 도시된 바와 같이, 로봇(100)은 제1 전자 장치(200a)로 제1 점멸 패턴의 신호를 전송하고, 제5 전자 장치(200e)로 제2 점멸 패턴의 신호를 전송할 수 있다. 로봇(100)은 제3 전자 장치(200c)로 제1 색상의 신호를 전송하고, 제4 전자 장치(200d)로 제2 색상의 신호를 전송할 수 있다. 로봇(100)은 제6 전자 장치(200f)로 그라데이션의 신호를 전송할 수 있다. 각 전자 장치(200a, 200b, 200c, 200d, 200e, 200f)는 수신된 신호에 대응되는 동작을 수행할 수 있다. 로봇(100)은 카메라를 이용하여 동작하는 복수의 전자 장치(200a, 200b, 200c, 200d, 200e, 200f)의 영상을 동시에 촬영할 수 있다. 로봇(100)은 각 전자 장치200a, 200b, 200c, 200d, 200e, 200f)의 동작을 식별하여 복수의 전자 장치(200a, 200b, 200c, 200d, 200e, 200f)를 동시에 식별할 수 있다. 또한, 로봇(100)은 획득된 이미지에 기초하여 복수의 전자 장치(200a, 200b, 200c, 200d, 200e, 200f)의 위치를 동시에 식별할 수 있다. 로봇(100)은 복수의 전자 장치(200a, 200b, 200c, 200d, 200e, 200f)의 식별 정보와 위치 정보를 매칭시킨 매칭 정보(3b)를 동시에 생성할 수 있다. 로봇(100)은 생성된 매칭 정보(3b)에 기초하여 3차원 정보를 업데이트할 수 있다. 그리고, 로봇(100)은 업데이트된 3차원 정보(3b)를 단말 장치(400)로 전송할 수 있다. 단말 장치(400)는 업데이트된 3차원 정보(3b)에 기초하여 각 공간의 이미지 및 배치된 전자 장치를 포함하는 제어 UI를 표시할 수 있다.For example, as shown in FIG. 8, the
복수의 전자 장치(200a, 200b, 200c, 200d, 200e, 200f)는 로봇(100)으로부터 구별되는 동작 확인 신호를 동시에 수신하므로 네트워크에 연결된 장치일 수 있고, 네트워크에 연결된 장치는 IoT 장치일 수 있다.A plurality of electronic devices (200a, 200b, 200c, 200d, 200e, 200f) simultaneously receive distinct operation confirmation signals from the
도 8에서는 전자 장치가 전등인 예가 도시되어 있어, 동작 확인 신호가 색상, 점멸 패턴, 그라데이션으로 구별되는 예를 설명하였다. 만일, 전자 장치가 오디오 장치이면, 로봇(100)은 온/오프 패턴, 주파수, 사운드 출력 패턴으로 구별되는 동작 확인 신호를 각 오디오 장치로 전송할 수 있다.In FIG. 8 , an example in which the electronic device is a light is shown, and an example in which the operation confirmation signal is distinguished by color, flashing pattern, and gradation has been described. If the electronic device is an audio device, the
도 9는 본 개시의 일 실시 예에 따른 전자 장치를 식별하는 로봇 시스템의 동작을 설명하는 타이밍도이다.Figure 9 is a timing diagram explaining the operation of a robot system that identifies an electronic device according to an embodiment of the present disclosure.
도 9를 참조하면, 로봇(100)은 서버(300)로부터 전자 장치(200)의 정보를 수신할 수 있다(S110). 예를 들어, 특정 공간에 전자 장치(200)가 설치되면, 전자 장치(200)는 식별 정보를 서버(300)로 전송할 수 있다. 서버(300)는 수신된 전자 장치(200)의 식별 정보를 로봇(100)으로 전송할 수 있다. 예를 들어, 식별 정보는 타입, 이름, 모델명, 제어 관련 정보 등을 포함할 수 있다.Referring to FIG. 9, the
로봇(100)은 전자 장치를 탐색할 수 있다(S120). 로봇(100)은 카메라를 이용하여 특정 공간에 위치하는 전자 장치(200)를 탐색할 수 있다. 로봇(100)이 전자 장치(200)를 발견하면, 식별 정보를 획득할 수 있다. 예를 들어, 발견된 전자 장치(100)가 IoT 장치이면, 로봇(100)은 수신된 식별 정보 중에서 발견된 전자 장치(100)의 타입에 대응되는 식별 정보를 획득할 수 있다. 또는, 발견된 전자 장치가 IR 장치이면, 로봇(100)은 전자 장치(200)의 이미지를 촬영하고, 촬영된 이미지를 서버(300)로 전송할 수 있다. 그리고, 로봇(100)은 서버(300)로부터 전자 장치(200)의 식별 정보를 획득할 수 있다.The
로봇(100)은 전자 장치(200)로 동작 확인 신호를 전송할 수 있다(S130). 동작 확인 신호는 전자 장치(200)의 타입에 대응되는 신호일 수 있다. 예를 들어, 전자 장치(200)의 타입이 광 출력 장치이면, 동작 확인 신호는 광을 출력하는 제어 신호일 수 있다. 전자 장치(200)의 타입이 사운드 출력 장치이면, 동작 확인 신호는 사운드를 출력하는 제어 신호일 수 있다. 전자 장치(200)의 타입이 통신 장치이면, 동작 확인 신호는 응답 신호를 출력하는 제어 신호일 수 있다. 또는, 동작 확인 신호는 전자 장치(200)를 온/오프하는 신호를 포함할 수 있다.The
만일, 전자 장치(200)가 IoT 장치이고, 복수의 동일한 전자 장치이면, 로봇(100)은 복수의 전자 장치(200)에 각각 구별되는 동작 확인 신호를 동시에 전송할 수 있다. 로봇(100)은 복수의 전자 장치(200)의 동작을 동시에 식별할 수 있다. 본 명세서에서 ‘동시’는 동일한 시간 뿐만 아니라 동일한 시간으로 간주할 수 있는 순차적인 일련의 시간을 포함할 수 있다.If the
전자 장치(200)는 수신된 동작 확인 신호에 따라 동작하고(S140), 로봇(100)은 전자 장치를 식별할 수 있다(S150). 예를 들어, 전자 장치(200)가 광 출력 장치이면, 로봇(100)은 카메라를 이용하여 전자 장치(200)의 광 출력, 점멸 등의 동작을 확인할 수 있다. 전자 장치(200)가 사운드 출력 장치이면, 로봇(100)은 카메라를 이용하여 촬영한 전자 장치(200)의 동작 영상 및 스피커를 이용하여 전자 장치(200)의 사운드 출력, 사운드 출력 패턴, 주파수, 볼륨 등의 정보에 기초하여 전자 장치(200)의 동작을 확인할 수 있다. 전자 장치(200)가 통신 장치이면, 로봇은 카메라를 이용하여 촬영한 전자 장치(200)의 동작 영상 및 주파수, 신호 강도, 응답 메시지 등의 정보에 기초하여 전자 장치(200)의 동작을 확인할 수 있다.The
로봇(100)은 동작 확인 신호에 따른 전자 장치(200)의 동작이 식별되면, 특정 공간 내 전자 장치(200)의 위치 정보를 식별할 수 있다.When the operation of the
로봇(100)은 전자 장치와 식별 정보와 위치 정보를 동기화하고(S160), 로봇(100)은 3차원 정보를 매핑할 수 있다(S170). 로봇(100)은 전자 장치(200)의 식별 정보 및 위치 정보를 매칭한 매칭 정보를 생성할 수 있다. 그리고, 로봇(100)은 전자 장치(200)를 특정 공간에 매핑하여 3차원 정보를 업데이트할 수 있다.The
또한, 로봇(100)은 매칭 정보 또는 3차원 정보를 서버(300)로 전송하고, 서버(300)는 저장된 전자 장치(200)의 정보를 업데이트할 수 있다(S180). 또한, 로봇(10)은 매칭 정보가 매핑되어 업데이트된 3차원 정보를 단말 장치로 전송할 수도 있다.Additionally, the
도 10은 본 개시의 일 실시 예에 따른 이동한 전자 장치를 식별하는 과정을 설명하는 도면이다.FIG. 10 is a diagram illustrating a process for identifying a moving electronic device according to an embodiment of the present disclosure.
도 10을 참조하면, 전자 장치(200)가 제1 공간에서 제2 공간으로 이동한 예가 도시되어 있다. 예를 들어, 제1 공간은 방(10)이고, 제2 공간은 거실(20)일 수 있다. 그리고, 전자 장치(200)는 상술한 예에서 설명한 로봇(100)에 의해 매칭 정보가 생성되어 3차원 정보에 업데이트된 장치일 수 있다.Referring to FIG. 10, an example of the
로봇(100)은 공간을 탐색하면서 공간을 촬영할 수 있다. 로봇(100)은 획득된 영상에서 새로운 전자 장치(200)가 식별되면, 식별된 전자 장치의 타입에 대응되는 기존 동작 확인 신호를 새로운 전자 장치(200)로 전송할 수 있다. 상술한 바와 같이, 전자 장치가 공간에 배치되면, 로봇(100)은 서버(300)로부터 배치된 전자 장치의 식별 정보를 수신할 수 있다. 로봇(100)이 특정 공간에서 새로운 전자 장치를 발견하였으나 서버(300)로부터 식별 정보를 수신하지 못 하였다면, 새로운 전자 장치는 타 공간에서 이동한 전자 장치일 가능성이 있다. 따라서, 로봇(100)은 기존 동작 확인 신호에 따른 새로운 전자 장치(200)의 동작이 식별되면, 새로운 전자 장치(200)를 위치가 변경된 기존 전자 장치로 식별할 수 있다. 로봇(100)은 기존 전자 장치의 식별 정보 및 기존 위치 정보를 매칭한 매칭 정보를 포함하고 있다. 따라서, 로봇(100)은 새로운 전자 장치(200)의 위치 정보를 식별하고, 기존 매칭 정보를 수정할 수 있다. 그리고, 로봇(100)은 전자 장치(200)의 위치 정보를 수정한 3차원 정보를 업데이트할 수 있다.The
전자 장치(200)의 위치가 변경된 경우 주변 환경의 영향에 따라 전자 장치(200)의 성능이 달라질 수 있다. 또는, 전자 장치(200) 주변에 새로운 오브젝트가 배치됨에 따라 전자 장치(200)의 성능이 배치된 오브젝트의 영향을 받을 수 있다. 따라서, 로봇(100)은 전자 장치의 위치가 변경된 경우 또는 새로운 오브젝트가 배치된 경우 전자 장치(200)의 성능을 테스트할 수 있다.When the location of the
도 11 및 도 12는 본 개시의 일 실시 예에 따른 주변 오브젝트에 의한 영향을 확인하는 과정을 설명하는 도면이다.11 and 12 are diagrams illustrating a process for confirming the influence of surrounding objects according to an embodiment of the present disclosure.
도 11을 참조하면, 방(10)에 새로운 오브젝트(600a)가 배치된 도면이 도시되어 있다. 예를 들어, 제2 전자 장치(200b)는 전등일 수 있고, 전등 아래에 책장이 배치될 수 있다. 전등 아래 배치된 책장은 전등에 의한 방의 밝기 등에 영향을 줄 수 있다. 로봇(100)은 카메라를 통해 획득된 영상에서 새로운 오브젝트(600a)를 식별할 수 있다. 로봇(100)은 제2 전자 장치(200b)의 타입에 대응되는 테스트 신호를 제2 전자 장치(200b)로 전송할 수 있다. 예를 들어, 테스트 신호는 동작 확인 신호와 동일한 신호일 수 있다. 또는, 테스트 신호는 전자 장치를 턴-온 하는 신호일 수 있다. 제2 전자 장치(200b)는 수신된 테스트 신호에 따라 동작을 수행할 수 있다. 로봇(100)은 테스트 신호에 따른 제2 전자 장치(200b)의 동작 성능을 식별할 수 있다. 예를 들어, 제2 전자 장치(200b)가 전등인 경우 조도 등을 측정할 수 있다. 제2 전자 장치(200b)가 스피커인 경우 음량 등을 측정할 수 있다. 제2 전자 장치(200b)가 통신 장치인 경우 신호 강도 및 데이터 손실율 등을 측정할 수 있다.Referring to FIG. 11, a diagram showing a
로봇(100)은 전자 장치가 최초 배치되었을 때 테스트 신호를 전자 장치에 전송하여 전자 장치의 동작 성능을 식별할 수 있다. 따라서, 제2 전자 장치(200b)가 기존에 배치된 전자 장치이면, 로봇(100)은 제2 전자 장치(200b)의 동작 성능에 대한 정보를 포함할 수 있다. 로봇(100)은 측정된 제2 전자 장치(200b)의 동작 성능과 저장된 동작 성능을 비교할 수 있다. 로봇(100)은 제2 전자 장치(200b)의 동작 성능이 기 설정된 범위를 벗어나면 동작 성능과 관련된 정보(5)를 생성할 수 있다. 그리고, 로봇(100)은 생성된 동작 성능과 관련된 정보(5)를 단말 장치(400)로 전송할 수 있다. 단말 장치(400)는 수신된 동작 성능과 관련된 정보를 출력할 수 있다.The
도 12를 참조하면, 방(10)의 바닥에 새로운 오브젝트(600b)가 배치된 도면이 도시되어 있다. 도 12에 도시된 새로운 오브젝트(600b)는 바닥에 배치되어 있다. 바닥에 배치된 오브젝트(600b)는 로봇 청소기(200c)가 청소를 할 때 영향을 줄 수 있다.Referring to FIG. 12, a diagram showing a
로봇(100)은 획득된 영상에서 바닥에 위치한 새로운 오브젝트(600b)를 식별할 수 있다. 로봇(100)은 새로운 오브젝트(600b)의 위치와 관련된 3차원 정보 중 바닥의 정보(7)를 전자 장치 중 로봇 청소기(200c)로 전송할 수 있다. 로봇 청소기(200c)는 바닥을 탐색하고, 청소 맵을 생성할 수 있다. 만일, 새로운 오브젝트(600b)가 배치된 경우, 로봇 청소기(200c)는 새로운 오브젝트(600b)를 발견하고 기존 청소 맵을 업데이트해야 한다. 따라서, 로봇 청소기(200c)는 오브젝트를 식별하고 청소 맵을 업데이트 하기 위한 시간을 사용해야 한다. 그러나, 로봇(100)이 오브젝트(600b)를 발견하고, 오브젝트(600b)가 배치된 3차원 정보 중 바닥의 정보(7)를 로봇 청소기(200c)로 전송하면, 로봇 청소기(200c)는 빠르게 청소 맵을 업데이트할 수 있다.The
도 13은 본 개시의 일 실시 예에 따른 이동한 전자 장치를 식별하는 로봇 시스템의 동작을 설명하는 타이밍도이다.FIG. 13 is a timing diagram explaining the operation of a robot system that identifies a moving electronic device according to an embodiment of the present disclosure.
도 13을 참조하면, 로봇(100)은 신규 전자 장치(200)를 발견할 수 있다(S205). 로봇(100)은 설치된 전자 장치의 식별 정보와 위치 정보를 매칭한 매칭 정보를 공간에 매핑한 3차원 정보를 생성할 수 있다. 그 이후 로봇(100)은 공간 탐색 과정에서 기존 배치된 전자 장치 외에 배치된 신규 전자 장치(200)를 발견할 수 있다. 만일, 로봇(100)이 서버(300)로부터 전자 장치의 식별 정보를 수신하지 않은 경우, 발견된 전자 장치(200)는 기존 전자 장치일 가능성이 있다.Referring to FIG. 13, the
로봇(100)은 발견된 전자 장치(200)로 기존 동작 확인 신호를 전송할 수 있다(S210). 기존 동작 확인 신호는 발견된 전자 장치(200)의 타입에 대응되는 신호이다. 발견된 전자 장치(200)가 타 공간에서 이동한 전자 장치이면, 기존 동작 확인 신호에 따라 동작할 수 있다(S215).The
로봇(100)은 전자 장치(200)의 동작을 확인하고, 기존 전자 장치라고 식별할 수 있다(S220). 전자 장치(200)가 기존 전자 장치인 경우, 매칭 정보 또는 3차원 정보 중 위치 정보만 다를 수 있다. 따라서, 로봇(100)은 전자 장치가 배치된 위치 정보를 획득하고, 기존 정보에 포함된 위치 정보를 획득된 위치 정보로 수정할 수 있다. 즉, 로봇(100)은 전자 장치(200)와 관련된 3차원 정보를 업데이트할 수 있다(S225).The
한편, 전자 장치(200)의 이동에 따라 주변 환경이 달라지고, 달라진 주변 환경이 전자 장치(200)의 동작 성능에 영향을 줄 수 있다. 따라서, 로봇(100)은 전자 장치(200)의 동작 성능을 확인하기 위해 전자 장치(200)로 테스트 신호를 전송할 수 있다(S230). 예를 들어, 테스트 신호는 발광, 사운드 출력, 데이터 송수신 등을 제어하는 신호일 수 있다. 전자 장치(200)는 수신된 테스트 신호에 따라 동작을 수행할 수 있다(S235).Meanwhile, the surrounding environment changes as the
로봇(100)은 전자 장치(200)의 동작을 확인하고, 전자 장치(200)의 동작 성능을 식별할 수 있다(S240). 로봇(100)은 기존 저장된 전자 장치의 동작 성능과 식별된 동작 성능을 비교할 수 있다. 로봇(100)은 동작 성능에 대한 정보를 생성할 수 있다(S245). 그리고, 식별된 동작 성능이 기 설정된 범위를 벗어나면, 로봇(100)은 동작 성능과 관련된 정보를 단말 장치(400)로 전송할 수 있다.The
도 14는 본 개시의 일 실시 예에 따른 사용자 명령을 수행하는 로봇을 설명하는 도면이다.Figure 14 is a diagram explaining a robot that performs a user command according to an embodiment of the present disclosure.
도 14를 참조하면, 사용자(90)와 사용자 근처에 위치한 로봇(100)이 도시되어 있다. 로봇(100)은 사용자(90)의 음성을 인식하여 제어 동작을 수행할 수 있다. 예를 들어, 제1 전자 장치(200a)와 제2 전자 장치(200b)는 전등이고, 제1 전자 장치(200a)는 1번 전등, 제2 전자 장치(200b)는 2번 전등일 수 있다. 사용자(90)가 “2번 전등 켜 줘.”라고 발화하면, 로봇(100)은 2번 전등인 제2 전자 장치(200b)를 턴-온시킬 수 있다. 즉, 로봇(100)은 사용자의 발화를 인식하고, 제2 전자 장치(200b)로 턴-온 제어 신호를 전송할 수 있다.Referring to FIG. 14, a
또는, 사용자(90)는 특정 전자 장치를 표현하지 않고, “이것 켜 줘.”라고 발화할 수 있다. 이때, 사용자(90)의 근처에 위치한 로봇(100)은 사용자의 영상을 획득할 수 있다. 로봇(100)은 사용자(90)의 발화를 인식하고, 획득한 영상에서 사용자 관련 정보를 식별할 수 있다. 예를 들어, 사용자 관련 정보는 사용자의 위치, 시선 방향, 지시 방향 등을 포함할 수 있다. 도 14에 도시된 바와 같이, 로봇(100)은 획득한 사용자의 영상에서 사용자의 시선 방향, 사용자의 지시 방향을 식별하고, 사용자가 발화한 “이것”이 2번 전등인 제2 전자 장치(200b)라고 식별할 수 있다. 로봇(100)은 제2 전자 장치(200b)로 턴-온 제어 신호를 전송하고, 제2 전자 장치(200b)는 수신된 제어 신호에 따라 턴-온 동작을 수행할 수 있다.Alternatively, the
또는, 사용자(90)는 단말 장치(400)를 이용하여 전자 장치(200)를 제어할 수 있다.Alternatively, the
도 15 및 도 16은 본 개시의 일 실시 예에 따른 사용자 명령을 수행하는 단말 장치를 설명하는 도면이다.15 and 16 are diagrams illustrating a terminal device executing a user command according to an embodiment of the present disclosure.
도 15를 참조하면, 특정 공간의 맵 데이터가 도시되어 있다. 로봇(100)은 탐색 또는 서버(300)로부터 수신한 데이터에 기초하여 맵 데이터(50)를 생성할 수 있다. 맵 데이터(50)는 각 영역을 포함할 수 있다. 예를 들어, 도 15에 도시된 바와 같이, 맵 데이터(50)는 Bathroom 1, Room 1, Kitchen, Living room, Room 2, Bathroom 2, Room 3와 같은 영역을 표시할 수 있다. 사용자(90)는 제어를 위한 전자 장치가 위치한 영역을 선택할 수 있다. 예를 들어, 사용자(90)는 Room 3를 선택할 수 있다.Referring to FIG. 15, map data of a specific space is shown. The
단말 장치(400)는 Room 3에 배치된 전자 장치의 3차원 정보를 표시할 수 있다.The
도 16을 참조하면, Room 3의 전자 장치(200a, 200b, 200c, 200d, 200e)가 위치한 3차원 정보(51)가 도시되어 있다. 상술한 바와 같이, 로봇(100)은 전자 장치가 위치한 영역 뿐만 아니라 벽, 바닥, 천장의 공간적 위치 및 좌표를 식별할 수 있다. 즉, 로봇(100)은 제1 내지 4 전자 장치(200a, 200b, 200c, 200d)가 위치한 면 및 좌표를 식별할 수 있다. 또한, 로봇(100)은 오브젝트(600c), 오브젝트(600c)가 위치한 면 및 좌표를 식별할 수 있다. 그리고, 로봇(100)은 제5 전자 장치(200e)의 위치를 식별할 수 있다. Referring to FIG. 16, three-
예를 들어, 로봇(100)은 제1 전자 장치(200a)의 위치는 좌표 (3, 3)의 천장, 제2 전자 장치(200b)의 위치는 좌표 (3, 5)의 천장, 제3 전자 장치의 위치는 좌표 (3, 7)의 천장, 제4 전자 장치(200d)의 위치는 좌표 (5, 2)에서 (5, 8)의 천장, 오브젝트(600c)의 위치는 좌표 (1, 8)의 바닥, 제5 전자 장치(200e)의 위치는 오브젝트(600c)의 상면과 같이 각 전자 장치(200a, 200b, 200c, 200d, 200e) 및 오브젝트(600c)의 위치를 식별할 수 있다. 그리고, 로봇(100)은 각 전자 장치(200a, 200b, 200c, 200d, 200e)의 식별 정보와 위치 정보를 매칭(동기화)하여 매칭 정보를 생성하고, 매칭 정보를 매핑한 3차원 정보(51)를 생성할 수 있다.For example, the
로봇(100)은 생성된 3차원 정보(51)를 단말 장치(400)로 전송할 수 있다. 그리고, 단말 장치(400)는 도 16에 도시된 바와 같이, 수신된 3차원 정보(51)에 기초하여 제어 UI를 표시할 수 있다. 사용자(90)는 제1 전자 장치(200a)를 선택할 수 있다. 단말 장치(400)는 사용자의 입력 명령에 따라 제어 신호를 제1 전자 장치(200a)로 전송할 수 있다. 또는, 단말 장치(400)는 로봇(100)을 통해 제1 전자 장치(200a)를 제어할 수도 있다.The
단말 장치(400)는 3차원 정보(51)를 포함하는 제어 UI를 표시함에 따라 사용자는 직관적으로 전자 장치를 제어할 수 있다.As the
지금까지 로봇 시스템(1000)의 다양한 실시 예를 설명하였다. 아래에서는 로봇(100)의 제어 방법을 설명한다.So far, various embodiments of the
도 17은 본 개시의 일 실시 예에 따른 로봇의 제어 방법을 설명하는 흐름도이다.Figure 17 is a flowchart explaining a method of controlling a robot according to an embodiment of the present disclosure.
도 17을 참조하면, 로봇은 식별된 전자 장치의 식별 정보를 획득한다(S310). 예를 들어, 로봇은 특정 공간을 주행하는 동안 카메라를 통해 획득된 영상에서 전자 장치가 식별하고, 전자 장치의 식별 정보를 획득할 수 있다. 전자 장치는 네트워크에 연결된 IoT 장치 또는 네트워크에 연결되지 않은 IR 장치를 포함할 수 있다. 전자 장치가 IR 장치인 경우, 로봇은 전자 장치를 캡처한 이미지를 서버로 전송하고, 서버로부터 이미지에 대응되는 전자 장치의 식별 정보를 획득할 수 있다.Referring to FIG. 17, the robot acquires identification information of the identified electronic device (S310). For example, while a robot is traveling in a specific space, an electronic device can identify it from an image acquired through a camera and obtain identification information of the electronic device. Electronic devices may include network-connected IoT devices or non-network-connected IR devices. If the electronic device is an IR device, the robot can transmit a captured image of the electronic device to the server and obtain identification information of the electronic device corresponding to the image from the server.
로봇은 동작 확인 신호를 전자 장치로 전송할 수 있다(S320). 로봇은 식별된 전자 장치의 타입에 대응되는 동작 확인 신호를 전자 장치로 전송할 수 있다. 예를 들어, 전자 장치의 타입이 광 출력 장치이면, 동작 확인 신호는 광을 출력하는 신호일 수 있다. 전자 장치의 타입이 사운드 출력 장치이면, 동작 확인 신호는 사운드를 출력하는 신호일 수 있다. 전자 장치의 타입이 통신 장치이면, 동작 확인 신호는 응답 신호를 출력하는 신호일 수 있다.The robot can transmit an operation confirmation signal to the electronic device (S320). The robot may transmit an operation confirmation signal corresponding to the type of the identified electronic device to the electronic device. For example, if the type of electronic device is a light output device, the operation confirmation signal may be a signal that outputs light. If the type of electronic device is a sound output device, the operation confirmation signal may be a signal that outputs sound. If the type of electronic device is a communication device, the operation confirmation signal may be a signal that outputs a response signal.
또는, 복수의 동일한 전자 장치가 식별되면, 로봇은 복수의 IoT 장치에 각각 구별되는 동작 확인 신호를 동시에 전송하고, 복수의 IoT 장치의 동작을 동시에 식별할 수 있다. 예를 들어, 구별되는 동작 확인 신호는 색상, 점멸 패턴, 그라데이션, 주파수, 사운드 출력 패턴 등을 이용하여 구별되는 신호일 수 있다.Alternatively, when a plurality of identical electronic devices are identified, the robot can simultaneously transmit distinct operation confirmation signals to each of the plurality of IoT devices and simultaneously identify the operations of the plurality of IoT devices. For example, a distinct operation confirmation signal may be a signal that is distinguished using color, flashing pattern, gradation, frequency, sound output pattern, etc.
로봇은 공간 내 전자 장치의 위치 정보를 식별할 수 있다(S330). 위치 정보는 전자 장치가 위치한 3차원 공간상의 면, 좌표 정보를 포함할 수 있다. 예를 들어, 로봇은 제1 전자 장치는 좌표 (3, 5)의 천장과 같이 전자 장치의 위치 정보를 식별할 수 있다. 좌표 정보는 각 면 개별적으로 산출될 수 있다. 예를 들어, 천장 (1, 1)의 위치는 천장의 가상의 그리드에 설정된 제1 기준점을 기준으로 산출되고, 우측벽 (1, 1)의 위치는 우측벽의 가상의 그리드에 설정된 제2 기준점을 기준으로 산출될 수 있다.The robot can identify location information of electronic devices in space (S330). Location information may include surface and coordinate information in three-dimensional space where the electronic device is located. For example, the robot may identify location information of the electronic device, such as the ceiling of the first electronic device at coordinates (3, 5). Coordinate information can be calculated individually for each side. For example, the position of the ceiling (1, 1) is calculated based on the first reference point set in the virtual grid of the ceiling, and the position of the right wall (1, 1) is calculated based on the second reference point set in the virtual grid of the right wall. It can be calculated based on .
또한, 로봇은 오브젝트를 식별하고, 오브젝트에 위치하는 전자 장치의 위치 정보를 식별할 수 있다. 예를 들어, 로봇은 테이블을 식별하고, 테이블 위에 위치한 제2 전자 장치에 대해 테이블 상면과 같이 제2 전자 장치의 위치 정보를 식별할 수 있다.Additionally, the robot can identify an object and identify location information of an electronic device located on the object. For example, the robot can identify a table and identify location information about the second electronic device located on the table, such as the top of the table.
로봇은 전자 장치를 공간에 매핑하여 저장된 3차원 정보를 업데이트할 수 있다(S340). 로봇은 전자 장치의 식별 정보와 위치 정보를 매칭한 매칭 정보를 생성할 수 있다. 그리고 생성된 매칭 정보를 특정 공간에 매핑하여 3차원 정보를 생성(업데이트)할 수 있다. 생성(업데이트)된 3차원 정보는 단말 장치 및/또는 서버로 전송될 수 있다.The robot can update the stored 3D information by mapping the electronic device to space (S340). The robot can generate matching information that matches the identification information and location information of the electronic device. In addition, 3D information can be created (updated) by mapping the generated matching information to a specific space. The generated (updated) 3D information may be transmitted to the terminal device and/or server.
또한, 로봇은 카메라를 통해 획득된 영상에서 새로운 전자 장치가 식별되면, 식별된 전자 장치의 타입에 대응되는 기존 동작 확인 신호를 새로운 전자 장치로 전송할 수 있다. 기존 동작 확인 신호에 따른 새로운 전자 장치의 동작이 식별되면, 로봇은 새로운 전자 장치를 위치가 변경된 기존 전자 장치로 식별할 수 있다. 로봇은 기존 전자 장치의 위치 정보를 수정한 3차원 정보를 업데이트할 수 있다.Additionally, when a new electronic device is identified in an image acquired through a camera, the robot may transmit an existing operation confirmation signal corresponding to the type of the identified electronic device to the new electronic device. When the operation of the new electronic device according to the existing operation confirmation signal is identified, the robot can identify the new electronic device as the existing electronic device whose location has changed. The robot can update 3D information that modifies the location information of existing electronic devices.
또한, 로봇은 카메라를 통해 획득된 영상에서 3차원 정보 중 바닥에 위치한 새로운 오브젝트가 식별되면, 새로운 오브젝트의 위치와 관련된 정보를 로봇 청소기로 전송하여 청소 맵을 업데이트시킬 수 있다.Additionally, when a new object located on the floor is identified among the 3D information in an image acquired through a camera, the robot can update the cleaning map by transmitting information related to the location of the new object to the robot cleaner.
그리고, 로봇은 카메라를 통해 획득된 영상에서 새로운 오브젝트가 식별되면, 전자 장치의 타입에 대응되는 테스트 신호를 전자 장치로 전송하여 전자 장치의 동작 성능을 테스트할 수 있다. 로봇은 전자 장치의 동작 성능이 기 설정된 범위를 벗어나면 동작 성능과 관련된 정보를 단말 장치로 전송할 수 있다.Additionally, when a new object is identified in an image acquired through a camera, the robot can test the operational performance of the electronic device by transmitting a test signal corresponding to the type of the electronic device to the electronic device. If the operational performance of the electronic device is outside a preset range, the robot can transmit information related to the operational performance to the terminal device.
로봇은 사용자의 근처에서 사용자의 음성 명령을 입력받을 수 있다. 로봇은 카메라를 통해 획득된 사용자의 영상에서 사용자 관련 정보를 식별하고, 식별된 사용자 관련 정보에 기초하여 제어 대상 전자 장치를 식별할 수 있다. 예를 들어, 사용자 관련 정보는 사용자의 위치, 시선 방향, 지시 방향 등을 포함할 수 있다.The robot can receive the user's voice commands near the user. The robot can identify user-related information from the user's image acquired through a camera and identify the electronic device to be controlled based on the identified user-related information. For example, user-related information may include the user's location, gaze direction, pointing direction, etc.
지금까지 상술한 다양한 예는 설명의 편의를 위해 나누어 설명한 것일 뿐, 별도의 다른 실시 예가 아니다. 예를 들어, 로봇은 전자 장치를 발견한 경우, 새로운 전자 장치인지 기존 전자 장치인지 식별할 수 있다. 로봇은 새로운 전자 장치이면 식별 정보와 위치 정보를 매칭하고 맵 데이터에 매핑하는 과정을 수행할 수 있다. 기존 전자 장치이면 기존 위치 정보를 업데이트하는 과정을 수행할 수 있다. 또한, 로봇이 신규 전자 장치, 위치 변경, 주변 환경의 변경을 감지하면, 전자 장치의 동작 성능을 테스트하는 과정을 수행할 수 있다.The various examples described above are merely divided for convenience of explanation and are not separate embodiments. For example, if a robot finds an electronic device, it can identify whether it is a new or existing electronic device. If the robot is a new electronic device, it can perform the process of matching identification information and location information and mapping it to map data. If it is an existing electronic device, a process of updating existing location information can be performed. Additionally, when the robot detects a new electronic device, a change in location, or a change in the surrounding environment, it can perform a process to test the operational performance of the electronic device.
상술한 다양한 실시 예에 따른 로봇의 제어 방법은 컴퓨터 프로그램 제품으로 제공될 수도 있다. 컴퓨터 프로그램 제품은 S/W 프로그램 자체 또는 S/W 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)를 포함할 수 있다.The robot control method according to the various embodiments described above may be provided as a computer program product. A computer program product may include the S/W program itself or a non-transitory computer readable medium in which the S/W program is stored.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다. A non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as registers, caches, and memories. Specifically, the various applications or programs described above may be stored and provided on non-transitory readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, etc.
또한, 이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시가 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In addition, although the preferred embodiments of the present disclosure have been shown and described above, the present disclosure is not limited to the specific embodiments described above, and the technical field to which the disclosure pertains without departing from the gist of the present disclosure as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical idea or perspective of the present disclosure.
1000: 로봇 시스템 100: 로봇
110: 카메라 120: 통신 인터페이스
130: 메모리 140: 프로세서
200: 전자 장치
300: 서버 400: 단말 장치1000: Robot system 100: Robot
110: camera 120: communication interface
130: memory 140: processor
200: electronic device
300: Server 400: Terminal device
Claims (20)
카메라;
통신 인터페이스;
특정 공간에 대응되는 3차원 정보가 저장된 메모리; 및
하나 이상의 프로세서;를 포함하고,
상기 하나 이상의 프로세서는,
상기 특정 공간을 상기 로봇이 주행하는 동안 상기 카메라를 통해 획득된 영상에서 전자 장치가 식별되면, 상기 식별된 전자 장치의 식별 정보를 획득하고,
상기 식별된 전자 장치의 타입에 대응되는 동작 확인 신호를 상기 통신 인터페이스를 통해 상기 전자 장치로 전송하며,
상기 동작 확인 신호에 따른 상기 전자 장치의 동작이 식별되면, 상기 특정 공간 내 상기 전자 장치의 위치 정보를 식별하고,
상기 전자 장치의 식별 정보 및 상기 전자 장치의 위치 정보에 기초하여 상기 전자 장치를 상기 특정 공간에 매핑하여 상기 3차원 정보를 업데이트하는, 로봇.In robots,
camera;
communication interface;
A memory storing three-dimensional information corresponding to a specific space; and
Contains one or more processors;
The one or more processors:
If an electronic device is identified in an image obtained through the camera while the robot is traveling in the specific space, obtain identification information of the identified electronic device,
Transmitting an operation confirmation signal corresponding to the type of the identified electronic device to the electronic device through the communication interface,
When the operation of the electronic device according to the operation confirmation signal is identified, location information of the electronic device within the specific space is identified,
A robot that updates the three-dimensional information by mapping the electronic device to the specific space based on the identification information of the electronic device and the location information of the electronic device.
상기 하나 이상의 프로세서는,
상기 전자 장치의 식별 정보 및 상기 전자 장치의 위치 정보가 매핑된 상기 3차원 정보를 상기 통신 인터페이스를 통해 단말 장치로 전송하는, 로봇.According to paragraph 1,
The one or more processors:
A robot that transmits the three-dimensional information to which the identification information of the electronic device and the location information of the electronic device are mapped to a terminal device through the communication interface.
상기 하나 이상의 프로세서는,
상기 전자 장치의 타입이 광 출력 장치이면, 광을 출력하는 동작 확인 신호를 상기 광 출력 장치로 전송하고,
상기 전자 장치의 타입이 사운드 출력 장치이면, 사운드를 출력하는 동작 확인 신호를 상기 사운드 출력 장치로 전송하며,
상기 전자 장치의 타입이 통신 장치이면, 응답 신호를 출력하는 동작 확인 신호를 상기 통신 장치로 전송하도록 상기 통신 인터페이스를 제어하는, 로봇.According to claim 1 or 2,
The one or more processors:
If the type of the electronic device is an optical output device, transmitting an operation confirmation signal for outputting light to the optical output device,
If the type of the electronic device is a sound output device, an operation confirmation signal for outputting sound is transmitted to the sound output device,
If the type of the electronic device is a communication device, the robot controls the communication interface to transmit an operation confirmation signal that outputs a response signal to the communication device.
마이크;를 더 포함하고,
상기 하나 이상의 프로세서는,
상기 로봇이 사용자의 근처에 위치하고, 상기 마이크를 통해 사용자의 음성 명령을 입력받는 경우, 상기 카메라를 통해 획득된 사용자의 영상에서 상기 사용자의 위치, 시선 방향 및 지시 방향 중 적어도 하나를 포함하는 사용자 관련 정보를 식별하며, 상기 식별된 사용자 관련 정보에 기초하여 제어 대상 전자 장치를 식별하는, 로봇.According to any one of claims 1 to 3,
Further including a microphone;
The one or more processors:
When the robot is located near the user and receives the user's voice command through the microphone, user-related information including at least one of the user's location, gaze direction, and pointing direction in the user's image acquired through the camera. A robot that identifies information and identifies a controlled electronic device based on the identified user-related information.
상기 하나 이상의 프로세서는,
상기 카메라를 통해 획득된 영상에서 새로운 전자 장치가 식별되면, 상기 식별된 전자 장치의 타입에 대응되는 기존 동작 확인 신호를 상기 새로운 전자 장치로 전송하며, 상기 기존 동작 확인 신호에 따른 상기 새로운 전자 장치의 동작이 식별되면, 상기 새로운 전자 장치를 위치가 변경된 기존 전자 장치로 식별하고, 상기 기존 전자 장치의 위치 정보를 수정한 상기 3차원 정보를 업데이트하는, 로봇.According to any one of claims 1 to 4,
The one or more processors:
When a new electronic device is identified in the image acquired through the camera, an existing operation confirmation signal corresponding to the type of the identified electronic device is transmitted to the new electronic device, and the new electronic device is activated according to the existing operation confirmation signal. When the motion is identified, the robot identifies the new electronic device as an existing electronic device whose location has changed and updates the 3D information with the modified location information of the existing electronic device.
상기 하나 이상의 프로세서는,
상기 카메라를 통해 획득된 영상에서 상기 3차원 정보 중 바닥에 위치한 새로운 오브젝트가 식별되면, 상기 통신 인터페이스를 통해 상기 새로운 오브젝트의 위치와 관련된 정보를 상기 전자 장치 중 로봇 청소기로 전송하여 상기 로봇 청소기의 청소 맵을 업데이트시키는, 로봇.According to any one of claims 1 to 5,
The one or more processors:
When a new object located on the floor is identified among the 3D information in the image acquired through the camera, information related to the location of the new object is transmitted to the robot cleaner among the electronic devices through the communication interface to perform cleaning of the robot cleaner. A robot that updates the map.
상기 전자 장치는,
IoT(Internet Of Thing) 장치 및 IR(Infra-Red) 장치 중 적어도 하나의 장치를 포함하는, 로봇.According to any one of claims 1 to 6,
The electronic device is,
A robot including at least one of an Internet of Thing (IoT) device and an Infra-Red (IR) device.
상기 하나 이상의 프로세서는,
상기 전자 장치가 IR 장치인 경우, 상기 전자 장치를 캡처한 이미지를 상기 통신 인터페이스를 통해 서버로 전송하고, 상기 서버로부터 상기 이미지에 대응되는 상기 전자 장치의 식별 정보를 획득하는, 로봇.In clause 7,
The one or more processors:
When the electronic device is an IR device, a robot transmits an image captured of the electronic device to a server through the communication interface and obtains identification information of the electronic device corresponding to the image from the server.
상기 하나 이상의 프로세서는,
복수의 동일한 IoT 장치가 식별되면, 상기 복수의 IoT 장치에 각각 구별되는 동작 확인 신호를 동시에 전송하고, 상기 복수의 IoT 장치의 동작을 동시에 식별하여 상기 복수의 IoT 장치의 위치 정보를 동시에 식별하는, 로봇.According to clause 7 or 8,
The one or more processors:
When a plurality of identical IoT devices are identified, a distinct operation confirmation signal is simultaneously transmitted to each of the plurality of IoT devices, and the operation of the plurality of IoT devices is simultaneously identified to simultaneously identify the location information of the plurality of IoT devices. robot.
상기 구별되는 동작 확인 신호는,
색상, 점멸 패턴, 그라데이션, 주파수, 사운드 출력 패턴 중 적어도 하나가 구별되는, 로봇.According to clause 9,
The distinct operation confirmation signal is,
A robot that is distinguished by at least one of color, flashing pattern, gradient, frequency, and sound output pattern.
상기 하나 이상의 프로세서는,
상기 카메라를 통해 획득된 영상에서 새로운 오브젝트가 식별되면, 상기 전자 장치의 타입에 대응되는 테스트 신호를 상기 통신 인터페이스를 통해 상기 전자 장치로 전송하며, 상기 테스트 신호에 따른 상기 전자 장치의 동작 성능을 식별하고, 상기 동작 성능이 기 설정된 범위를 벗어나면 상기 동작 성능과 관련된 정보를 상기 단말 장치로 전송하도록 상기 통신 인터페이스를 제어하는, 로봇.According to any one of claims 1 to 10,
The one or more processors:
When a new object is identified in the image acquired through the camera, a test signal corresponding to the type of the electronic device is transmitted to the electronic device through the communication interface, and the operating performance of the electronic device according to the test signal is identified. and controlling the communication interface to transmit information related to the operating performance to the terminal device when the operating performance is outside a preset range.
특정 공간을 상기 로봇이 주행하는 동안 획득된 영상에서 전자 장치가 식별되면, 상기 식별된 전자 장치의 식별 정보를 획득하는 단계;
상기 식별된 전자 장치의 타입에 대응되는 동작 확인 신호를 상기 전자 장치로 전송하는 단계;
상기 동작 확인 신호에 따른 상기 전자 장치의 동작이 식별되면, 상기 특정 공간 내 상기 전자 장치의 위치 정보를 식별하는 단계; 및
상기 전자 장치의 식별 정보 및 상기 전자 장치의 위치 정보에 기초하여 상기 전자 장치를 상기 특정 공간에 매핑하여 저장된 3차원 정보를 업데이트하는 단계;를 포함하는 로봇의 제어 방법.In the robot control method,
When an electronic device is identified in an image obtained while the robot is traveling in a specific space, obtaining identification information of the identified electronic device;
transmitting an operation confirmation signal corresponding to the type of the identified electronic device to the electronic device;
When the operation of the electronic device according to the operation confirmation signal is identified, identifying location information of the electronic device within the specific space; and
A method of controlling a robot comprising: updating stored 3D information by mapping the electronic device to the specific space based on the identification information of the electronic device and the location information of the electronic device.
상기 전자 장치의 식별 정보 및 상기 전자 장치의 위치 정보가 매핑된 상기 3차원 정보를 단말 장치로 전송하는 단계;를 더 포함하는 로봇의 제어 방법.According to clause 12,
A method of controlling a robot further comprising transmitting the 3D information to which the identification information of the electronic device and the location information of the electronic device are mapped to a terminal device.
상기 동작 확인 신호를 상기 전자 장치로 전송하는 단계는,
상기 전자 장치의 타입이 광 출력 장치이면, 광을 출력하는 동작 확인 신호를 상기 광 출력 장치로 전송하고,
상기 전자 장치의 타입이 사운드 출력 장치이면, 사운드를 출력하는 동작 확인 신호를 상기 사운드 출력 장치로 전송하며,
상기 전자 장치의 타입이 통신 장치이면, 응답 신호를 출력하는 동작 확인 신호를 상기 통신 장치로 전송하는, 로봇의 제어 방법.According to claim 12 or 13,
The step of transmitting the operation confirmation signal to the electronic device includes:
If the type of the electronic device is an optical output device, transmitting an operation confirmation signal for outputting light to the optical output device,
If the type of the electronic device is a sound output device, an operation confirmation signal for outputting sound is transmitted to the sound output device,
If the type of the electronic device is a communication device, an operation confirmation signal that outputs a response signal is transmitted to the communication device.
상기 로봇이 사용자의 근처에 위치하고, 사용자의 음성 명령을 입력받는 경우, 획득된 사용자의 영상에서 상기 사용자의 위치, 시선 방향 및 지시 방향 중 적어도 하나를 포함하는 사용자 관련 정보를 식별하는 단계; 및
상기 식별된 사용자 관련 정보에 기초하여 제어 대상 전자 장치를 식별하는 단계;를 더 포함하는 로봇의 제어 방법.According to any one of claims 12 to 14,
When the robot is located near the user and receives the user's voice command, identifying user-related information including at least one of the user's location, gaze direction, and pointing direction from the obtained user's image; and
A robot control method further comprising: identifying a control target electronic device based on the identified user-related information.
획득된 영상에서 새로운 전자 장치가 식별되면, 상기 식별된 전자 장치의 타입에 대응되는 기존 동작 확인 신호를 상기 새로운 전자 장치로 전송하는 단계;
상기 기존 동작 확인 신호에 따른 상기 새로운 전자 장치의 동작이 식별되면, 상기 새로운 전자 장치를 위치가 변경된 기존 전자 장치로 식별하는 단계; 및
상기 기존 전자 장치의 위치 정보를 수정한 상기 3차원 정보를 업데이트하는 단계;를 포함하는 로봇의 제어 방법.According to any one of claims 12 to 15,
When a new electronic device is identified in the acquired image, transmitting an existing operation confirmation signal corresponding to the type of the identified electronic device to the new electronic device;
When the operation of the new electronic device according to the existing operation confirmation signal is identified, identifying the new electronic device as an existing electronic device whose location has changed; and
A method of controlling a robot comprising: updating the 3D information that modifies the location information of the existing electronic device.
획득된 영상에서 상기 3차원 정보 중 바닥에 위치한 새로운 오브젝트가 식별되면, 상기 새로운 오브젝트의 위치와 관련된 정보를 상기 전자 장치 중 로봇 청소기로 전송하여 상기 로봇 청소기의 청소 맵을 업데이트시키는 단계;를 더 포함하는 로봇의 제어 방법.According to any one of claims 12 to 16,
When a new object located on the floor is identified among the 3D information in the acquired image, transmitting information related to the location of the new object to the robot cleaner among the electronic devices to update the cleaning map of the robot cleaner. How to control a robot.
상기 전자 장치는,
IoT(Internet Of Thing) 장치 및 IR(Infra-Red) 장치 중 적어도 하나의 장치를 포함하는, 로봇의 제어 방법.According to any one of claims 12 to 17,
The electronic device is,
A method of controlling a robot, including at least one of an IoT (Internet of Thing) device and an IR (Infra-Red) device.
상기 전자 장치가 IR 장치인 경우, 상기 전자 장치를 캡처한 이미지를 서버로 전송하는 단계; 및
상기 서버로부터 상기 이미지에 대응되는 상기 전자 장치의 식별 정보를 획득하는 단계;를 더 포함하는 로봇의 제어 방법.According to clause 18,
If the electronic device is an IR device, transmitting an image captured of the electronic device to a server; and
Obtaining identification information of the electronic device corresponding to the image from the server.
복수의 동일한 IoT 장치가 식별되면, 상기 복수의 IoT 장치에 각각 구별되는 동작 확인 신호를 동시에 전송하는 단계; 및
상기 복수의 IoT 장치의 동작을 동시에 식별하여 상기 복수의 IoT 장치의 위치 정보를 동시에 식별하는 단계;를 더 포함하는 로봇의 제어 방법.
According to claim 18 or 19,
When a plurality of identical IoT devices are identified, simultaneously transmitting distinct operation confirmation signals to each of the plurality of IoT devices; and
Simultaneously identifying the operations of the plurality of IoT devices and simultaneously identifying location information of the plurality of IoT devices.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220105950A KR20240028574A (en) | 2022-08-24 | 2022-08-24 | Robot managing electornic device and controlling method thereof |
PCT/KR2023/009125 WO2024043488A1 (en) | 2022-08-24 | 2023-06-29 | Robot for managing electronic device and control method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220105950A KR20240028574A (en) | 2022-08-24 | 2022-08-24 | Robot managing electornic device and controlling method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240028574A true KR20240028574A (en) | 2024-03-05 |
Family
ID=90013480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220105950A KR20240028574A (en) | 2022-08-24 | 2022-08-24 | Robot managing electornic device and controlling method thereof |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20240028574A (en) |
WO (1) | WO2024043488A1 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102071575B1 (en) * | 2013-04-23 | 2020-01-30 | 삼성전자 주식회사 | Moving robot, user terminal apparatus, and control method thereof |
KR102000067B1 (en) * | 2017-01-16 | 2019-09-17 | 엘지전자 주식회사 | Moving Robot |
KR101976424B1 (en) * | 2017-01-25 | 2019-05-09 | 엘지전자 주식회사 | Moving Robot |
KR102326077B1 (en) * | 2017-06-15 | 2021-11-12 | 엘지전자 주식회사 | Method of identifying movable obstacle in 3-dimensional space and robot implementing thereof |
WO2020184733A1 (en) * | 2019-03-08 | 2020-09-17 | 엘지전자 주식회사 | Robot |
-
2022
- 2022-08-24 KR KR1020220105950A patent/KR20240028574A/en unknown
-
2023
- 2023-06-29 WO PCT/KR2023/009125 patent/WO2024043488A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024043488A1 (en) | 2024-02-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3664974B1 (en) | Mobile home robot and controlling method of the mobile home robot | |
CN107113544B (en) | Method, system, and medium for 3D mapping of Internet of things devices | |
US9728009B2 (en) | Augmented reality based management of a representation of a smart environment | |
US11082249B2 (en) | Location determination for device control and configuration | |
US11676405B2 (en) | Identification of objects for three-dimensional depth imaging | |
US20170160371A1 (en) | Luminaire locating device, luminaire, and luminaire configuring and commissioning device | |
US20220057922A1 (en) | Systems and interfaces for location-based device control | |
US10701661B1 (en) | Location determination for device control and configuration | |
KR20200006707A (en) | Method of controlling electronic apparatus and computer-readable recording medium | |
CN108432213B (en) | Electronic device and control method thereof | |
JP2019061334A (en) | Equipment control device, equipment control method and equipment control system | |
KR20240028574A (en) | Robot managing electornic device and controlling method thereof | |
JP2012156834A (en) | Remote controller and program | |
US20210333863A1 (en) | Extended Reality Localization | |
CN111819841B (en) | Information processing apparatus, information processing method, and storage medium | |
WO2018047458A1 (en) | Information processing device, information processing method, and program | |
JP7163361B2 (en) | A system for communicating the presence of a device via a light source | |
US20240005921A1 (en) | Command Disambiguation based on Environmental Context | |
US20240144517A1 (en) | Displaying an aggregation of data in dependence on a distance to a closest device in an image | |
US20220383635A1 (en) | Method and an electronic apparatus for acquiring a floor map of a room layout | |
TW202201269A (en) | Interaction method based on position, interaction system and computer readable storage medium | |
JP2018151759A (en) | Object selection system, object selection method and program |