KR20240029620A - Robot for managing companion object and method thereof - Google Patents
Robot for managing companion object and method thereof Download PDFInfo
- Publication number
- KR20240029620A KR20240029620A KR1020220106820A KR20220106820A KR20240029620A KR 20240029620 A KR20240029620 A KR 20240029620A KR 1020220106820 A KR1020220106820 A KR 1020220106820A KR 20220106820 A KR20220106820 A KR 20220106820A KR 20240029620 A KR20240029620 A KR 20240029620A
- Authority
- KR
- South Korea
- Prior art keywords
- companion object
- companion
- robot
- identified
- camera
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 208000024891 symptom Diseases 0.000 claims abstract description 226
- 230000002159 abnormal effect Effects 0.000 claims abstract description 222
- 230000002093 peripheral effect Effects 0.000 claims abstract description 104
- 238000004891 communication Methods 0.000 claims abstract description 71
- 230000007613 environmental effect Effects 0.000 claims description 39
- 230000003068 static effect Effects 0.000 claims description 37
- 230000005856 abnormality Effects 0.000 claims description 20
- 238000007726 management method Methods 0.000 description 78
- 238000010586 diagram Methods 0.000 description 22
- 241001465754 Metazoa Species 0.000 description 16
- 230000008859 change Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 4
- 238000002845 discoloration Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000036760 body temperature Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 239000002096 quantum dot Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000003915 liquefied petroleum gas Substances 0.000 description 2
- 238000012806 monitoring device Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000270666 Testudines Species 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000003502 gasoline Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 229910021420 polycrystalline silicon Inorganic materials 0.000 description 1
- 229920005591 polysilicon Polymers 0.000 description 1
- 238000000060 site-specific infrared dichroism spectroscopy Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0003—Home robots, i.e. small robots for domestic use
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/006—Controls for manipulators by means of a wireless system for controlling one or several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/12—Target-seeking control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y10/00—Economic sectors
- G16Y10/80—Homes; Buildings
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Accounting & Taxation (AREA)
- Civil Engineering (AREA)
- Structural Engineering (AREA)
- Business, Economics & Management (AREA)
- Architecture (AREA)
- Development Economics (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Computing Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
Abstract
본 개시는 로봇 및 그 제어 방법을 제공한다. 본 개시의 로봇은 카메라, 상이한 시점에서 반려 객체를 촬영한 복수의 이미지를 포함하는 상기 반려 객체에 대한 관리 정보 및 상기 반려 객체의 이상 증상에 대응되는 적어도 하나의 주변 기기에 대한 제어 정보가 저장된 메모리, 통신 인터페이스 및 하나 이상의 프로세서를 포함한다. 상기 프로세서는 상기 로봇이 주행하는 동안 상기 반려 객체를 촬영하도록 상기 카메라를 제어하고, 상기 카메라를 통해 획득된 반려 객체의 이미지를 상기 메모리에 저장된 상기 복수의 이미지와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하고, 상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 메모리에 저장된 정보에 기초하여 상기 식별된 이상 증상에 대응되는 제어 정보를 식별하고, 상기 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송한다.This disclosure provides a robot and a method for controlling the same. The robot of the present disclosure includes a camera, a memory storing management information for the companion object including a plurality of images taken of the companion object at different viewpoints, and control information for at least one peripheral device corresponding to abnormal symptoms of the companion object. , a communication interface, and one or more processors. The processor controls the camera to photograph the companion object while the robot is driving, and compares the image of the companion object obtained through the camera with the plurality of images stored in the memory to generate abnormal symptoms of the companion object. When it is identified that an abnormal symptom has occurred in the companion object, control information corresponding to the identified abnormal symptom is identified based on information stored in the memory, and at least one control information corresponding to the identified abnormal symptom is identified based on the information stored in the memory. A control signal for controlling the operation of the peripheral device is transmitted to the at least one peripheral device through the communication interface.
Description
본 개시는 반려 객체 관리 로봇 및 그 제어 방법에 관한 것이다. 더욱 상세하게는 반려 객체에 대한 복수의 이미지를 비교하여, 반려 객체의 이상 증상을 식별하는 로봇 및 그 제어 방법에 관한 것이다. This disclosure relates to a companion object management robot and its control method. More specifically, it relates to a robot that identifies abnormal symptoms of a companion object by comparing a plurality of images of the companion object and a method of controlling the same.
최근 전자 기술의 발달로 다양한 산업 분야에서 로봇이 이용되고 있다. 객체 인식 기술의 발달로 로봇은 다양한 사물을 정확히 구별할 수 있게 되었고, 자율 주행 기술의 발달로 로봇은 주행 공간에서도 장애물과의 충돌 없이 안정적인 주행이 가능해졌다. Recently, with the development of electronic technology, robots are being used in various industrial fields. The development of object recognition technology has enabled robots to accurately distinguish between various objects, and the development of autonomous driving technology has made it possible for robots to drive stably without colliding with obstacles even in the driving space.
한편, 최근 반려 동물의 가구수가 증가함에 따라, 반려 동물의 관리에 관한 관심이 증가하고 있다. 이와 관련하여, 반려 동물과 분리된 공간에서도 사용자가 실시간으로 반려 동물을 모니터링 할 수 있는 카메라, CCTV 등과 같은 장치 및 서비스의 이용이 활발하다. 다만, 실시간으로 반려 동물을 모니터링 할 수 있도록 하는 모니터링 장치의 경우에도, 사용자가 계속하여 모니터링 장치를 통해 반려 동물의 행동을 관찰해야만 한다. 그렇기 때문에, 사용자가 잠시 주의력을 잃은 경우에는 반려 동물의 이상 증상을 감지하지 못하는 경우가 발생하기도 한다. 무엇보다 사용자가 계속적으로 모니터링을 통해 반려 동물을 감시하는 것은 실질적으로 불가능한 일이다. 이는, 반려 동물에 한정하는 것은 아니며 반려 식물의 경우에도 마찬가지이다. Meanwhile, as the number of households with companion animals increases recently, interest in companion animal care is increasing. In this regard, the use of devices and services such as cameras and CCTVs that allow users to monitor their companion animals in real time even in spaces separated from the companion animal is active. However, even in the case of a monitoring device that allows monitoring a companion animal in real time, the user must continuously observe the companion animal's behavior through the monitoring device. Therefore, if the user loses attention for a moment, there may be cases where abnormal symptoms of the pet are not detected. Above all, it is practically impossible for users to monitor their companion animals through continuous monitoring. This is not limited to companion animals and also applies to companion plants.
이에 따라, 사용자를 대신하여 로봇이 반려 동물 및 반려 식물을 지속적으로 모니터링하고, 반려 동물 및 반려 식물의 이상 징후를 식별할 수 있는 방안이 요구되는 실정이다. Accordingly, there is a need for a method in which robots can continuously monitor companion animals and companion plants on behalf of users and identify abnormal signs of companion animals and companion plants.
본 개시는 상술한 필요성에 따른 것으로, 본 개시의 목적은 반려 객체를 관리하는 로봇 및 그 제어 방법을 제공함에 있다. The present disclosure is in response to the above-described need, and the purpose of the present disclosure is to provide a robot that manages a companion object and a method of controlling the same.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 로봇은 카메라, 메모리, 통신 인터페이스 및 하나 이상의 프로세서를 포함한다. 상기 메모리는 상이한 시점에서 반려 객체를 촬영한 복수의 이미지를 포함하는 상기 반려 객체에 대한 관리 정보 및 상기 반려 객체의 이상 증상에 대응되는 적어도 하나의 주변 기기에 대한 제어 정보가 저장한다. 상기 하나 이상의 프로세서는 상기 로봇이 주행하는 동안 상기 반려 객체를 촬영하도록 상기 카메라를 제어하고, 상기 카메라를 통해 획득된 반려 객체의 이미지를 상기 메모리에 저장된 상기 복수의 이미지와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하고, 상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 메모리에 저장된 정보에 기초하여 상기 식별된 이상 증상에 대응되는 제어 정보를 식별하고, 상기 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송한다. A robot according to an embodiment of the present disclosure to achieve the above object includes a camera, memory, a communication interface, and one or more processors. The memory stores management information about the companion object, including a plurality of images taken of the companion object at different viewpoints, and control information about at least one peripheral device corresponding to abnormal symptoms of the companion object. The one or more processors control the camera to photograph the companion object while the robot is traveling, and compare the image of the companion object obtained through the camera with the plurality of images stored in the memory to determine if there is an abnormality in the companion object. Identify whether a symptom has occurred, and if it is identified that an abnormal symptom has occurred in the companion object, control information corresponding to the identified abnormal symptom is identified based on information stored in the memory, and based on the identified control information A control signal for controlling the operation of at least one peripheral device is transmitted to the at least one peripheral device through the communication interface.
여기서, 상기 하나 이상의 프로세서는, 제1 시점에서 상기 카메라를 통해 획득된 반려 객체의 제1 이미지를 상기 복수의 이미지와 비교하여 제1 비교 결과를 획득하여 상기 메모리에 저장하고, 상기 제1 시점 이후인 제2 시점에서 상기 카메라를 통해 획득된 반려 객체의 제2 이미지를 상기 복수의 이미지와 비교하여 제2 비교 결과를 획득하고, 상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상 발생 여부를 식별한다. Here, the one or more processors compare the first image of the companion object obtained through the camera at a first viewpoint with the plurality of images to obtain a first comparison result and store it in the memory, and after the first viewpoint. A second comparison result is obtained by comparing a second image of the companion object obtained through the camera with the plurality of images at a second viewpoint, and the companion object is obtained based on the first comparison result and the second comparison result. Identify whether abnormal symptoms occur.
여기서, 상기 하나 이상의 프로세서는, 상기 제2 시점에서 상기 반려 객체의 상기 제2 이미지가 획득되면, 상기 제2 이미지를 상기 복수의 이미지 중 상기 제2 시점을 기준으로 기 설정된 시간 이내에 획득된 적어도 하나의 이미지와 비교하여 상기 제2 비교 결과를 획득한다. Here, when the second image of the companion object is acquired at the second viewpoint, the one or more processors select the second image to be at least one image acquired within a preset time based on the second viewpoint among the plurality of images. The second comparison result is obtained by comparing with the image of .
또한, 상기 메모리는, 상기 반려 객체의 제1 타입 이상 증상에 대응되는 제1 제어 정보와 상기 반려 객체의 제2 타입 이상 증상에 대응되는 제2 제어 정보를 저장하며, 상기 하나 이상의 프로세서는, 상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상이 상기 제1 타입 이상 증상인 것으로 식별되면, 상기 제1 타입 이상 증상에 대응되는 상기 제1 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제1 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하고, 상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상이 상기 제2 타입 이상 증상인 것으로 식별되면, 상기 제2 타입 이상 증상에 대응되는 상기 제2 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제2 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송한다. Additionally, the memory stores first control information corresponding to a first type abnormality symptom of the companion object and second control information corresponding to a second type abnormality symptom of the companion object, and the one or more processors are configured to: If the abnormal symptom of the companion object is identified as the first type abnormal symptom based on the first comparison result and the second comparison result, at least one abnormal symptom based on the first control information corresponding to the first type abnormal symptom A first control signal for controlling the operation of the peripheral device is transmitted to the at least one peripheral device through the communication interface, and abnormal symptoms of the companion object are detected based on the first comparison result and the second comparison result. If it is identified as the second type abnormality symptom, a second control signal for controlling the operation of at least one peripheral device based on the second control information corresponding to the second type abnormality symptom is sent through the communication interface. Transmit to at least one peripheral device.
한편, 상기 하나 이상의 프로세서는, 상기 식별된 이상 증상에 대응되는 제어 정보가 식별되면, 상기 반려 객체의 이상 증상에 대한 정보 및 상기 식별된 제어 정보를 전송하도록 상기 통신 인터페이스를 통해 사용자 단말 장치로 전송하고, 상기 사용자 단말 장치로부터 상기 제어 정보에 대응되는 사용자 명령이 수신되면, 상기 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송한다. Meanwhile, when control information corresponding to the identified abnormal symptom is identified, the one or more processors transmit the information on the abnormal symptom of the companion object and the identified control information to the user terminal device through the communication interface. And, when a user command corresponding to the control information is received from the user terminal device, the control signal is transmitted to the at least one peripheral device through the communication interface.
또한, 상기 하나 이상의 프로세서는, 상기 로봇이 주행하는 동안 제1 시간 주기로 상기 반려 객체를 촬영하도록 상기 카메라를 제어하고, 상기 카메라를 획득된 이미지를 통해 상기 반려 객체에 이상 증상 발생이 감지되면, 상기 로봇이 주행하는 동안 제2 시간 주기로 상기 반려 객체를 촬영하도록 상기 카메라를 제어한다. 이때, 상기 제2 시간 주기는 상기 제1 시간 주기보다 짧게 설정될 수 있다. In addition, the one or more processors control the camera to photograph the companion object at a first time period while the robot is traveling, and when an abnormal symptom occurs in the companion object through an image obtained by the camera, The camera is controlled to photograph the companion object at a second time period while the robot is traveling. At this time, the second time period may be set shorter than the first time period.
또한, 상기 하나 이상의 프로세서는, 상기 카메라를 통해 획득된 이미지에 기초하여 상기 반려 객체에 이상 증상 발생이 감지되면, 상기 획득된 이미지를 상기 이상 증상과 관련된 기준 이미지로 상기 메모리에 저장하여 상기 반려 객체에 대한 관리 정보를 업데이트 하고, 상기 로봇이 주행하는 동안 상기 카메라를 통해 상기 반려 객체의 이미지가 획득되면, 상기 획득된 이미지를 상기 기준 이미지와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별할 수 있다. In addition, when the occurrence of an abnormal symptom in the companion object is detected based on the image acquired through the camera, the one or more processors store the acquired image in the memory as a reference image related to the abnormal symptom and store the companion object The management information for the companion object is updated, and when an image of the companion object is acquired through the camera while the robot is driving, the acquired image can be compared with the reference image to identify whether the companion object has abnormal symptoms. there is.
또한, 상기 로봇은 센서를 더 포함할 수 있다. 이때, 상기 반려 객체에 대한 관리 정보는, 상기 복수의 이미지 각각이 획득된 시점에 대응되는 환경 정보를 포함할 수 있다. 그리고 상기 하나 이상의 프로세서는, 상기 카메라를 통해 획득된 반려 객체의 이미지를 상기 메모리에 저장된 상기 복수의 이미지와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하고, 상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 센서를 통해 획득된 데이터에 기초하여 상기 주행 공간의 환경 정보를 식별하고, 상기 식별된 주행 공간의 환경 정보 및 상기 복수의 이미지 각각이 획득된 시점에 대응되는 환경 정보에 기초하여 상기 반려 객체의 이상 증상이 환경 정보에 관련된 것인지 식별하고, 상기 반려 객체의 이상 증상이 환경 정보에 관련된 것으로 식별되면, 상기 주변 기기에 대한 제어 정보에 기초하여 상기 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송할 수 있다. Additionally, the robot may further include sensors. At this time, the management information about the companion object may include environmental information corresponding to the time when each of the plurality of images was acquired. And the one or more processors compare the image of the companion object obtained through the camera with the plurality of images stored in the memory to identify whether an abnormal symptom occurs in the companion object, and determine whether an abnormal symptom occurs in the companion object. If identified, environmental information of the driving space is identified based on data acquired through the sensor, and environmental information of the identified driving space and environmental information corresponding to the time when each of the plurality of images were acquired are identified. Identifying whether the abnormal symptom of the companion object is related to environmental information, and if the abnormal symptom of the companion object is identified as related to environmental information, controlling the operation of the at least one peripheral device based on control information about the peripheral device A control signal for this purpose may be transmitted to the at least one peripheral device through the communication interface.
또한, 상기 하나 이상의 프로세서는, 상기 반려 객체가 정적 반려 객체인 경우 상기 정적 반려 객체의 위치로 이동하여 상기 정적 반려 객체를 상이한 촬영 각도로 촬영하도록 상기 카메라를 제어하고, 상기 반려 객체가 동적 반려 객체인 경우 상기 동적 반려 객체를 트랙킹하면서 상기 동적 반려 객체를 촬영하도록 상기 카메라를 제어할 수 있다. In addition, when the companion object is a static companion object, the one or more processors control the camera to move to the location of the static companion object and photograph the static companion object at different shooting angles, and the companion object is a dynamic companion object. In this case, the camera can be controlled to photograph the dynamic companion object while tracking the dynamic companion object.
또한 이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 로봇을 제어하는 방법은, 상기 로봇이 주행하는 동안 반려 객체를 촬영하도록 상기 로봇의 카메라를 제어하는 단계를 포함한다. 또한, 상기 방법은 상기 카메라를 통해 획득된 반려 객체의 이미지를 상기 로봇의 메모리에 저장된 상기 반려 객체에 대응하는 관리 정보와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하는 단계를 포함한다. 또한 상기 방법은 상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 메모리에 저장된 상기 반려 객체의 이상 증상에 대응되는 적어도 하나의 주변 기기에 대한 제어 정보에 기초하여 상기 식별된 이상 증상에 대응되는 제어 정보를 식별하는 단계를 포함한다. 또한 상기 방법은 상기 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 로봇의 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는 단계를 포함한다. 이때, 상기 관리 정보는 상이한 시점에서 반려 객체를 촬영한 복수의 이미지를 포함한다.Additionally, a method of controlling a robot according to an embodiment of the present disclosure for achieving the above object includes controlling a camera of the robot to photograph a companion object while the robot is traveling. In addition, the method includes comparing the image of the companion object obtained through the camera with management information corresponding to the companion object stored in the memory of the robot to identify whether an abnormal symptom has occurred in the companion object. In addition, when the method identifies that an abnormal symptom has occurred in the companion object, the method corresponds to the identified abnormal symptom based on control information for at least one peripheral device corresponding to the abnormal symptom of the companion object stored in the memory. and identifying control information. Additionally, the method includes transmitting a control signal for controlling the operation of at least one peripheral device to the at least one peripheral device through a communication interface of the robot based on the identified control information. At this time, the management information includes a plurality of images taken of the companion object at different viewpoints.
여기서, 상기 방법은 제1 시점에서 상기 카메라를 통해 획득된 반려 객체의 제1 이미지를 상기 복수의 이미지와 비교하여 제1 비교 결과를 획득하여 상기 메모리에 저장하는 단계, 상기 제1 시점 이후인 제2 시점에서 상기 카메라를 통해 획득된 반려 객체의 제2 이미지를 상기 복수의 이미지와 비교하여 제2 비교 결과를 획득하는 단계 및 상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상 여부를 식별하는 단계를 포함한다. Here, the method includes comparing a first image of a companion object obtained through the camera at a first viewpoint with the plurality of images to obtain a first comparison result and storing it in the memory, the first image after the first viewpoint Obtaining a second comparison result by comparing a second image of the companion object obtained through the camera at a second viewpoint with the plurality of images, and comparing the companion object with the plurality of images based on the first comparison result and the second comparison result. It includes the step of identifying whether abnormal symptoms exist.
또한, 상기 제2 비교 결과를 획득하는 단계는, 상기 제2 시점에서 상기 반려 객체의 상기 제2 이미지가 획득되면, 상기 제2 이미지를 상기 복수의 이미지 중 상기 제2 시점을 기준으로 기 설정된 시간 이내에 획득된 적어도 하나의 이미지와 비교하여 상기 제2 비교 결과를 획득한다. In addition, the step of obtaining the second comparison result includes, when the second image of the companion object is obtained at the second viewpoint, the second image is selected at a preset time based on the second viewpoint among the plurality of images. The second comparison result is obtained by comparing with at least one image acquired within.
또한 상기 메모리는, 상기 반려 객체의 제1 타입 이상 증상과 관련된 복수의 제1 이미지 및 상기 반려 객체의 제2 타입 이상 증상과 관련된 복수의 제2 이미지, 상기 제1 타입 이상 증상에 대응되는 제1 제어 정보 및 상기 제2 타입 이상 증상에 대응되는 제2 제어 정보를 저장한다. 이때, 상기 전송하는 단계는, 상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상이 상기 제1 타입 이상 증상인 것으로 식별되면, 상기 제1 타입 이상 증상에 대응되는 상기 제1 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제1 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하고, 상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상이 상기 제2 타입 이상 증상인 것으로 식별되면, 상기 제2 타입 이상 증상에 대응되는 상기 제2 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제2 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송한다. In addition, the memory may include a plurality of first images related to a first type abnormality symptom of the companion object, a plurality of second images related to a second type abnormality symptom of the companion object, and a first type corresponding to the first type abnormality symptom. Control information and second control information corresponding to the second type abnormality symptom are stored. At this time, in the transmitting step, if the abnormal symptom of the companion object is identified as the first type abnormal symptom based on the first comparison result and the second comparison result, the abnormal symptom corresponding to the first type abnormal symptom A first control signal for controlling the operation of at least one peripheral device based on the first control information is transmitted to the at least one peripheral device through the communication interface, and the first comparison result and the second comparison result are Based on this, if the abnormal symptom of the companion object is identified as the second type abnormal symptom, a second device for controlling the operation of at least one peripheral device based on the second control information corresponding to the second type abnormal symptom. A control signal is transmitted to the at least one peripheral device through the communication interface.
또한, 상기 전송하는 단계는, 상기 식별된 이상 증상에 대응되는 제어 정보가 식별되면, 상기 반려 객체의 이상 증상에 대한 정보 및 상기 식별된 제어 정보를 전송하도록 상기 통신 인터페이스를 통해 사용자 단말 장치로 전송한다. 이때, 상기 방법은, 상기 통신 인터페이스를 통해 상기 사용자 단말 장치로부터 상기 제어 정보에 대응되는 사용자 명령을 수신하는 단계 및 상기 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는 단계를 더 포함한다. In addition, in the transmitting step, when control information corresponding to the identified abnormal symptom is identified, information on the abnormal symptom of the companion object and the identified control information are transmitted to the user terminal device through the communication interface. do. At this time, the method further includes receiving a user command corresponding to the control information from the user terminal device through the communication interface and transmitting the control signal to the at least one peripheral device through the communication interface. Includes.
또한, 상기 카메라를 제어하는 단계는, 상기 로봇이 주행하는 동안 제1 시간 주기로 상기 반려 객체를 촬영하도록 상기 카메라를 제어하고, 상기 카메라를 획득된 이미지를 통해 상기 반려 객체에 이상 증상 발생이 감지되면, 상기 로봇이 주행하는 동안 제2 시간 주기로 상기 반려 객체를 촬영하도록 상기 카메라를 제어한다. 이때 상기 제2 시간 주기는 상기 제1 시간 주기보다 짧도록 설정될 수 있다. In addition, the step of controlling the camera includes controlling the camera to photograph the companion object in a first time period while the robot is traveling, and when abnormal symptoms are detected in the companion object through images obtained by the camera. , the camera is controlled to photograph the companion object at a second time period while the robot is traveling. At this time, the second time period may be set to be shorter than the first time period.
또한, 상기 방법은 상기 카메라를 통해 획득된 이미지에 기초하여 상기 반려 객체에 이상 증상 발생이 감지되면, 상기 획득된 이미지를 상기 이상 증상과 관련된 기준 이미지로 상기 메모리에 저장하여 상기 반려 객체에 대한 관리 정보를 업데이트 하는 단계 및 상기 로봇이 주행하는 동안 상기 카메라를 통해 상기 반려 객체의 이미지가 획득되면, 상기 획득된 이미지를 상기 기준 이미지와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하는 단계를 더 포함한다. In addition, when the occurrence of abnormal symptoms in the companion object is detected based on the image acquired through the camera, the method stores the acquired image in the memory as a reference image related to the abnormal symptom to manage the companion object. A step of updating information, and when an image of the companion object is acquired through the camera while the robot is driving, comparing the acquired image with the reference image to identify whether an abnormality of the companion object occurs. Includes.
또한, 상기 반려 객체에 대한 관리 정보는, 상기 복수의 이미지 각각이 획득된 시점에 대응되는 환경 정보를 포함한다. 이때, 상기 방법은 상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 로봇의 센서를 통해 획득된 데이터에 기초하여 상기 주행 공간의 환경 정보를 식별하는 단계, 상기 식별된 주행 공간의 환경 정보 및 상기 복수의 이미지 각각이 획득된 시점에 대응되는 환경 정보에 기초하여 상기 반려 객체의 이상 증상이 환경 정보에 관련된 것인지 식별하는 단계 및 상기 반려 객체의 이상 증상이 환경 정보에 관련된 것으로 식별되면, 상기 주변 기기에 대한 제어 정보에 기초하여 상기 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는 단계를 포함한다. Additionally, the management information for the companion object includes environmental information corresponding to the time when each of the plurality of images was acquired. At this time, when it is identified that an abnormal symptom has occurred in the companion object, the method includes identifying environmental information of the driving space based on data acquired through the sensor of the robot, environmental information of the identified driving space, and Identifying whether the abnormal symptom of the companion object is related to environmental information based on environmental information corresponding to the time when each of the plurality of images is acquired; and if the abnormal symptom of the companion object is identified as related to environmental information, the surrounding and transmitting a control signal for controlling an operation of the at least one peripheral device to the at least one peripheral device through the communication interface based on control information about the device.
또한, 상기 카메라를 제어하는 단계는, 상기 반려 객체가 정적 반려 객체인 경우 상기 정적 반려 객체의 위치로 이동하여 상기 정적 반려 객체를 상이한 촬영 각도로 촬영하도록 상기 카메라를 제어하고, 상기 반려 객체가 동적 반려 객체인 경우 상기 동적 반려 객체를 트랙킹하면서 상기 동적 반려 객체를 촬영하도록 상기 카메라를 제어한다. In addition, the step of controlling the camera includes, if the companion object is a static companion object, controlling the camera to move to the location of the static companion object and photograph the static companion object at a different shooting angle, and if the companion object is a dynamic companion object. In the case of a companion object, the camera is controlled to photograph the dynamic companion object while tracking the dynamic companion object.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 반려 객체를 관리하는 로봇의 제어 방법이 로봇의 프로세서에 의해 수행되는 경우, 상기 프로세서가 동작을 수행하도록 하는 컴퓨터 명령이 비일시적 컴퓨터 판독가능 기록 매체에 저장될 수 있다. 상기 동작은, 상기 로봇이 주행하는 동안 상기 반려 객체를 촬영하도록 상기 로봇의 카메라를 제어하는 단계를 포함한다. 또한 상기 동작은, 상기 카메라를 통해 획득된 반려 객체의 이미지를 상기 로봇의 메모리에 저장된 상기 반려 객체에 대응하는 관리 정보와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하는 단계를 포함한다. 또한 상기 동작은 상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 메모리에 저장된 상기 반려 객체의 이상 증상에 대응되는 적어도 하나의 주변 기기에 대한 제어 정보에 기초하여 상기 식별된 이상 증상에 대응되는 제어 정보를 식별하는 단계를 포함한다. 또한 상기 동작은 상기 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 로봇의 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는 단계를 포함한다. 이때, 상기 관리 정보는 상이한 시점에서 반려 객체를 촬영한 복수의 이미지를 포함한다. When the control method of a robot that manages a companion object according to an embodiment of the present disclosure to achieve the above object is performed by the processor of the robot, the computer command that causes the processor to perform the operation is non-transitory computer readable. It can be stored on any possible recording medium. The operation includes controlling a camera of the robot to photograph the companion object while the robot is traveling. Additionally, the operation includes comparing the image of the companion object obtained through the camera with management information corresponding to the companion object stored in the memory of the robot to identify whether an abnormality in the companion object has occurred. In addition, the operation is performed when it is identified that an abnormal symptom has occurred in the companion object, based on control information for at least one peripheral device corresponding to the abnormal symptom of the companion object stored in the memory and corresponding to the identified abnormal symptom. and identifying control information. Additionally, the operation includes transmitting a control signal for controlling the operation of at least one peripheral device to the at least one peripheral device through a communication interface of the robot based on the identified control information. At this time, the management information includes a plurality of images taken of the companion object at different viewpoints.
도 1은 본 개시의 일 실시 예에 따른, 반려 객체를 모니터링 하는 로봇의 예시도이다.
도 2는 본 개시의 일 실시 예에 따른 로봇의 구성도이다.
도 3은 본 개시의 일 실시 예에 따른, 반려 객체에 대한 관리 정보에 기초하여 반려 객체의 이상 증상을 식별하는 것을 나타낸 예시도이다.
도 4는 본 개시의 일 실시 예에 따른, 메모리에 저장된 복수의 반려 객체에 대한 관리 정보를 나타낸 예시도이다.
도 5는 본 개시의 일 실시 예에 따른, 서로 다른 시점에 획득된 이미지에 기초하여 반려 객체의 이상 증상을 식별하는 것을 나타낸 예시도이다.
도 6은 본 개시의 일 실시 예에 다른, 반려 객체의 이상 증상의 발생 여부를 식별하는 것을 나타낸 예시도이다.
도 7은 본 개시의 일 실시 예에 따른 반려 객체의 이상 증상 발생이 감지됨에 따라 기준 이미지를 설정하고, 설정된 기준 이미지에 기초하여 반려 객체의 이상 증상 발생 여부를 식별하는 것을 나타낸 예시도이다.
도 8은, 본 개시의 일 실시 예에 따른 반려 객체의 이상 증상의 유형에 따라 주변 기기에 제어 명령어를 송신하는 것을 나타낸 예시도이다.
도 9는 본 개시의 일 실시 예에 따른, 사용자 단말 장치에 반려 객체에 대한 관리 정보를 송신하고, 사용자 단말 장치로부터 주변 기기에 대한 제어 명령어를 수신하는 것을 나타낸 예시도이다.
도 10은 본 개시의 일 실시 예에 따른 이상 증상에 대응하는 주변 기기에 대한 정보를 나타낸 예시도이다.
도 11은 본 개시의 일 실시 예에 따른, 로봇의 세부적인 구성도이다.
도 12는 본 개시의 일 실시 예에 따른 반려 객체 관리 로봇의 제어 방법에 관한 개략적인 순서도이다.1 is an exemplary diagram of a robot that monitors a companion object according to an embodiment of the present disclosure.
Figure 2 is a configuration diagram of a robot according to an embodiment of the present disclosure.
Figure 3 is an example diagram illustrating identifying abnormal symptoms of a companion object based on management information about the companion object, according to an embodiment of the present disclosure.
Figure 4 is an example diagram showing management information on a plurality of companion objects stored in memory, according to an embodiment of the present disclosure.
Figure 5 is an example diagram illustrating identifying abnormal symptoms of a companion object based on images acquired at different times, according to an embodiment of the present disclosure.
Figure 6 is an example diagram illustrating identifying whether an abnormal symptom occurs in a companion object, according to an embodiment of the present disclosure.
Figure 7 is an example diagram illustrating setting a reference image as the occurrence of an abnormality in a companion object is detected and identifying whether an abnormality in the companion object has occurred based on the set reference image, according to an embodiment of the present disclosure.
FIG. 8 is an example diagram illustrating transmitting a control command to a peripheral device according to the type of abnormal symptom of a companion object according to an embodiment of the present disclosure.
Figure 9 is an example diagram illustrating transmitting management information about a companion object to a user terminal device and receiving a control command for a peripheral device from the user terminal device, according to an embodiment of the present disclosure.
Figure 10 is an example diagram showing information on peripheral devices corresponding to abnormal symptoms according to an embodiment of the present disclosure.
11 is a detailed configuration diagram of a robot according to an embodiment of the present disclosure.
Figure 12 is a schematic flowchart of a control method of a companion object management robot according to an embodiment of the present disclosure.
본 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 본 개시의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성 요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Since these embodiments can be modified in various ways and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the scope to specific embodiments, and should be understood to include various modifications, equivalents, and/or alternatives to the embodiments of the present disclosure. In connection with the description of the drawings, similar reference numerals may be used for similar components.
본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다. In describing the present disclosure, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present disclosure, the detailed description thereof will be omitted.
덧붙여, 하기 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 개시의 기술적 사상의 범위가 하기 실시 예에 한정되는 것은 아니다. 오히려, 이들 실시 예는 본 개시를 더욱 충실하고 완전하게 하고, 당업자에게 본 개시의 기술적 사상을 완전하게 전달하기 위하여 제공되는 것이다.In addition, the following examples may be modified into various other forms, and the scope of the technical idea of the present disclosure is not limited to the following examples. Rather, these embodiments are provided to make the present disclosure more faithful and complete and to completely convey the technical idea of the present disclosure to those skilled in the art.
본 개시에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The terms used in this disclosure are merely used to describe specific embodiments and are not intended to limit the scope of rights. Singular expressions include plural expressions unless the context clearly dictates otherwise.
본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성 요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다. In the present disclosure, expressions such as “have,” “may have,” “includes,” or “may include” refer to the presence of corresponding features (e.g., components such as numbers, functions, operations, or parts). , and does not rule out the existence of additional features.
본 개시에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In the present disclosure, expressions such as “A or B,” “at least one of A or/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” includes (1) at least one A, (2) at least one B, or (3) it may refer to all cases including both at least one A and at least one B.
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성 요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성 요소를 다른 구성 요소와 구분하기 위해 사용될 뿐 해당 구성 요소들을 한정하지 않는다. Expressions such as “first,” “second,” “first,” or “second,” used in the present disclosure can modify various components regardless of order and/or importance, and can refer to one component. It is only used to distinguish from other components and does not limit the components.
어떤 구성 요소(예: 제1 구성 요소)가 다른 구성 요소(예: 제2 구성 요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성 요소가 상기 다른 구성 요소에 직접적으로 연결되거나, 다른 구성 요소(예: 제3 구성 요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. A component (e.g., a first component) is “(operatively or communicatively) coupled with/to” another component (e.g., a second component). When referred to as “connected to,” it should be understood that any component may be directly connected to the other component or may be connected through another component (eg, a third component).
반면에, 어떤 구성 요소(예: 제1 구성 요소)가 다른 구성 요소(예: 제2 구성 요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성 요소와 상기 다른 구성 요소 사이에 다른 구성 요소(예: 제3 구성 요소)가 존재하지 않는 것으로 이해될 수 있다.On the other hand, when a component (e.g., a first component) is said to be “directly connected” or “directly connected” to another component (e.g., a second component), It may be understood that no other component (e.g., a third component) exists between other components.
본 개시에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. The expression “configured to” used in the present disclosure may mean, for example, “suitable for,” “having the capacity to,” depending on the situation. ," can be used interchangeably with "designed to," "adapted to," "made to," or "capable of." The term “configured (or set to)” may not necessarily mean “specifically designed to” in hardware.
대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.Instead, in some contexts, the expression “a device configured to” may mean that the device is “capable of” working with other devices or components. For example, the phrase "processor configured (or set) to perform A, B, and C" refers to a processor dedicated to performing the operations (e.g., an embedded processor), or by executing one or more software programs stored on a memory device. , may refer to a general-purpose processor (e.g., CPU or application processor) capable of performing the corresponding operations.
실시 예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In an embodiment, a 'module' or 'unit' performs at least one function or operation, and may be implemented as hardware or software, or as a combination of hardware and software. Additionally, a plurality of 'modules' or a plurality of 'units' may be integrated into at least one module and implemented with at least one processor, except for 'modules' or 'units' that need to be implemented with specific hardware.
한편, 도면에서의 다양한 요소와 영역은 개략적으로 그려진 것이다. 따라서, 본 발명의 기술적 사상은 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되지 않는다. Meanwhile, various elements and areas in the drawing are schematically drawn. Accordingly, the technical idea of the present invention is not limited by the relative sizes or spacing drawn in the attached drawings.
이하에서는 첨부한 도면을 참고하여 본 개시에 따른 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Hereinafter, with reference to the attached drawings, embodiments according to the present disclosure will be described in detail so that those skilled in the art can easily implement them.
도 1은 본 개시의 일 실시 예에 따른, 반려 객체를 모니터링 하는 로봇의 예시도이다. 1 is an exemplary diagram of a robot that monitors a companion object according to an embodiment of the present disclosure.
도 1을 참조하면, 본 개시의 로봇(100)은 주행 공간 내 반려 객체(200)를 실시간으로 모니터링 하여 반려 객체(200)의 이상 증상을 감지한다. 구체적으로, 로봇(100)은 반려 객체(200)의 이상 증상을 감지하기 위하여, 카메라(110)를 통해 반려 객체(200)에 대한 이미지를 획득한다. 그리고, 로봇(100)은 획득된 이미지와 반려 객체(200)에 관한 관리 정보에 기초하여 반려 객체(200)의 이상 증상을 식별한다. 반려 객체(200)는 반려 동물 및 반려 식물을 포함한다. Referring to FIG. 1, the
이때, 반려 객체(200)에 관한 관리 정보에는 반려 객체(200)에 관한 복수의 이미지가 포함된다. 따라서, 로봇(100)은 반려 객체(200)에 대하여 누적하여 저장된 복수의 이미지와 실시간으로 획득된 이미지를 비교하여 반려 객체(200)의 이상 증상을 식별할 수 있다. At this time, the management information about the
특히, 각각의 반려 객체(200)는 고유의 성격, 행동, 특징 등을 갖기 때문에, 이상 증상을 식별하기 위한 일반적인(또는 공통된) 기준이 적용되기 어려운 경우가 발생하기도 한다. 그렇기 때문에, 본 개시의 로봇(100)은 각각의 반려 객체(200)에 대한 이미지를 반복하여 획득된 이미지를 반려 객체(200)에 대응하는 관리 정보로 저장한다. 각각의 반려 객체(200)에 대하여 누적된 복수의 이미지는 각각의 반려 객체(200)의 이상 증상을 식별하는 기준이 된다. 이를 통해, 본 개시의 로봇(100)은 각각의 반려 객체(200)가 갖고 있는 고유의 성격, 행동, 특징 등을 고려하여 반려 객체(200)의 이상 증상을 식별한다. 이는, 반려 객체(200)의 이상 증상을 보다 명확히 식별하고, 사용자가 보다 신속하게 반려 객체(200)에 대한 조치를 취할 수 있도록 한다. In particular, since each
이하에서는, 이와 관련된 본 개시의 일 실시 예에 대하여 자세히 설명하도록 한다. Below, an embodiment of the present disclosure related to this will be described in detail.
도 2는 본 개시의 일 실시 예에 따른 로봇의 구성도이다. Figure 2 is a configuration diagram of a robot according to an embodiment of the present disclosure.
도 2에 따르면, 본 개시의 로봇(100)은 카메라(110), 메모리(120), 통신 인터페이스(130) 및 하나 이상의 프로세서(140)를 포함한다. According to FIG. 2, the
카메라(110)는 로봇(100) 주변의 객체를 촬영하여 객체에 관한 복수의 이미지(10)를 획득한다. 구체적으로, 카메라(110)는 반려 객체(200)를 촬영하여 반려 객체(200)에 관한 이미지(10)를 획득한다. 카메라(110)를 통해 획득되는 반려 객체(200)에 관한 이미지(10)는 동영상을 구성하는 복수의 이미지 프레임을 포함한다. The
이를 위해, 카메라(110)는 CMOS 구조를 가진 촬상 소자(CIS, CMOS Image Sensor), CCD 구조를 가진 촬상 소자(Charge Coupled Device) 등의 촬상 소자로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 카메라(110)는 피사체를 촬영할 수 있는 다양한 해상도의 카메라(110) 모듈로 구현될 수 있다. To this end, the
한편, 카메라(110)는 뎁스 카메라(110), 스테레오 카메라 또는 RGB 카메라 등으로 구현될 수 있다. 이를 통해, 카메라(110)는 반려 객체(200)에 관한 이미지(10)와 함께 반려 객체(200)의 뎁스 정보를 함께 획득할 수 있다. Meanwhile, the
메모리(120)는 본 개시의 다양한 실시 예를 위해 필요한 데이터를 저장할 수 있다. 일 예로, 메모리(120)에는 로봇(100)이 위치한 주행 공간에 관한 맵 데이터가 저장될 수 있다. 여기서, 맵 데이터는 로봇(100)이 주행하도록 설정된 주행 공간에 관한 정보가 포함된 맵 데이터이다. 주행 공간에 관한 정보는 주행 공간 내 설정된 로봇(100)의 주행 경로, 주행 공간 내 구조물, 반려 객체(200)의 위치 정보 등을 포함한다. The
한편, 본 개시의 일 실시 예에 따라 메모리(120)는 주행 공간 내 반려 객체(200)의 정보를 저장할 수 있다. 반려 객체(200)의 정보는, 주행 공간 내 존재하는 반려 객체(200)의 유형, 반려 객체(200)의 식별 정보, 주행 공간 내 반려 객체(200)의 위치 등이 포함될 수 있다. Meanwhile, according to an embodiment of the present disclosure, the
또한, 본 개시의 일 실시 예에 따라 메모리(120)는 각각의 반려 객체(200)에 대한 관리 정보와 반려 객체(200)의 이상 증상에 대응되는 주변 기기(300)에 대한 제어 정보가 저장될 수 있다. 구체적으로, 하나 이상의 프로세서(140)는 상이한 시점에서 반려 객체(200)를 촬영하여 획득된 복수의 이미지(10)를 반려 객체(200)에 대한 관리 정보로 메모리(120)에 저장할 수 있다. 일 예로, 하나 이상의 프로세서(140)는 주기적으로 반려 객체(200)를 촬영하여 반려 객체(200)에 대한 이미지(10)를 획득할 수 있다. 그리고, 하나 이상의 프로세서(140)는 획득된 이미지를 누적하여 메모리(120)에 저장할 수 있다. 이와 같이, 각각의 반려 객체(200)에 대하여 누적된 복수의 이미지(10)는 각각의 반려 객체(200)의 관리 정보로 이용될 수 있다. In addition, according to an embodiment of the present disclosure, the
한편, 메모리(120)에는 반려 객체(200)의 이상 증상에 대응되는 적어도 하나의 주변 기기(300)에 대한 제어 정보가 저장된다. 구체적으로, 메모리(120)에는 로봇(100)과 통신하는 로봇(100)의 주변 기기(300)의 정보가 저장될 수 있다. 이때, 주변 기기(300)의 정보는, 각각의 주변 기기(300)의 종류, 각각의 주변 기기(300)의 식별 정보, 각각의 주변 기기(300)의 제어 정보 등이 포함된다. Meanwhile, control information for at least one
한편, 반려 객체(200)의 이상 증상에 따라 제어되는 적어도 하나의 주변 기기(300)에 대한 제어 정보 또한 메모리(120)에 함께 저장된다. 이에 따라, 하나 이상의 프로세서(140)는 반려 객체(200)의 이상 증상에 대한 적어도 하나의 주변 기기(300)에 대한 제어 정보에 기초하여 관리 정보를 바탕으로 식별된 반려 객체(200)의 이상 증상에 대한 적절한 조치를 취할 수 있다. 주변 기기(300)는 반려 객체(200)의 주변 환경을 조성하는데 영향을 미치는 전자 장치를 포함한다. 일 예로, 주변 기기(300)는 조명 장치, 에어컨, 공기 청정기, 가습기, 제습기 등을 포함할 수 있다. Meanwhile, control information on at least one
메모리(120)는 데이터 저장 용도에 따라 로봇(100)에 임베디드 된 메모리 형태로 구현되거나, 로봇(100)에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 로봇(100)의 구동을 위한 데이터의 경우 로봇(100)에 임베디드 된 메모리에 저장되고, 로봇(100)의 확장 기능을 위한 데이터의 경우 로봇(100)에 탈부착이 가능한 메모리에 저장될 수 있다. The
한편, 로봇(100)에 임베디드 된 메모리(120)의 경우 휘발성 메모리 (예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나로 구현될 수 있다. Meanwhile, in the case of the
또한, 로봇(100)에 탈부착이 가능한 메모리(120)의 경우 메모리(120) 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결 가능한 외부 메모리(예를 들어, USB 메모리(120)) 등과 같은 형태로 구현될 수 있다.In addition, in the case of the
통신 인터페이스(130)는 회로를 포함하며, 로봇의 주변 기기(300)와의 통신을 수행할 수 있다. 구체적으로, 하나 이상의 프로세서(140)는 통신 인터페이스(130)를 통해 연결된 외부 장치(예를 들어, 서버)로부터 각종 데이터 또는 정보를 수신할 수 있으며, 외부 장치로 각종 데이터 또는 정보를 전송할 수도 있다. 일 예로, 하나 이상의 프로세서(140)는 반려 객체(200)에 대하여 획득한 이미지(10)를 통신 인터페이스(130)를 통해 사용자 단말 장치(400)에 송신할 수 있다. 또한, 하나 이상의 프로세서(140)는 반려 객체(200)의 이상 증상이 발생된 것으로 식별되면, 통신 인터페이스(130)를 통해 사용자 단말 장치(400)에 반려 객체(200)의 이상 증상을 알리는 정보를 송신할 수도 있다. The
통신 인터페이스(130)는 WiFi 모듈, Bluetooth 모듈, 무선 통신 모듈, NFC 모듈 및 UWB 모듈(Ultra Wide Band) 중 적어도 하나를 포함할 수 있다. 구체적으로, WiFi 모듈과 Bluetooth 모듈 각각은 WiFi 방식, Bluetooth 방식으로 통신을 수행할 수 있다. WiFi 모듈이나 Bluetooth 모듈을 이용하는 경우에는 SSID 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. The
또한, 무선 통신 모듈은 IEEE, Zigbee, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), 5G(5th Generation) 등과 같은 다양한 통신 규격에 따라 통신을 수행할 수 있다. 그리고, NFC 모듈은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 통신을 수행할 수 있다. 또한, UWB 모듈은 UWB 안테나 간 통신을 통하여, 펄스가 목표물에 도달하는 시간인 ToA(Time of Arrival), 송신 장치에서의 펄스 도래각인 AoA(Ange of Arrival)을 정확히 측정할 수 있고, 이에 따라 실내에서 수십 cm 이내의 오차 범위에서 정밀한 거리 및 위치 인식이 가능하다.Additionally, the wireless communication module can perform communication according to various communication standards such as IEEE, Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), and 5th Generation (5G). In addition, the NFC module can perform communication using the NFC (Near Field Communication) method using the 13.56MHz band among various RF-ID frequency bands such as 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz, etc. In addition, through communication between UWB antennas, the UWB module can accurately measure ToA (Time of Arrival), which is the time for a pulse to reach the target, and AoA (Ange of Arrival), which is the angle of arrival of the pulse at the transmitter, and can thus accurately measure indoor Precise distance and position recognition is possible within an error range of several tens of centimeters.
프로세서(140)는 로봇(100)의 전반적인 동작을 제어할 수 있다. 이를 위해, 프로세선(140)는 RAM(Random Access Memory), ROM(Read Only Memory), CPU(central processing unit), GPU(Graphic processing unit) 및 시스템 버스 등을 포함할 수 있으며, 로봇(100)에 포함된 하나 이상의 구성 요소들의 제어에 관한 연산이나 데이터 처리를 실행할 수 있다.The
프로세서(140)는 스토리지에 저장된 하나 이상의 명령어를 실행시켜 로봇(100)에 포함된 하나 이상의 구성 요소들을 제어하거나, 하드웨어적인 회로 내지는 칩으로서 하나 이상의 구성 요소들을 제어하거나, 또는 소프트웨어 및 하드웨어의 결합으로서 하나 이상의 구성 요소들을 제어할 수 있다. The
프로세서(140)는 카메라(110), 메모리(120), 통신 인터페이스(130), 적어도 하나의 센서(도시되지 않음) 및 구동부(도시되지 않음)를 포함한 로봇(100) 내 다양한 구성 요소들과 전기적으로 연결되어 이들을 제어할 수 있다.The
본 개시의 일 실시 예에 따라, 하나 이상의 프로세서(140)는 로봇(100)이 주행하는 동안 반려 객체(200)를 촬영하도록 카메라(110)를 제어한다. According to an embodiment of the present disclosure, one or
구체적으로, 하나 이상의 프로세서(140)는 통신 인터페이스(130) 또는 입력 인터페이스를 통해 수신된 주행 명령어에 기초하여 로봇(100)이 주행 공간을 주행하도록 로봇(100)의 구동부를 제어할 수 있다. 이때, 하나 이상의 프로세서(140)는 로봇(100)이 주행하는 동안 반려 객체(200)를 촬영하도록 카메라(110)를 제어한다. 그리고, 하나 이상의 프로세서(140)는 카메라(110)를 통해 반려 객체(200)를 촬영하여 반려 객체(200)에 관한 이미지(10)를 획득할 수 있다. Specifically, one or
또는, 하나 이상의 프로세서(140)는 반려 객체(200)의 관리 모드에 관한 명령을 수신하면 주행 공간 내 반려 객체(200)를 탐색하도록 로봇(100)의 구동부를 제어할 수 있다. 반려 객체(200)의 관리 모드는, 로봇(100)의 구동 모드 중 주행 공간 내 존재하는 반려 객체(200)에 대한 복수의 이미지(10)를 획득하기 위하여 로봇(100)이 주행 공간을 주행하도록 설정된 모드일 수 있다.Alternatively, when receiving a command regarding the management mode of the
일 예로, 프로세서는 로봇(100)의 반려 객체(200)의 관리 모드에서 맵 데이터 상에 설정된 반려 객체(200)의 위치로 로봇(100)이 이동하도록 로봇(100)의 구동부를 제어할 수 있다. 그리고, 프로세서는 반려 객체(200)의 위치로 로봇(100)이 이동하면, 맵 데이터 상에 설정된 반려 객체(200)의 위치에서 관찰되는 반려 객체(200)에 대한 복수의 이미지(10)를 획득하도록 카메라(110)를 제어할 수 있다. As an example, the processor may control the driving unit of the
또는 하나 이상의 프로세서(140)는 기 설정된 조건(예를 들어, 기 설정된 주기 시간 등)에 기초하여 로봇(100)이 주행 공간을 주행하도록 로봇(100)의 구동부를 제어할 수 있다. 일 예로, 하나 이상의 프로세서(140)는 기 설정된 주기마다 주행 공간을 주행하며, 주행 공간 내 반려 객체(200)를 탐색할 수도 있다. 기 설정된 주기가 2시간이라고 가정하였을 때, 하나 이상의 프로세서(140)는 2시간 마다 주행 공간을 주행하고, 주행 공간 내 반려 객체(200)에 대한 복수의 이미지(10)를 획득할 수 있다. Alternatively, one or
한편, 하나 이상의 프로세서(140)는 로봇(100)의 주변에서 감지되는 객체가 반려 객체인지 식별하는 과정을 수행할 수 있다. 구체적으로, 프로세서는 로봇(100)이 주행하는 동안 로봇(100)의 센서(미도시)를 통해 로봇(100) 주변의 객체를 감지하고, 감지된 객체를 향하도록 로봇(100)의 구동부를 제어할 수 있다. 그리고, 하나 이상의 프로세서(140)는 센서를 통해 감지된 객체에 센싱 정보(예를 들어, 객체에 대응하는 포인트 클라우드 정보)를 획득하거나 또는 카메라(110)를 통해 감지된 객체에 대한 적어도 하나의 이미지(10)를 획득할 수 있다. 그리고, 하나 이상의 프로세서(140)는 획득된 센싱 정보 또는 적어도 하나의 이미지(10)와 메모리(120)에 저장된 반려 객체의 정보에 기초하여 감지된 객체가 반려 객체(200)인지 식별할 수 있다. Meanwhile, one or
본 개시의 일 실시 예에 따라, 하나 이상의 프로세서(140)는, 반려 객체(200)가 정적 반려 객체인 경우 정적 반려 객체의 위치로 이동하여 정적 반려 객체를 상이한 촬영 각도로 촬영하도록 카메라(110)를 제어하고, 반려 객체(200)가 동적 반려 객체인 경우 동적 반려 객체를 트랙킹하면서 동적 반려 객체를 촬영하도록 카메라(110)를 제어할 수 있다. According to an embodiment of the present disclosure, the one or
구체적으로, 프로세서는 반려 객체(200)가 정적 반려 객체인지 동적 반려 객체인지를 식별한다. 반려 객체(200)가 정적 반려 객체인지 동적 반려 객체인지를 판단하는 과정은, 반려 객체(200)에 대한 복수의 이미지(10)를 획득하기 전에 또는 반려 객체(200)에 대한 복수의 이미지(10)를 획득하는 동안에 수행될 수 있다. Specifically, the processor identifies whether the
정적 반려 객체는 로봇(100)이 위치한 주행 공간 내에서 객체의 위치가 고정된 반려 객체일 수 있다. 일 예로, 꽃, 나무 등과 같은 식물을 포함할 수 있다. 뿐만 아니라, 주행 공간 내에서 고정된 위치에서 식별 가능한 동물을 포함할 수도 있다. 일 예로, 수족관 내 물고기, 거북이 등이 정적 반려 객체에 해당할 수 있다. 즉, 정적 반려 객체의 경우 주행 공간 내에서의 위치가 일정하게 유지될 수 있다.The static companion object may be a companion object whose position is fixed within the driving space where the
동적 반려 객체는 주행 공간 내에서 위치가 변경 가능한 반려 객체(200)로, 강아지, 고양이 등과 같은 동물을 포함할 수 있다.A dynamic companion object is a
정적 반려 객체의 위치는 맵 데이터 상에 기 설정될 수 있다. 이에 따라, 하나 이상의 프로세서(140)는 맵 데이터 상에 반려 객체(200)의 위치가 기 설정 되었는지에 따라 반려 객체(200)의 유형을 식별할 수도 있다. The location of the static companion object may be preset on map data. Accordingly, one or
일 예로, 하나 이상의 프로세서(140)는 맵 데이터 상에 반려 객체(200)의 위치가 기 설정되었으면, 반려 객체(200)의 유형을 정적 반려 객체로 식별할 수 있다. 반면에, 프로세서는 맵 데이터 상에 반려 객체(200)의 위치가 기 설정 되어있지 않으면, 반려 객체(200)의 유형을 동적 반려 객체로 식별할 수도 있다.For example, if the location of the
다만, 이에 제한되는 것은 아니다. 동적 반려 객체의 경우에도 동적 반려 객체가 자주 발견되는 적어도 하나의 위치가 맵 데이터 상에 기 설정될 수도 있다. 이 경우, 하나 이상의 프로세서(140)는 맵 데이터 상에 기 설정된 위치의 개수에 따라 반려 객체(200)의 유형을 식별할 수 있다. 일 예로, 정적 반려 객체의 경우 맵 데이터 상에 기 설정된 위치가 하나라면, 동적 반려 객체의 경우 맵 데이터 상에 기 설정된 위치가 복수 개일 수 있다. However, it is not limited to this. Even in the case of a dynamic companion object, at least one location where the dynamic companion object is frequently found may be preset in the map data. In this case, one or
하나 이상의 프로세서(140)는 통신 인터페이스(130) 또는 입력 인터페이스(미도시)를 통해 주행 공간 내 존재하는 반려 객체(200)에 관한 정보를 사전에 수신할 수 있다. 반려 객체(200)의 정보는, 반려 객체(200)의 유형, 이름, 나이, 주행 공간 내 반려 객체(200)의 위치 등이 포함될 수 있다. 한편, 반려 객체(200)의 정보는 상술한 바와 같이 메모리(120)에 저장될 수 있다. One or
또한, 하나 이상의 프로세서(140)는 카메라(110)를 통해 실시간으로 획득된 이미지(10)에 기초하여 반려 객체(200)의 유형을 식별할 수도 있다. 즉, 적어도 하나 이상의 프로세서(140)는 실시간으로 획득된 이미지(10)에 기초하여 반려 객체(200)가 정적 반려 객체인지 또는 동적 반려 객체인지를 식별할 수 있다. Additionally, one or
구체적으로, 하나 이상의 프로세서(140)는 카메라(110)를 통해 획득된 이미지(10)에 기초하여 반려 객체(200)의 유형을 식별할 수 있다. 즉, 프로세서는 사용자 명령 또는 기 설정된 조건에 따라 로봇(100)이 위치한 주행 공간을 주행하면서 로봇(100) 주변의 객체에 대한 복수의 이미지(10)를 획득할 수 있다. 이때, 프로세서는 획득된 복수의 이미지(10)를 바탕으로, 이미지(10) 내 객체를 인식하고, 인식된 객체의 유형을 식별할 수 있다. Specifically, one or
이때, 복수의 이미지(10) 내에서 객체의 위치가 변경되거나 또는 객체의 움직임이 감지되면 하나 이상의 프로세서(140)는 복수의 이미지(10) 내의 객체를 동적 반려 객체로 식별할 수 있다. 반면에, 복수의 이미지(10) 내에서 객체의 위치가 변경되지 않거나 또는 객체의 움직임이 감지되지 않으면 하나 이상의 프로세서(140)는 복수의 이미지(10) 내의 객체를 정적 반려 객체로 식별할 수 있다At this time, when the position of an object changes within the plurality of
그리고, 하나 이상의 프로세서(140)는 복수의 이미지(10)를 바탕으로 인식된 객체가 반려 객체(200)에 해당하는지 식별하기 위하여, 메모리(120)에 저장된 반려 객체(200)의 식별 정보를 이용할 수 있다. 구체적으로, 하나 이상의 프로세서(140)는 이미지(10) 내 객체에 관한 객체 인식 결과와 반려 객체(200)의 식별 정보에 기초하여, 이미지(10) 내 객체가 반려 객체(200)에 해당하는지 식별할 수 있다.In addition, the one or
이와 같이, 적어도 하나의 프로세서(140)는 반려 객체(200)가 정적 반려 객체인지 또는 동적 반려 객체인지를 식별한 후, 반려 객체(200)가 정적 반려 객체인 경우 정적 반려 객체의 위치로 이동하여 정적 반려 객체를 상이한 촬영 각도로 촬영하도록 카메라(110)를 제어한다. In this way, the at least one
즉, 정적 반려 객체의 경우 위치가 변경되지 않으므로, 하나 이상의 프로세서(140)는 기 설정된 반려 객체(200)의 위치로 로봇(100)이 이동하면 해당 위치에서 반려 객체(200)를 발견할 수 있다. 따라서, 적어도 하나의 프로세서(140)는 정적 반려 객체의 경우, 맵 데이터 상에 설정된 반려 객체(200)의 위치로 로봇(100)이 이동하도록 구동부를 제어할 수 있다.That is, since the location of a static companion object does not change, the one or
또는, 하나 이상의 프로세서(140)는 획득된 복수의 이미지(10)를 통해 객체를 식별하고, 식별된 객체가 정적 반려 객체인 것으로 식별되면 식별된 정적 반려 객체를 향해 로봇(100)이 이동하도록 구동부를 제어할 수도 있다. 그리고, 프로세서는 정적 반려 객체의 위치에 기 설정된 거리 이내에 로봇(100)이 위치하면, 카메라(110)를 통해 정적 반려 객체에 대한 복수의 이미지를 획득할 수 있다. 이때, 프로세서는 다양한 촬영 각도에서 정적 반려 객체를 촬영하여, 복수의 이미지를 획득할 수 있다. Alternatively, the one or
한편, 하나 이상의 프로세서(140)는 반려 객체(200)가 동적 반려 객체인 경우 동적 반려 객체를 트랙킹하면서 동적 반려 객체를 촬영하도록 카메라(110)를 제어할 수 있다. 구체적으로, 프로세서는 획득된 복수의 이미지(10)를 통해 객체를 식별하고, 식별된 반려 객체(200)가 동적 반려 객체인 것으로 식별되면 식별된 동적 반려 객체를 트래킹 하도록 구동부를 제어할 수 있다. Meanwhile, when the
일 예로, 프로세서는 동적 반려 객체가 이동하면, 구동부를 제어하여 동적 반려 객체를 트래킹하도록 로봇(100)을 제어한다. 이때, 프로세서는 센서를 통해 로봇(100)과 동적 반려 객체와의 거리가 기 설정된 거리 이상이 되도록 제어할 수 있다. 그리고, 프로세서는 카메라(110)를 제어하여, 동적 반려 객체를 트래킹 하는 동안, 동적 반려 객체에 대한 복수의 이미지(10)를 획득할 수 있다. 한편, 프로세서는 다양한 촬영 각도에서 동적 반려 객체를 촬영하여, 복수의 이미지(10)를 획득할 수 있다. As an example, when the dynamic companion object moves, the processor controls the
한편, 본 개시의 일 실시 예에 따라 하나 이상의 프로세서(140)는 반려 객체(200)를 촬영하도록 카메라(110)를 제어한 후, 반려 객체(200)에 관한 이미지(10)를 획득하고, 획득된 반려 객체(200)에 관한 이미지(10)를 메모리(120)에 저장된 복수의 이미지와 비교하여 반려 객체(200)의 이상 증상 발생 여부를 식별할 수 있다. Meanwhile, according to an embodiment of the present disclosure, the one or
하나 이상의 프로세서(140)는 카메라(110)를 통해 반려 객체(200)에 관한 이미지를 획득한 후 반려 객체(200)의 이상 증상 발생 여부를 식별한다. 이를 위해, 하나 이상의 프로세서(140)는 메모리(120)에 저장된 반려 객체(200)의 관리 정보를 이용하는데, 이하에서는, 도 3 및 도 4를 참조하면 본 개시의 일 실시 예에 따른 반려 객체(200)에 관한 관리 정보에 대하여 자세히 설명하도록 한다. One or
도 3은 본 개시의 일 실시 예에 따른, 반려 객체에 대한 관리 정보에 기초하여 반려 객체의 이상 증상을 식별하는 것을 나타낸 예시도이다. 도 4는 본 개시의 일 실시 예에 따른, 메모리에 저장된 복수의 반려 객체에 대한 관리 정보를 나타낸 예시도이다. Figure 3 is an example diagram illustrating identifying abnormal symptoms of a companion object based on management information about the companion object, according to an embodiment of the present disclosure. Figure 4 is an example diagram showing management information on a plurality of companion objects stored in memory, according to an embodiment of the present disclosure.
메모리(120)에는 반려 객체(200)에 대한 관리 정보가 저장될 수 있다. 이때, 반려 객체(200)에 대한 관리 정보에는 반려 객체(200)에 대하여 획득된 복수의 이미지가 포함될 수 있다. 복수의 이미지는 상이한 시점에 획득된 후 메모리(120)에 저장된 이미지로, 반려 객체(200)에 대하여 누적된 이미지이다. 따라서, 관리 정보는 반려 객체(200)에 대한 히스토리 정보로 지칭될 수도 있다. 도 3을 참조하면, 반려 객체(200)에 대한 관리 정보(20)는 8월 2일에 획득된 복수의 이미지(11), 8월 7일에 획득된 복수의 이미지(12) 및 8월 12일에 획득된 복수의 이미지(13) 등이 포함한다.Management information about the
한편, 반려 객체(200)에 대한 관리 정보에는, 각각의 이미지가 획득되는 시점에 감지된 반려 객체(200)의 주변 환경 정보가 더 포함될 수 있다. 구체적으로, 하나 이상의 프로세서(140)는 반려 객체(200)에 대한 복수의 이미지가 획득되는 시점마다, 로봇(100)의 센서(도시되지 않음)를 이용하여 반려 객체(200) 주변의 환경 정보를 획득할 수 있다. 반려 객체(200)의 주변의 환경 정보는, 기온, 시간, 습도 등에 관한 정보를 포함한다. Meanwhile, the management information about the
다시 도 3을 참조하면, 반려 객체(200)에 관한 관리 정보(20)에는 복수의 이미지 이외에도 각각의 이미지가 획득된 시점에서의 감지되는 반려 객체(200)의 주변 환경 정보가 더 포함된다. 구체적으로, 8월 2일 14시 25분에 반려 객체(200)에 대한 복수의 이미지(110)를 획득할 때, 하나 이상의 프로세서(140)는 반려 객체(200)의 주변의 환경의 온도가 23°C이고, 습도가 55%인 것으로 식별하였다. 그리고, 하나 이상의 프로세서(140)는 8월 2일 14시 25분에 획득된 복수의 이미지(11)와 반려 객체(200)의 주변의 환경 정보(즉, 온도가 23°C, 습도가 55%)를 매칭하여 메모리(120)에 저장할 수 있다. Referring again to FIG. 3 , in addition to the plurality of images, the
이와 같이 관리 정보에는 8월 7일 14시 26분에 반려 객체(200)에 대한 복수의 이미지를 획득하는 시점에 식별된 환경 정보(온도 24°C, 습도 64%)와 8월 12일 14시 26분에 반려 객체(200)에 대한 복수의 이미지를 획득하는 시점에 식별된 환경 정보(온도 22°C, 습도 48%)가 함께 포함될 수 있다. In this way, the management information includes environmental information (temperature 24°C, humidity 64%) identified at the time of acquiring multiple images of the
한편, 메모리(120)에는 복수의 반려 객체(200)에 대한 관리 정보가 저장될 수 있다. 즉, 도 4를 참조하면, 하나 이상의 프로세서(140)는 제1 반려 객체(210)에 대하여 상이한 시점마다 복수의 이미지를 획득한 후 획득된 복수의 이미지를 제1 반려 객체(210)에 대응하는 관리 정보로 메모리(120)에 저장할 수 있다. 또한, 하나 이상의 프로세서(140)는 제2 반려 객체(210)에 대하여 상이한 시점마다 복수의 이미지를 획득한 후 획득된 복수의 이미지를 제2 반려 객체(210)에 대응하는 관리 정보로 메모리(120)에 저장할 수 있다. Meanwhile, management information about a plurality of companion objects 200 may be stored in the
이때, 반려 객체(200)의 유형에 따라 관리 정보에 포함되는 환경 정보는 상이할 수 있다. 일 예로, 반려 객체(200)가 동물인 경우에는 하나 이상의 프로세서(140)는 반려 객체(200)의 이미지를 획득할 때마다, 적외선 센서(도시되지 않음)를 이용하여 반려 객체(200)의 체온을 식별하여 체온 정보를 획득하고, 획득된 체온 정보를 반려 객체(200)의 관리 정보에 포함시켜 메모리(120)에 저장할 수 있다. 또한, 반려 객체(200)가 식물인 경우에는 하나 이상의 프로세서(140)는 반려 객체(200)의 이미지를 획득할 때마다, 반려 객체(200)의 색상 정보를 획득하고, 획득된 색상 정보를 반려 객체(200)의 관리 정보에 포함시켜 메모리(120)에 저장할 수 있다. At this time, the environmental information included in the management information may be different depending on the type of the
또한, 반려 객체(200)의 유형에 따라 관리 정보가 업데이트 되는 주기도 상이할 수 있다. 일 예로, 도 4를 참조하면 식물에 해당하는 제1 반려 객체(210)의 경우 5일 주기로 제1 반려 객체(200)에 대한 이미지가 획득되고, 획득된 이미지에 기초하여 관리 정보가 업데이트 된다. 반면에, 동물에 해당하는 제2 반려 객체(220)의 경우 1일 주기로 제2 반려 객체(220)에 대한 이미지가 획득되고, 획득된 이미지에 기초하여 관리 정보가 업데이트 된다. 이와 같이, 반려 객체(200)의 유형에 따라 반려 객체(200)에 대한 이미지가 획득되는 주기가 상이할 수 있으며, 이로 인하여 획득된 이미지에 기초하여 관리 정보가 업 데이트 되는 주기도 상이할 수 있다. Additionally, the cycle at which management information is updated may vary depending on the type of
본 개시의 일 실시 예에 따라, 반려 객체(200)가 동물인 경우에는 제1 주기마다 반려 객체(200)에 대한 이미지를 획득한 후 획득된 이미지에 기초하여 반려 객체(200)의 관리 정보를 업 데이트하고, 반려 객체(200)가 식물인 경우에는 제2 주기마다 반려 객체(200)에 대한 이미지를 획득한 후 획득된 이미지에 기초하여 반려 객체(200)의 관리 정보를 업 데이트할 수 있다. 이때, 제1 주기는 제2 주기보다 짧은 시간으로 설정될 수 있다. According to an embodiment of the present disclosure, when the
한편, 하나 이상의 프로세서(140)는 메모리(120)에 저장된 복수의 관리 정보 중 반려 객체(200)에 대응하는 관리 정보를 식별하고, 식별된 관리 정보에 포함된 반려 객체(200)에 대응하는 복수의 이미지를 추출할 수 있다. 그리고, 하나 이상의 프로세서(140)는 추출된 복수의 이미지와 획득된 이미지를 비교하여, 반려 객체(200)에 이상 증상이 발생하였는지 식별할 수 있다.Meanwhile, the one or
그리고, 본 개시의 일 실시 예에 따라, 하나 이상의 프로세서(140)는 반려 객체(200)에 이상 증상이 발생된 것으로 식별되면, 메모리(120)에 저장된 정보에 기초하여 식별된 이상 증상에 대응되는 제어 정보를 식별하고, 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기(300)의 동작을 제어하기 위한 제어 신호를 통신 인터페이스(130)를 통해 적어도 하나의 주변 기기(300)로 전송한다. And, according to an embodiment of the present disclosure, when the one or
구체적으로, 하나 이상의 프로세서(140)는 반려 객체(200)에 발생된 이상 증상의 유형을 식별하고, 식별된 이상 증상의 유형에 대응하는 주변 기기(300)에 관한 제어 정보를 메모리(120)로부터 획득할 수 있다. Specifically, the one or
그리고, 획득된 제어 정보에 기초하여 하나 이상의 프로세서(140)는 복수의 주변 기기(300) 중 제어 명령어를 전송할 적어도 하나의 주변 기기(300)를 식별하고, 식별된 적어도 하나의 주변 기기(300)에 제어 명령어를 송신할 수 있다. Then, based on the obtained control information, the one or
한편, 하나 이상의 프로세서(140)는 반려 객체(200)에 이상 증상이 발생된 것으로 식별되면, 통신 인터페이스(130)를 통해 사용자 단말 장치(400)로 반려 객체(200)에 이상 증상이 발생되었음을 알리는 정보를 송신할 수 있다. Meanwhile, when the one or
이때, 하나 이상의 프로세서(140)는 이상 증상의 유형에 주변 기기(300)에 관한 제어 정보를 함께 송신할 수도 있다. 이에 따라, 반려 객체(200)에 이상 증상이 발생되었음을 인지한 사용자가 사용자 단말 장치(400)를 통해 주변 기기(300)에 관한 제어 명령어를 입력하면, 하나 이상의 프로세서(140)는 통신 인터페이스(130)를 통해 입력된 제어 명령어를 수신하고, 통신 인터페이스(130)를 통해 주변 기기(300)에 제어 명령어를 송신할 수 있다. At this time, one or
한편, 하나 이상의 프로세서(140)는 식별된 이상 증상의 유형에 대응하는 주변 기기(300)에 관한 정보가 없는 것으로 식별되면, 통신 인터페이스(130)를 통해 사용자 단말 장치(400)로 반려 객체(200)에 이상 증상이 발생되었음을 알리는 정보 만을 송신할 수 있다. 이에 따라, 본 개시의 로봇(100)은 사용자가 직접 반려 객체(200)에 대한 신속한 조치를 취할 수 있도록 한다. Meanwhile, when the one or
도 5는 본 개시의 일 실시 예에 따른, 서로 다른 시점에 획득된 이미지에 기초하여 반려 객체의 이상 증상을 식별하는 것을 나타낸 예시도이다. Figure 5 is an example diagram illustrating identifying abnormal symptoms of a companion object based on images acquired at different times, according to an embodiment of the present disclosure.
본 개시의 일 실시 예에 따라, 하나 이상의 프로세서(140)는 제1 시점에서 카메라(110)를 통해 획득된 반려 객체(200)의 제1 이미지를 복수의 이미지와 비교하여 제1 비교 결과를 획득할 수 있다. 이때, 하나 이상의 프로세서(140)는 획득된 제1 비교 결과를 메모리(120)에 저장한 후 제1 시점 이후인 제2 시점에서 카메라(110)를 통해 획득된 반려 객체(200)의 제2 이미지를 복수의 이미지와 비교하여 제2 비교 결과를 획득할 수 있다. 그리고, 하나 이상의 프로세서(140)는 획득된 제2 비교 결과와 메모리(120)에 저장된 제1 비교 결과에 기초하여 반려 객체(200)의 이상 증상 발생 여부를 식별할 수 있다. According to an embodiment of the present disclosure, one or
구체적으로, 하나 이상의 프로세서(140)는 서로 다른 시점에 획득된 이미지와 반려 객체(200)의 관리 정보와 비교하여 각각의 이미지에 대한 비교 결과를 획득할 수 있다. 즉, 하나 이상의 프로세서(140)는 제1 시점에 획득된 제1 이미지와 반려 객체(200)의 관리 정보에 포함된 복수의 이미지를 비교하여 제1 비교 결과(31)를 획득할 수 있다. 그리고 하나 이상의 프로세서(140)는 제2 시점에 획득된 제2 이미지와 반려 객체(200)의 관리 정보에 포함된 복수의 이미지를 비교하여 제2 비교 결과(32)를 획득할 수 있다. 이때, 제1 시점과 제2 시점은 서로 다른 시점에 해당한다. Specifically, one or
이때, 하나 이상의 프로세서(140)는 제1 비교 결과와 제2 비교 결과에 기초하여, 반려 객체(200)의 이상 증상의 경과를 식별할 수 있다. 일 예로, 도 5를 참조하면, 하나 이상의 프로세서(140)는 2022년 8월 17일(제1 시점)에 반려 객체(200)에 대한 복수의 이미지(제1 이미지)(10)를 획득하고, 획득된 복수의 이미지(제1 이미지)(10)와 반려 객체(200)의 관리 정보(20)에 포함된 복수의 이미지(11, 12, 및 13)를 비교하여 반려 객체(200)의 이상 증상의 발생 여부를 식별할 수 있다. 이때, 하나 이상의 프로세서(140)는 2022년 8월 17일(제1 시점)에 반려 객체(200)에 대한 복수의 이미지(제1 이미지)(10) 를 바탕으로, 반려 객체(200)에서 관찰되는 이상 변화의 영역이 20%인 것(제1 비교 결과(31))으로 식별하였다. 이에 따라, 2022년 8월 17일(제1 시점)에 하나 이상의 프로세서(140)는 반려 객체(200)에 대한 이상 증상이 발생한 것으로 식별할 수 있다. 이때, 하나 이상의 프로세서(140)는 통신 인터페이스(130)를 통해 이상 증상에 대응하는 적어도 하나의 외부 장치에 대한 제어 신호를 적어도 하나의 외부 장치에 송신하거나 또는, 사용자 단말 장치(400)로 반려 객체(200)의 이상 증상 발생을 알리는 정보를 송신할 수 있다. At this time, one or
이후, 하나 이상의 프로세서(140)는 2022년 8월 22일(제2 시점)에 반려 객체(200)에 대한 복수의 이미지(제2 이미지)(14)를 획득하고, 획득된 복수의 이미지(제2 이미지)(14)와 반려 객체(200)의 관리 정보에 포함된 복수의 이미지(11, 12, 및 13)를 비교하여 반려 객체(200)의 이상 증상의 발생 여부를 식별할 수 있다. 이때, 하나 이상의 프로세서(140)는 2022년 8월 22일(제2 시점)에 반려 객체(200)에 대한 복수의 이미지(제2 이미지)(14)를 바탕으로, 반려 객체(200)에서 관찰되는 이상 변화의 영역이 10%인 것(제2 비교 결과(32))으로 식별하였다. 이때, 하나 이상의 프로세서(140)는 2022년 8월 22일(제2 시점)에 획득한 제1 비교 결과(31)와 제2 비교 결과(32)에 기초하여, 반려 객체(200)에서 관찰되는 이상 변화의 영역이 감소된 것으로 식별할 수 있다. 이에 따라, 2022년 8월 22일(제2 시점)에 하나 이상의 프로세서(140)는 반려 객체(200)의 이상 증상이 감소하는 것으로 식별할 수 있다. 따라서, 2022년 8월 17일(제1 시점)과 달리 2022년 8월 22일(제2 시점)에서는 하나 이상의 프로세서(140)는 통신 인터페이스(130)를 통해 적어도 하나의 외부 장치에 제어 신호를 송신하지 않을 수 있다. Thereafter, one or
이처럼, 하나 이상의 프로세서(140)는 서로 다른 시점에 획득된 이미지에 기초하여 반려 객체(200)의 이상 증상의 발생 여부를 반복하여 식별한다. 뿐만 아니라, 하나 이상의 프로세서(140)는 반려 객체(200)의 이상 증상의 발생 여부를 식별하는 기준이 되었던 비교 결과 까지도 반려 객체(200)의 관리 정보에 누적하여 저장하고, 저장된 비교 결과에 기초하여 발생된 이상 증상의 경과까지도 함께 관찰함으로써 반려 객체(200)의 이상 증상을 보다 명확히 판단할 수 있다. In this way, one or
한편, 본 개시의 일 실시 예에 따라, 하나 이상의 프로세서(140)는, 제2 시점에서 반려 객체(200)의 제2 이미지가 획득되면, 제2 이미지를 복수의 이미지 중 제2 시점을 기준으로 기 설정된 시간 이내에 획득된 적어도 하나의 이미지와 비교하여 제2 비교 결과를 획득할 수 있다. Meanwhile, according to an embodiment of the present disclosure, when the second image of the
구체적으로, 하나 이상의 프로세서(140)는 카메라(110)를 통해 반려 객체(200)에 대한 이미지를 획득하면, 이미지를 획득한 시점으로부터 기 설정된 시간 이내에 획득된 후 메모리(120)에 저장된 적어도 하나의 이미지와 비교하여 반려 객체(200)의 이상 증상의 발생 여부를 식별할 수 있다. 즉, 하나 이상의 프로세서(140)는 관리 정보에 포함된 복수의 이미지 중 기 설정된 시간 이내에 획득된 적어도 하나의 이미지만을 선별하고, 선별된 적어도 하나의 이미지와 실시간으로 획득된 이미지를 비교하여, 반려 객체(200)의 이상 증상의 발생 여부를 식별한다. Specifically, when the one or
다시 도 5를 참조하면, 기 설정된 시간이 일 주일이라고 가정한다면 하나 이상의 프로세서(140)는 관리 정보에 포함된 복수의 이미지(11, 12 및 13) 중 2022년 8월 12일에 획득된 복수의 이미지(13)와 2022년 8월 17일에 획득된 복수의 이미지(10)를 비교하여 반려 객체(200)의 이상 증상의 발생 여부를 식별할 수 있다. Referring again to FIG. 5, assuming that the preset time is one week, one or
한편, 도면에 명확히 도시되지는 않았지만 하나 이상의 프로세서(140)는 2022년 8월 17일에 획득된 복수의 이미지(10)를 반려 객체(200)의 관리 정보에 포함시켜 반려 객체(200)의 관리 정보를 업 데이트하고, 업 데이트 된 관리 정보를 메모리(120)에 저장할 수 있다. 이에 따라, 하나 이상의 프로세서(140)는 2022년 8월 22일에 획득된 복수의 이미지(10)를 2022년 8월 17일에 획득된 복수의 이미지를 포함하는 반려 객체(200)의 관리 정보와 비교할 수 있다. Meanwhile, although not clearly shown in the drawing, one or
도 6은 본 개시의 일 실시 예에 다른, 반려 객체의 이상 증상의 발생 여부를 식별하는 것을 나타낸 예시도이다. Figure 6 is an example diagram illustrating identifying whether an abnormal symptom occurs in a companion object, according to an embodiment of the present disclosure.
이하에서는, 도 6을 참조하여 반려 객체가 식물인 경우 반려 객체의 이상 증상이 발생 여부를 식별하는 본 개시의 실시 예에 대하여 설명하도록 한다. Hereinafter, with reference to FIG. 6 , an embodiment of the present disclosure that identifies whether an abnormal symptom occurs in a companion object when the companion object is a plant will be described.
도 6을 참조하면, 하나 이상의 프로세서(140)는 반려 객체(200)에서 관찰되는 이상 변화 영역의 크기에 기초하여 반려 객체의 이상 증상의 발생 여부를 식별할 수 있다. 여기서, 이상 변화 영역은 변색, 반점 등이 발생하는 영역일 수 있다. Referring to FIG. 6 , one or
구체적으로, 하나 이상의 프로세서(140)는 8월 17일에 획득된 이미지에 기초하여, 반려 객체(200)에서 이상 변화 영역이 관찰되는 것으로 식별할 수 있다. 이에 따라, 하나 이상의 프로세서(140)는 8월 17일에 반려 객체(200)에서 이상 증상이 발생한 것으로 예측할 수 있다. 다만, 반려 객체(200)에서 관찰되는 이상 변화 영역의 크기의 비율이 기 설정된 크기의 비율(40%)보다 작으므로, 하나 이상의 프로세서(200)는 반려 객체(200)에 이상 증상이 발생한 것으로 확정하는 것을 유보할 수 있다. Specifically, the one or
이후, 하나 이상의 프로세서(140) 8월 22일에 획득된 이미지에 기초하여, 반려 객체(200)에서 관찰되는 이상 변화 영역의 크기 비율이 30%로 증가하였고, 8월 27일에 획득된 이미지에 기초하여, 반려 객체(200)에서 관찰되는 이상 변화 영역의 크기 비율이 기 설정된 크기 비율인 40%에 도달한 것으로 식별할 수 있다. 이에 따라, 하나 이상의 프로세서(140)는 반려 객체(200)에 이상 증상이 발생한 것으로 확정적으로 식별하고, 통신 인터페이스(130)를 통해 이상 증상에 대응하는 주변 기기에 제어 명령을 송신할 수 있다. Thereafter, based on the image acquired by the one or
한편, 본 개시의 일 실시 예에 따라서, 하나 이상의 프로세서(140)는 반려 객체(200)에서 관찰되는 반점의 개수에 기초하여 반려 객체의 이상 증상의 발생 여부를 식별할 수 있다. 구체적으로, 하나 이상의 프로세서(140)는 반려 객체(200)에서 관찰되는 반점의 개수가 기 설정된 개수 이상이면, 반려 객체(200)에 이상 증상이 발생한 것으로 확정하여 식별할 수 있다. Meanwhile, according to an embodiment of the present disclosure, one or
도 7은 본 개시의 일 실시 예에 따른 반려 객체의 이상 증상 발생이 감지됨에 따라 기준 이미지를 설정하고, 설정된 기준 이미지에 기초하여 반려 객체의 이상 증상 발생 여부를 식별하는 것을 나타낸 예시도이다. Figure 7 is an example diagram illustrating setting a reference image as the occurrence of an abnormality in a companion object is detected and identifying whether an abnormality in the companion object has occurred based on the set reference image, according to an embodiment of the present disclosure.
한편, 본 개시의 일 실시 예에 따라 하나 이상의 프로세서(140)는, 카메라(110)를 통해 획득된 이미지에 기초하여 반려 객체(200)에 이상 증상 발생이 감지되면, 획득된 이미지를 이상 증상과 관련된 기준 이미지로 메모리(120)에 저장하여 반려 객체(200)에 대한 관리 정보를 업데이트 할 수 있다. 그리고, 하나 이상의 프로세서(140)는 로봇(100)이 주행하는 동안 카메라(110)를 통해 반려 객체(200)의 이미지가 획득되면, 획득된 이미지를 기준 이미지와 비교하여 반려 객체(200)의 이상 증상 발생 여부를 식별할 수 있다. Meanwhile, according to an embodiment of the present disclosure, when an abnormal symptom is detected in the
구체적으로, 하나 이상의 프로세서(140)는 획득된 이미지에 기초하여 반려 객체(200)에 이상 증상이 발생한 것으로 감지되면, 하나 이상의 프로세서(140)는 획득된 이미지를 반려 객체(200)의 관리 정보에 추가하여 관리 정보를 업 데이트할 수 있다. 이때, 하나 이상의 프로세서(140)는, 업 데이트 된 관리 정보에 포함된 복수의 이미지 중 새롭게 추가된 이미지를 기준 이미지로 설정할 수 있다. 그리고, 하나 이상의 프로세서(140)는 이후 반려 객체(200)에 대하여 획득되는 복수의 이미지에 대해서는 관리 정보에 포함된 복수의 이미지 중 기준 이미지와 비교하여 반려 객체(200)의 이상 증상을 식별할 수 있다. Specifically, when the one or
한편, 반려 객체(200)의 이상 증상이 발생한 것으로 감지되는 것은 반려 객체(200)의 이상 증상이 최초 관찰되는 것을 의미할 수 있다. 즉, 정상인 것으로 식별되던 반려 객체(200)에서 최초로 이상 증상이 발생되면, 하나 이상의 프로세서(140)는 이상 증상이 최초로 관찰된 이미지를 기준 이미지로 설정할 수 있다. Meanwhile, detecting that an abnormal symptom of the
도 7을 참조하면, 하나 이상의 프로세서(140)는 2022년 8월 17일에 획득된 복수의 이미지(10)에 기초하여, 반려 객체(200)의 이상 증상의 발생을 감지하였다. 이에 따라, 하나 이상의 프로세서(140)는 2022년 8월 17일에 획득된 복수의 이미지(10)를 반려 객체(200)의 관리 정보에 추가하여 관리 정보를 업 데이트할 수 있다. 그리고, 하나 이상의 프로세서(140)는 추가된 2022년 8월 17일에 획득된 복수의 이미지(10)를 기준 이미지로 설정할 수 있다. 이후, 하나 이상의 프로세서(140)는 2022년 8월 22일에 반려 객체(200)에 대하여 복수의 이미지를 획득한 후 획득된 복수의 이미지를 기준 이미지와 비교하여 반려 객체(200)의 이상 증상의 경과를 관찰할 수 있다.Referring to FIG. 7, one or
한편, 상술한 바와 같이 본 개시의 일 실시 예에 따라, 메모리(120)에는, 반려 객체(200)의 각각의 이상 증상에 대응하는 제어 정보가 저장될 수 있다. 여기서, 제어 정보는 이상 증상에 따라 제어되는 주변 기기(300)의 종류, 주변 기기(300)에 대한 명령어 등이 포함될 수 있다. 일 예로, 반려 객체(200)의 이상 증상과 관련하여, 제1 타입 이상 증상에 대응되는 제1 제어 정보와 제2 타입 이상 증상에 대응되는 제2 제어 정보가 메모리(120)에 저장될 수 있다. Meanwhile, as described above, according to an embodiment of the present disclosure, control information corresponding to each abnormal symptom of the
보다 구체적으로, 반려 객체(200)가 식물인 경우 반려 객체(200)의 이상 증상 중 변색에 해당하는 복수의 제어 정보가 메모리(120)에 저장될 수 있다. 보다 구체적으로, 식물의 변색이 갈색인 경우 반려 객체(200)가 위치한 주행 공간의 습도를 높이도록 주변 기기(300)(예를 들어, 제습기 등)를 제어하는 제어 정보가 메모리(120)에 저장될 수 있다. 식물의 변색이 초록색인 경우 반려 객체(200)가 위치한 주행 공간의 조명의 밝기를 높이도록 주변 기기(300)(예를 들어, 조명 장치 등)를 제어하는 제어 정보가 메모리(120)에 저장될 수 있다. More specifically, when the
이와 같이, 메모리(120)에는 반려 객체(200)의 유형에 따라 또는 반려 객체(200)의 이상 증상에 따라 제어될 수 있는 주변 기기(300)에 관한 제어 정보가 저장될 수 있다. In this way, the
한편, 본 개시의 일 실시 예에 따라 하나 이상의 프로세서(140)는 반려 객체(200)에 대하여 획득한 복수의 이미지와 반려 객체(200)에 대응하는 관리 정보를 비교하여, 반려 객체(200)의 이상 증상의 발생 여부를 식별할 뿐만 아니라, 하나 이상의 프로세서(140)는 발생된 이상 증상의 유형 또한 식별할 수 있다. 그리고, 프로세서는 반려 객체(200)의 유형에 대응하고, 반려 객체(200)의 이상 증상의 유형에 대응하는 제어 정보를 메모리(120)로부터 획득할 수 있다. Meanwhile, according to an embodiment of the present disclosure, one or
도 8은, 본 개시의 일 실시 예에 따른 반려 객체의 이상 증상의 유형에 따라 주변 기기에 제어 명령어를 송신하는 것을 나타낸 예시도이다. FIG. 8 is an example diagram illustrating transmitting a control command to a peripheral device according to the type of abnormal symptom of a companion object according to an embodiment of the present disclosure.
일 예로, 도 8을 참조하면 하나 이상의 프로세서(140)는 제1 비교 결과와 제2 비교 결과에 기초하여 반려 객체(200)의 이상 증상이 제1 타입 이상 증상인 것으로 식별되면, 제1 타입 이상 증상에 대응되는 제1 제어 정보에 기초하여 로봇(100)의 복수의 주변 기기(300) 중 에어컨의 동작을 제어하기 위한 제1 제어 신호를 통신 인터페이스(130)를 통해 에어컨으로 전송할 수 있다. As an example, referring to FIG. 8, when the one or
그리고, 하나 이상의 프로세서(140)는 제1 비교 결과 및 제2 비교 결과에 기초하여 반려 객체(200)의 이상 증상이 제2 타입 이상 증상인 것으로 식별되면, 제2 타입 이상 증상에 대응되는 제2 제어 정보에 기초하여 로봇(100)의 복수의 주변 기기(300) 중 조명 장치의 동작을 제어하기 위한 제2 제어 신호를 통신 인터페이스(130)를 통해 적어도 하나의 주변 기기(300)로 전송할 수 있다. And, when the one or
또한, 하나 이상의 프로세서(140)는 제1 비교 결과 및 제2 비교 결과에 기초하여 반려 객체(200)의 이상 증상이 제3 타입 이상 증상인 것으로 식별되면, 제3 타입 이상 증상에 대응되는 제3 제어 정보에 기초하여 로봇(100)의 복수의 주변 기기(300) 중 에어컨과 가습기의 동작을 제어하기 위한 제3 제어 신호를 통신 인터페이스(130)를 통해 에어컨과 가습기로 전송할 수 있다. In addition, when the one or
도 9는 본 개시의 일 실시 예에 따른, 사용자 단말 장치에 반려 객체에 대한 관리 정보를 송신하고, 사용자 단말 장치로부터 주변 기기에 대한 제어 명령어를 수신하는 것을 나타낸 예시도이다. 도 10은 본 개시의 일 실시 예에 따른 이상 증상에 대응하는 주변 기기에 대한 정보를 나타낸 예시도이다. Figure 9 is an example diagram illustrating transmitting management information about a companion object to a user terminal device and receiving a control command for a peripheral device from the user terminal device, according to an embodiment of the present disclosure. Figure 10 is an example diagram showing information on peripheral devices corresponding to abnormal symptoms according to an embodiment of the present disclosure.
한편, 본 개시의 일 실시 예에 따라, 하나 이상의 프로세서(140)는, 식별된 이상 증상에 대응되는 제어 정보가 식별되면, 반려 객체(200)의 이상 증상에 대한 정보 및 식별된 제어 정보를 전송하도록 통신 인터페이스(130)를 통해 사용자 단말 장치(400)로 전송하고, 사용자 단말 장치(400)로부터 제어 정보에 대응되는 사용자 명령이 수신되면, 제어 신호를 통신 인터페이스(130)를 통해 적어도 하나의 주변 기기(300)로 전송할 수 있다. Meanwhile, according to an embodiment of the present disclosure, when control information corresponding to the identified abnormal symptom is identified, the one or
구체적으로, 하나 이상의 프로세서(140)는 반려 객체(200)에 대하여 이미지를 획득할 때마다, 획득된 이미지를 통신 인터페이스(130)를 통해 사용자에게 송신할 수 있다. 이에 따라, 도 9를 참조하면, 사용자 단말 장치(400)에는 하나 이상의 프로세서(140)에 의해 획득된 반려 객체(200)에 대한 복수의 이미지가 표시될 수 있다. 이를 통해, 사용자는 반려 객체(200)와 분리된 공간에서도 반려 객체(200)를 모니터링할 수 있다. Specifically, each time one or
한편, 하나 이상의 프로세서(140)는 반려 객체(200)에 대한 복수의 이미지 중, 반려 객체(200)에 대한 이상 증상이 발생된 것으로 식별된 이미지에 대해서는 별도의 UI를 표시할 수 있다. 즉, 도 9를 참조하면, 하나 이상의 프로세서(140)는 반려 객체(200)에 이상 증상이 발생된 것으로 식별된 8월 12일에 획득된 이미지에는 사용자가 반려 객체(200)에 이상 증상이 발생한 것을 인지할 수 있도록 UI를 함께 표시하여 사용자 단말 장치(400)로 송신할 수 있다. Meanwhile, one or
한편, 하나 이상의 프로세서(140)는 통신 인터페이스(130)를 통해 반려 객체(200)의 이상 증상과 관련된 로봇(100)의 주변 기기(300)의 제어 정보를 사용자 단말 장치(400)에 송신할 수도 있다. 그리고, 통신 인터페이스(130)를 통해 사용자 단말 장치(400)로부터 제어 정보에 대응하는 사용자 명령을 수신하면, 수신된 사용자 명령에 기초하여 주변 기기(300)를 제어할 수 있다. 다시 도 9를 참조하면, 하나 이상의 프로세서(140)는 반려 객체(200)에 대한 이상 증상이 발생된 것으로 식별됨에 따라, 사용자 단말 장치(400)에 주변 기기(300)를 제어할 것을 요청하는 메시지를 송신할 수 있다. 송신된 메시지는 사용자 단말 장치(400) 상에 표시되는 메신저 UI 상에 표시될 수 있다. 그리고, 사용자가 주변 기기(300)를 제어하도록 하는 메시지를 입력하면, 하나 이상의 프로세서(140)는 입력된 메시지에 대응하는 제어 명령을 주변 기기(300)로 송신할 수 있다. 즉, 하나 이상의 프로세서(140)는 에어컨을 OFF시킬 것을 요청하는 사용자의 메시지에 기초하여, 에어컨을 OFF시키는 제어 명령을 에어컨으로 송신할 수 있다. Meanwhile, one or
한편, 도 10을 참조하면 본 개시의 일 실시 예에 따라 하나 이상의 프로세서(140)는 메모리(120)에 저장된 반려 객체의 이상 증상에 관한 테이블을 이용하여 반려 객체의 이상 증상의 원인을 식별하고, 식별된 원인에 기초하여 주변 기기에 제어 명령을 송신할 수 있다. 일 예로, 획득된 이미지(10)에 기초하여 반려 객체가 갈색으로 변색된 것으로 식별되면, 하나 이상의 프로세서(140)는 반려 객체에 이상 증상이 발생한 것으로 식별할 수 있다. 그리고, 하나 이상의 프로세서(140)는 식별된 이상 증상에 대응하는 주변 기기로 제습기 및/또는 가습기를 식별하고 식별된 주변 기기에 통신 인터페이스(130)를 통해 제어 명령을 송신할 수 있다. Meanwhile, referring to FIG. 10, according to an embodiment of the present disclosure, one or
한편, 하나의 이상의 프로세서는 로봇(100)이 주행하는 동안 기 설정된 시간 주기 마다 반려 객체(200)를 촬영하여 반려 객체(200)에 대한 복수의 이미지를 획득할 수 있다. 이때, 본 개시의 일 실시 예에 따라 하나 이상의 프로세서(140)는 반려 객체(200)에 이상 증상이 발생된 것으로 감지되면 기 설정된 시간 주기를 조정할 수 있다. 즉, 하나 이상의 프로세서(140)는 반려 객체(200)에 대한 이미지를 획득하는 시간 주기를 보다 짧은 시간으로 변경할 수 있다. 일 예로, 기존에는 하나 이상의 프로세서(140)가 4시간 마다(1 시간 주기) 반려 객체(200)를 촬영하여 복수의 이미지를 획득하였다고 가정한다. 이때, 카메라(110)를 획득된 이미지를 통해 반려 객체(200)에 이상 증상 발생이 감지되면, 하나 이상의 프로세서(140)는 1시간 마다(제2 시간 주기) 반려 객체(200)를 촬영하여 복수의 이미지를 획득할 수 있다. Meanwhile, one or more processors may obtain a plurality of images of the
또한, 본 개시의 일 실시 예에 따라, 하나 이상의 프로세서(140)는, 반려 객체(200)에 이상 증상이 발생된 것으로 식별되면, 로봇(100)의 센서를 통해 획득된 데이터에 기초하여 주행 공간의 환경 정보를 식별할 수 있다. 이때, 하나 이상의 프로세서(140)는 식별된 주행 공간의 환경 정보 및 복수의 이미지 각각이 획득된 시점에 대응되는 환경 정보에 기초하여 반려 객체(200)의 이상 증상이 환경 정보에 관련된 것인지 식별하고, 반려 객체(200)의 이상 증상이 환경 정보에 관련된 것으로 식별되면, 주변 기기(300)에 대한 제어 정보에 기초하여 적어도 하나의 주변 기기(300)의 동작을 제어하기 위한 제어 신호를 통신 인터페이스(130)를 통해 적어도 하나의 주변 기기(300)로 전송할 수 있다. In addition, according to an embodiment of the present disclosure, when it is identified that an abnormal symptom has occurred in the
구체적으로, 하나 이상의 프로세서(140)는 반려 객체(200)에서 발생한 이상 증상에 대응하는 주변 기기(300)에 대한 제어 정보가 존재하지 않는 경우, 반려 객체(200)의 주변 환경 정보에 기초하여 이상 증상의 원인을 분석할 수 있다. 이때, 하나 이상의 프로세서(140)는 반려 객체(200)에 이상 증상이 발생된 것으로 식별된 시점에서 반려 객체(200) 주변의 환경 정보와 관리 정보에 기초하여 반려 객체(200)의 정상 상태에서의 주변의 환경 정보를 비교하고, 비교 결과에 기초하여 이상 증상의 원인과 관련된 환경 요인을 식별할 수 있다. 그리고, 하나 이상의 프로세서(140)는 식별된 환경 요인을 적절하게 변경하기 위하여, 메모리에 저장된 주변 기기(300)에 대한 제어 정보를 이용할 수 있다. 구체적으로, 메모리에 저장된 주변 기기(300)에 대한 제어 정보에 기초하여 하나 이상의 프로세서(140)는 식별된 환경 요인을 적절하게 변경하는 주변 기기(300)의 종류를 식별하고, 통신 인터페이스(130)를 통해 식별된 주변 기기(300)에 제어 명령을 송신할 수 있다. Specifically, when there is no control information for the
도 11은 본 개시의 일 실시 예에 따른, 로봇의 세부적인 구성도이다. 11 is a detailed configuration diagram of a robot according to an embodiment of the present disclosure.
도 11을 참조하면, 본 개시의 로봇(100)은 카메라(110), 메모리(120), 통신 인터페이스(130), 센서(150), 구동부(160), 디스플레이(170), 스피커(180), 마이크(190) 및 하나 이상의 프로세서(140)를 포함한다. 도 10에 도시된 구성 중 도 2에 도시된 구성과 중복되는 구성에 대해서는 자세한 설명을 생략하도록 한다Referring to FIG. 11, the
센서는 로봇(100) 주변의 객체를 감지하기 위해 이용되는 장치이다. 일 예로, 센서는 라이다 센서, ToF 센서 등으로 구현될 수 있다. 하나의 프로세서는 센서를 통해 로봇(100) 주변의 객체에 대한 센싱 정보(예를 들어, 객체에 대응하는 포인트 클라우드 정보 등)를 바탕으로 객체를 식별할 수 있다. 또는 센서를 통해 로봇(100) 주변의 객체가 감지되면, 하나 이상의 프로세서(140)는 카메라(110)를 통해 감지된 객체에 대한 적어도 하나의 이미지를 획득하고, 획득된 이미지에 기초하여 객체를 식별할 수 있다. 이와 같이, 식별된 객체가 반려 객체(200)인 것으로 식별되면, 하나 이상의 프로세서(140)는 카메라(110)를 통해 반려 객체(200)로 식별된 객체에 대한 복수의 이미지를 획득하고, 획득된 복수의 이미지와 관리 정보에 기초하여 반려 객체(200)의 이상 증상 발생 여부를 식별한다. 이에 관해서는 자세한 설명은 생략하도록 한다. A sensor is a device used to detect objects around the
한편, 센서는 반려 객체(200)의 주변의 환경(온도, 습도, 조도 등)에 관한 정보를 획득할 수도 있다. 일 예로, 센서는 온/습도 센서, 조도 센서 또는 UV(ultra violet) 센서 중의 적어도 하나를 더 포함할 수도 있다. 이에 따라, 하나 이상의 프로세서(140)는 반려 객체(200)에 대한 이미지를 획득할 때마다, 센서를 통해 반려 객체(200) 주변의 환경에 대한 정보를 함께 획득할 수 있다. Meanwhile, the sensor may obtain information about the surrounding environment (temperature, humidity, illumination, etc.) of the
구동부(160)는 로봇(100)을 주행 시킬 수 있는 장치이다. 구동부(160)는 프로세서(140)의 제어에 따라 주행 방향 및 주행 속도를 조절할 수 있다. 일 예에 따른 구동부(160)는 로봇(100)이 주행하기 위한 동력을 발생시키는 동력 발생 장치(예: 사용 연료(또는 에너지원)에 따라 가솔린 엔진(engine), 디젤 엔진, LPG(liquefied petroleum gas) 엔진, 전기 모터 등), 주행 방향을 조절하기 위한 조향 장치(예: 기계식 스티어링(manual steering), 유압식 스티어링(hydraulics steering), 전자식 스티어링(electronic control power steering; EPS) 등)를 포함할 수 있다.The driving
디스플레이(140)는 다양한 시각 정보를 표시할 수 있다. 일 예로, 디스플레이(140)는 맵 데이터, 로봇(100)의 주행 경로, 반려 객체(200) 등에 관한 정보를 표시할 수 있다. The
이를 위해, 디스플레이(170)는 자발광 소자를 포함하는 디스플레이 또는, 비자발광 소자 및 백라이트를 포함하는 디스플레이로 구현될 수 있다. 예를 들어, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, LED(Light Emitting Diodes), 마이크로 LED(micro LED), Mini LED, PDP(Plasma Display Panel), QD(Quantum dot) 디스플레이, QLED(Quantum dot light-emitting diodes) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. To this end, the
디스플레이(170) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(170)는 터치 센서 또는 터치 패널과 결합된 터치 스크린, 플렉시블 디스플레이(flexible display), 롤러블 디스플레이(rollable display), 3차원 디스플레이(3D display), 복수의 디스플레이 모듈이 물리적으로 연결된 디스플레이 등으로 구현될 수 있다. 한편, 디스플레이(170)는 터치 센서 또는 터치 패널과 함께 터치스크린을 구성하는 경우, 디스플레이(170)는 로봇(100)과 사용자 사이의 정보를 출력하는 출력부로써 기능함과 동시에, 로봇(100)과 사용자 사이의 입력 인터페이스를 제공하는 입력부로써 기능할 수 있다.The
스피커(180)는, 음향 신호를 로봇(100)의 외부로 출력할 수 있다. 스피커(180)는 멀티미디어 재생, 녹음 재생, 각종 알림 음, 음성 메시지 등을 출력할 수 있다. 로봇(100)는 스피커(180)와 같은 오디오 출력 장치를 포함할 수 있으나, 오디오 출력 단자와 같은 출력 장치를 포함할 수 있다. 특히, 스피커(180)는 획득한 정보, 획득한 정보에 기초하여 가공·생산한 정보, 사용자 음성에 대한 응답 결과 또는 동작 결과 등을 음성 형태로 제공할 수 있다The
마이크(190)는 로봇(100)의 주변의 음향 신호를 수신할 수 있다. 일 예로, 마이크는 로봇(100)을 제어하는 사용자 음성을 수신할 수 있다. 여기에서, 사용자 음성은 로봇(100)의 반려 객체(200) 관리 모드를 설정하기 위한 음성이 될 수 있다.The
마이크(190)를 통해, 특정 기능을 실행시키기 위한 사용자 음성이 수신되면, 하나 이상의 프로세서(140)는 사용자 음성을 STT(Speech to Text) 알고리즘을 통해 디지털 신호로 변환하고, 사용자 음성에 대응되는 응답 정보를 제공할 수 있다. When a user's voice for executing a specific function is received through the
도 12는 본 개시의 일 실시 예에 따른 반려 객체 관리 로봇의 제어 방법에 관한 개략적인 순서도이다. Figure 12 is a schematic flowchart of a control method of a companion object management robot according to an embodiment of the present disclosure.
도 12를 참조하면, 로봇(100)의 하나 이상의 프로세서(140)는 로봇(100)이 주행하는 동안 반려 객체(200)를 촬영하도록 로봇(100)의 카메라(110)를 제어한다(S1210). Referring to FIG. 12, one or
구체적으로, 하나 이상의 프로세서(140)는 주행 공간에 관한 맵 데이터 상에 설정된 반려 객체(200)의 위치로 로봇(100)이 이동하도록 로봇(100)의 구동부를 제어할 수 있다. 그리고, 하나 이상의 프로세서(140)는 기 설정된 반려 객체(200)의 위치에서 센서를 통해 로봇(100) 주변의 객체를 식별할 수 있다. 또는 하나 이상의 프로세서(140)는 센서를 통해 로봇(100) 주변의 객체를 감지하고 카메라(110)를 통해 감지된 객체에 대한 이미지를 획득한 후 획득된 이미지에 기초하여 객체를 식별할 수 있다. Specifically, one or
그리고, 하나 이상의 프로세서(140)는 메모리(120)에 저장된 반려 객체(200)의 정보에 기초하여 식별된 객체가 반려 객체(200) 해당하는지 식별할 수 있다. 그리고, 하나 이상의 프로세서(140)는 식별된 객체가 반려 객체(200)인 것으로 식별되면, 반려 객체(200)에 카메라(110)를 이용하여 반려 객체(200)에 대한 복수의 이미지를 획득할 수 있다. Additionally, one or
그리고, 하나 이상의 프로세서(140)는 카메라(110)를 통해 획득된 반려 객체(200)의 이미지를 로봇(100)의 메모리(120)에 저장된 반려 객체(200)에 대응하는 관리 정보와 비교하고(S1220), 비교 결과에 기초하여 반려 객체(200)의 이상 증상 발생 여부를 식별할 수 있다(S1230).Then, one or
여기서, 관리 정보는 상이한 시점에서 획득된 반려 객체(200)에 대한 복수의 이미지를 포함할 수 있다. Here, the management information may include a plurality of images of the
이에 따라, 하나 이상의 프로세서(140)는 관리 정보에 포함된 반려 객체(200)에 대한 복수의 이미지와 획득된 반려 객체(200)의 이미지를 비교하고, 비교 결과에 기초하여 반려 객체(200)의 이상 증상의 발생 여부를 식별할 수 있다.Accordingly, one or
그리고, 하나 이상의 프로세서(140)는 반려 객체(200)에 이상 증상이 발생된 것으로 식별되면, 메모리(120)에 저장된 반려 객체(200)의 이상 증상에 대응되는 적어도 하나의 주변 기기(300)에 대한 제어 정보에 기초하여 식별된 이상 증상에 대응되는 제어 정보를 식별할 수 있다(S1240). And, when it is identified that an abnormal symptom has occurred in the
그리고, 하나 이상의 프로세서(140)는 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기(300)의 동작을 제어하기 위한 제어 신호를 로봇(100)의 통신 인터페이스(130)를 통해 적어도 하나의 주변 기기(300)로 전송할 수 있다(S1250).And, the one or
한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 로봇(100)에 설치 가능한 어플리케이션 형태로 구현될 수 있다. 또는 상술한 본 개시의 다양한 실시 예들에 따른 방법들은 딥 러닝 기반의 학습된 신경망(또는 심층 학습된 신경망) 즉, 학습 네트워크 모델을 이용하여 수행될 수 있다. 또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 로봇(100)에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다. 또한, 상술한 본 개시의 다양한 실시 예들은 로봇(100)에 구비된 임베디드 서버, 또는 로봇(100)의 외부 서버를 통해 수행되는 것도 가능하다. Meanwhile, the methods according to various embodiments of the present disclosure described above may be implemented in the form of an application that can be installed on an existing
한편, 본 개시의 일시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치)를 포함할 수 있다. 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 프로세서의 제어 하에 다른 구성 요소들을 이용하여 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.Meanwhile, according to an example of the present disclosure, the various embodiments described above may be implemented as software including instructions stored in a machine-readable storage media (e.g., a computer). You can. The device is a device capable of calling instructions stored from a storage medium and operating according to the called instructions, and may include an electronic device (eg, an electronic device) according to the disclosed embodiments. When an instruction is executed by a processor, the processor may perform the function corresponding to the instruction directly or using other components under the control of the processor. Instructions may contain code generated or executed by a compiler or interpreter. A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium does not contain signals and is tangible, and does not distinguish whether the data is stored in the storage medium semi-permanently or temporarily.
또한, 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.Additionally, according to one embodiment, the methods according to various embodiments described above may be provided and included in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed on a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or online through an application store (e.g. Play Store™). In the case of online distribution, at least a portion of the computer program product may be at least temporarily stored or created temporarily in a storage medium such as the memory of a manufacturer's server, an application store's server, or a relay server.
또한, 상술한 다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.In addition, each component (e.g., module or program) according to the various embodiments described above may be composed of a single or multiple entities, and some of the sub-components described above may be omitted, or other sub-components may be omitted. Additional components may be included in various embodiments. Alternatively or additionally, some components (e.g., modules or programs) may be integrated into a single entity and perform the same or similar functions performed by each corresponding component prior to integration. According to various embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or at least some operations may be executed in a different order, omitted, or other operations may be added. You can.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In the above, preferred embodiments of the present disclosure have been shown and described, but the present disclosure is not limited to the specific embodiments described above, and may be used in the technical field pertaining to the disclosure without departing from the gist of the disclosure as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical ideas or perspectives of the present disclosure.
100: 로봇
120: 메모리
110: 카메라
140: 하나 이상의 프로세서100: Robot 120: Memory
110: Camera 140: One or more processors
Claims (19)
카메라;
상이한 시점에서 반려 객체를 촬영한 복수의 이미지를 포함하는 상기 반려 객체에 대한 관리 정보 및 상기 반려 객체의 이상 증상에 대응되는 적어도 하나의 주변 기기에 대한 제어 정보가 저장된 메모리;
통신 인터페이스; 및
상기 로봇이 주행하는 동안 상기 반려 객체를 촬영하도록 상기 카메라를 제어하고, 상기 카메라를 통해 획득된 반려 객체의 이미지를 상기 메모리에 저장된 상기 복수의 이미지와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하고, 상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 메모리에 저장된 정보에 기초하여 상기 식별된 이상 증상에 대응되는 제어 정보를 식별하고, 상기 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는 하나 이상의 프로세서;를 포함하는 로봇. In robots,
camera;
a memory storing management information for the companion object, including a plurality of images taken of the companion object at different viewpoints, and control information for at least one peripheral device corresponding to abnormal symptoms of the companion object;
communication interface; and
The camera is controlled to photograph the companion object while the robot is driving, and the image of the companion object obtained through the camera is compared with the plurality of images stored in the memory to identify whether abnormal symptoms occur in the companion object. When it is identified that an abnormal symptom has occurred in the companion object, control information corresponding to the identified abnormal symptom is identified based on information stored in the memory, and at least one peripheral device is activated based on the identified control information. A robot comprising: one or more processors that transmit a control signal for controlling the operation of the robot to the at least one peripheral device through the communication interface.
상기 하나 이상의 프로세서는,
제1 시점에서 상기 카메라를 통해 획득된 반려 객체의 제1 이미지를 상기 복수의 이미지와 비교하여 제1 비교 결과를 획득하여 상기 메모리에 저장하고, 상기 제1 시점 이후인 제2 시점에서 상기 카메라를 통해 획득된 반려 객체의 제2 이미지를 상기 복수의 이미지와 비교하여 제2 비교 결과를 획득하고, 상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상 발생 여부를 식별하는, 로봇. According to paragraph 1,
The one or more processors:
The first image of the companion object acquired through the camera at a first viewpoint is compared with the plurality of images to obtain a first comparison result and stored in the memory, and the camera is used at a second viewpoint after the first viewpoint. Obtaining a second comparison result by comparing the second image of the companion object obtained through the plurality of images, and identifying whether abnormal symptoms of the companion object have occurred based on the first comparison result and the second comparison result. , robot.
상기 하나 이상의 프로세서는,
상기 제2 시점에서 상기 반려 객체의 상기 제2 이미지가 획득되면, 상기 제2 이미지를 상기 복수의 이미지 중 상기 제2 시점을 기준으로 기 설정된 시간 이내에 획득된 적어도 하나의 이미지와 비교하여 상기 제2 비교 결과를 획득하는, 로봇.According to paragraph 2,
The one or more processors:
When the second image of the companion object is acquired at the second viewpoint, the second image is compared with at least one image acquired within a preset time based on the second viewpoint among the plurality of images, and the second image is obtained at the second viewpoint. A robot that obtains comparison results.
상기 메모리는,
상기 반려 객체의 제1 타입 이상 증상에 대응되는 제1 제어 정보와 상기 반려 객체의 제2 타입 이상 증상에 대응되는 제2 제어 정보를 저장하며,
상기 하나 이상의 프로세서는,
상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상이 상기 제1 타입 이상 증상인 것으로 식별되면, 상기 제1 타입 이상 증상에 대응되는 상기 제1 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제1 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하고,
상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상이 상기 제2 타입 이상 증상인 것으로 식별되면, 상기 제2 타입 이상 증상에 대응되는 상기 제2 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제2 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는, 로봇. According to paragraph 2,
The memory is,
Stores first control information corresponding to a first type abnormal symptom of the companion object and second control information corresponding to a second type abnormal symptom of the companion object,
The one or more processors:
If the abnormal symptom of the companion object is identified as the first type abnormal symptom based on the first comparison result and the second comparison result, at least based on the first control information corresponding to the first type abnormal symptom Transmitting a first control signal for controlling the operation of one peripheral device to the at least one peripheral device through the communication interface,
If the abnormal symptom of the companion object is identified as the second type abnormal symptom based on the first comparison result and the second comparison result, at least based on the second control information corresponding to the second type abnormal symptom A robot that transmits a second control signal for controlling the operation of one peripheral device to the at least one peripheral device through the communication interface.
상기 하나 이상의 프로세서는,
상기 식별된 이상 증상에 대응되는 제어 정보가 식별되면, 상기 반려 객체의 이상 증상에 대한 정보 및 상기 식별된 제어 정보를 전송하도록 상기 통신 인터페이스를 통해 사용자 단말 장치로 전송하고, 상기 사용자 단말 장치로부터 상기 제어 정보에 대응되는 사용자 명령이 수신되면, 상기 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는, 로봇. According to paragraph 1,
The one or more processors:
When control information corresponding to the identified abnormal symptom is identified, the information on the abnormal symptom of the companion object and the identified control information are transmitted to the user terminal device through the communication interface, and the user terminal device transmits the information on the abnormal symptom of the companion object and the identified control information. A robot that transmits the control signal to the at least one peripheral device through the communication interface when a user command corresponding to control information is received.
상기 하나 이상의 프로세서는,
상기 로봇이 주행하는 동안 제1 시간 주기로 상기 반려 객체를 촬영하도록 상기 카메라를 제어하고, 상기 카메라를 획득된 이미지를 통해 상기 반려 객체에 이상 증상 발생이 감지되면, 상기 로봇이 주행하는 동안 제2 시간 주기로 상기 반려 객체를 촬영하도록 상기 카메라를 제어하고, 상기 제2 시간 주기는 상기 제1 시간 주기보다 짧은, 로봇.According to paragraph 1,
The one or more processors:
The camera is controlled to photograph the companion object at a first time period while the robot is running, and when an abnormal symptom occurs in the companion object through an image acquired by the camera, a second time period is taken while the robot is running. Controlling the camera to photograph the companion object in a period, the second time period is shorter than the first time period.
상기 하나 이상의 프로세서는,
상기 카메라를 통해 획득된 이미지에 기초하여 상기 반려 객체에 이상 증상 발생이 감지되면, 상기 획득된 이미지를 상기 이상 증상과 관련된 기준 이미지로 상기 메모리에 저장하여 상기 반려 객체에 대한 관리 정보를 업데이트 하고, 상기 로봇이 주행하는 동안 상기 카메라를 통해 상기 반려 객체의 이미지가 획득되면, 상기 획득된 이미지를 상기 기준 이미지와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하는, 로봇.According to paragraph 1,
The one or more processors:
When abnormal symptoms are detected in the companion object based on the image acquired through the camera, the acquired image is stored in the memory as a reference image related to the abnormal symptom to update management information about the companion object, When an image of the companion object is acquired through the camera while the robot is traveling, the robot compares the acquired image with the reference image to identify whether the companion object has abnormal symptoms.
상기 로봇은
센서;를 더 포함하며,
상기 반려 객체에 대한 관리 정보는, 상기 복수의 이미지 각각이 획득된 시점에 대응되는 환경 정보를 포함하며,
상기 하나 이상의 프로세서는,
상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 센서를 통해 획득된 데이터에 기초하여 상기 주행 공간의 환경 정보를 식별하고,
상기 식별된 주행 공간의 환경 정보 및 상기 복수의 이미지 각각이 획득된 시점에 대응되는 환경 정보에 기초하여 상기 반려 객체의 이상 증상이 환경 정보에 관련된 것인지 식별하고,
상기 반려 객체의 이상 증상이 환경 정보에 관련된 것으로 식별되면, 상기 주변 기기에 대한 제어 정보에 기초하여 상기 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는, 로봇.According to paragraph 1,
The robot is
It further includes a sensor;
The management information for the companion object includes environmental information corresponding to the time when each of the plurality of images was acquired,
The one or more processors:
When it is identified that an abnormal symptom has occurred in the companion object, environmental information of the driving space is identified based on data acquired through the sensor,
Identify whether the abnormal symptom of the companion object is related to environmental information based on environmental information of the identified driving space and environmental information corresponding to the time when each of the plurality of images was acquired,
If the abnormal symptom of the companion object is identified as being related to environmental information, a control signal for controlling the operation of the at least one nearby device is sent to the at least one surrounding device through the communication interface based on the control information about the surrounding device. A robot that transmits to a device.
상기 하나 이상의 프로세서는,
상기 반려 객체가 정적 반려 객체인 경우 상기 정적 반려 객체의 위치로 이동하여 상기 정적 반려 객체를 상이한 촬영 각도로 촬영하도록 상기 카메라를 제어하고, 상기 반려 객체가 동적 반려 객체인 경우 상기 동적 반려 객체를 트랙킹하면서 상기 동적 반려 객체를 촬영하도록 상기 카메라를 제어하는, 로봇.According to paragraph 1,
The one or more processors:
If the companion object is a static companion object, the camera is controlled to move to the location of the static companion object and photograph the static companion object at a different shooting angle, and if the companion object is a dynamic companion object, the camera is tracked. A robot that controls the camera to photograph the dynamic companion object while doing so.
상기 로봇이 주행하는 동안 반려 객체를 촬영하도록 상기 로봇의 카메라를 제어하는 단계;
상기 카메라를 통해 획득된 반려 객체의 이미지를 상기 로봇의 메모리에 저장된 상기 반려 객체에 대응하는 관리 정보와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하는 단계;
상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 메모리에 저장된 상기 반려 객체의 이상 증상에 대응되는 적어도 하나의 주변 기기에 대한 제어 정보에 기초하여 상기 식별된 이상 증상에 대응되는 제어 정보를 식별하는 단계; 및
상기 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 로봇의 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는 단계를 포함하고,
상기 관리 정보는 상이한 시점에서 반려 객체를 촬영한 복수의 이미지를 포함하는, 방법.In a method of controlling a robot,
Controlling the camera of the robot to photograph a companion object while the robot is traveling;
Comparing the image of the companion object acquired through the camera with management information corresponding to the companion object stored in the memory of the robot to identify whether an abnormality in the companion object has occurred;
When it is identified that an abnormal symptom has occurred in the companion object, control information corresponding to the identified abnormal symptom is identified based on control information for at least one peripheral device corresponding to the abnormal symptom of the companion object stored in the memory. steps; and
Transmitting a control signal for controlling the operation of at least one peripheral device based on the identified control information to the at least one peripheral device through a communication interface of the robot,
The method, wherein the management information includes a plurality of images taken of the companion object at different viewpoints.
제1 시점에서 상기 카메라를 통해 획득된 반려 객체의 제1 이미지를 상기 복수의 이미지와 비교하여 제1 비교 결과를 획득하여 상기 메모리에 저장하는 단계;
상기 제1 시점 이후인 제2 시점에서 상기 카메라를 통해 획득된 반려 객체의 제2 이미지를 상기 복수의 이미지와 비교하여 제2 비교 결과를 획득하는 단계; 및
상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상 여부를 식별하는 단계를 포함하는, 방법. According to clause 10,
Comparing a first image of a companion object obtained through the camera at a first viewpoint with the plurality of images to obtain a first comparison result and storing it in the memory;
Obtaining a second comparison result by comparing a second image of the companion object obtained through the camera at a second viewpoint after the first viewpoint with the plurality of images; and
A method comprising identifying whether the companion object has abnormal symptoms based on the first comparison result and the second comparison result.
상기 제2 비교 결과를 획득하는 단계는,
상기 제2 시점에서 상기 반려 객체의 상기 제2 이미지가 획득되면, 상기 제2 이미지를 상기 복수의 이미지 중 상기 제2 시점을 기준으로 기 설정된 시간 이내에 획득된 적어도 하나의 이미지와 비교하여 상기 제2 비교 결과를 획득하는, 방법.According to clause 11,
The step of obtaining the second comparison result is,
When the second image of the companion object is acquired at the second viewpoint, the second image is compared with at least one image acquired within a preset time based on the second viewpoint among the plurality of images, and the second image is obtained at the second viewpoint. Method for obtaining comparison results.
상기 메모리는,
상기 반려 객체의 제1 타입 이상 증상과 관련된 복수의 제1 이미지 및 상기 반려 객체의 제2 타입 이상 증상과 관련된 복수의 제2 이미지, 상기 제1 타입 이상 증상에 대응되는 제1 제어 정보 및 상기 제2 타입 이상 증상에 대응되는 제2 제어 정보를 저장하고,
상기 전송하는 단계는,
상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상이 상기 제1 타입 이상 증상인 것으로 식별되면, 상기 제1 타입 이상 증상에 대응되는 상기 제1 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제1 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하고,
상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상이 상기 제2 타입 이상 증상인 것으로 식별되면, 상기 제2 타입 이상 증상에 대응되는 상기 제2 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제2 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는, 로봇. According to clause 11,
The memory is,
A plurality of first images related to the first type abnormal symptom of the companion object and a plurality of second images related to the second type abnormal symptom of the companion object, first control information corresponding to the first type abnormal symptom, and the first Store second control information corresponding to two types of abnormal symptoms,
The transmitting step is,
If the abnormal symptom of the companion object is identified as the first type abnormal symptom based on the first comparison result and the second comparison result, at least based on the first control information corresponding to the first type abnormal symptom Transmitting a first control signal for controlling the operation of one peripheral device to the at least one peripheral device through the communication interface,
If the abnormal symptom of the companion object is identified as the second type abnormal symptom based on the first comparison result and the second comparison result, at least based on the second control information corresponding to the second type abnormal symptom A robot that transmits a second control signal for controlling the operation of one peripheral device to the at least one peripheral device through the communication interface.
상기 전송하는 단계는,
상기 식별된 이상 증상에 대응되는 제어 정보가 식별되면, 상기 반려 객체의 이상 증상에 대한 정보 및 상기 식별된 제어 정보를 전송하도록 상기 통신 인터페이스를 통해 사용자 단말 장치로 전송하고,
상기 방법은,
상기 통신 인터페이스를 통해 상기 사용자 단말 장치로부터 상기 제어 정보에 대응되는 사용자 명령을 수신하는 단계; 및
상기 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는 단계를 더 포함하는, 방법.According to clause 10,
The transmitting step is,
When control information corresponding to the identified abnormal symptom is identified, transmitting the information on the abnormal symptom of the companion object and the identified control information to the user terminal device through the communication interface,
The above method is,
Receiving a user command corresponding to the control information from the user terminal device through the communication interface; and
Method further comprising transmitting the control signal to the at least one peripheral device through the communication interface.
상기 카메라를 제어하는 단계는,
상기 로봇이 주행하는 동안 제1 시간 주기로 상기 반려 객체를 촬영하도록 상기 카메라를 제어하고, 상기 카메라를 획득된 이미지를 통해 상기 반려 객체에 이상 증상 발생이 감지되면, 상기 로봇이 주행하는 동안 제2 시간 주기로 상기 반려 객체를 촬영하도록 상기 카메라를 제어하고, 상기 제2 시간 주기는 상기 제1 시간 주기보다 짧은, 방법.According to clause 10,
The step of controlling the camera is,
The camera is controlled to photograph the companion object at a first time period while the robot is running, and when an abnormal symptom occurs in the companion object through an image acquired by the camera, a second time period is taken while the robot is running. Controlling the camera to photograph the companion object in a period, wherein the second time period is shorter than the first time period.
상기 카메라를 통해 획득된 이미지에 기초하여 상기 반려 객체에 이상 증상 발생이 감지되면, 상기 획득된 이미지를 상기 이상 증상과 관련된 기준 이미지로 상기 메모리에 저장하여 상기 반려 객체에 대한 관리 정보를 업데이트 하는 단계; 및
상기 로봇이 주행하는 동안 상기 카메라를 통해 상기 반려 객체의 이미지가 획득되면, 상기 획득된 이미지를 상기 기준 이미지와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하는 단계를 더 포함하는, 방법.According to clause 10,
When abnormal symptoms are detected in the companion object based on the image acquired through the camera, updating management information about the companion object by storing the acquired image in the memory as a reference image related to the abnormal symptom. ; and
When an image of the companion object is acquired through the camera while the robot is traveling, the method further includes comparing the acquired image with the reference image to identify whether an abnormality in the companion object occurs.
상기 반려 객체에 대한 관리 정보는, 상기 복수의 이미지 각각이 획득된 시점에 대응되는 환경 정보를 포함하며,
상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 로봇의 센서를 통해 획득된 데이터에 기초하여 상기 주행 공간의 환경 정보를 식별하는 단계;
상기 식별된 주행 공간의 환경 정보 및 상기 복수의 이미지 각각이 획득된 시점에 대응되는 환경 정보에 기초하여 상기 반려 객체의 이상 증상이 환경 정보에 관련된 것인지 식별하는 단계; 및
상기 반려 객체의 이상 증상이 환경 정보에 관련된 것으로 식별되면, 상기 주변 기기에 대한 제어 정보에 기초하여 상기 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는 단계를 포함하는, 방법.According to clause 10,
The management information for the companion object includes environmental information corresponding to the time when each of the plurality of images was acquired,
When it is identified that an abnormal symptom has occurred in the companion object, identifying environmental information of the driving space based on data acquired through the sensor of the robot;
Identifying whether abnormal symptoms of the companion object are related to environmental information based on environmental information of the identified driving space and environmental information corresponding to the time when each of the plurality of images was acquired; and
If the abnormal symptom of the companion object is identified as being related to environmental information, a control signal for controlling the operation of the at least one nearby device is sent to the at least one surrounding device through the communication interface based on the control information about the surrounding device. A method comprising transmitting to a device.
상기 카메라를 제어하는 단계는,
상기 반려 객체가 정적 반려 객체인 경우 상기 정적 반려 객체의 위치로 이동하여 상기 정적 반려 객체를 상이한 촬영 각도로 촬영하도록 상기 카메라를 제어하고, 상기 반려 객체가 동적 반려 객체인 경우 상기 동적 반려 객체를 트랙킹하면서 상기 동적 반려 객체를 촬영하도록 상기 카메라를 제어하는, 방법.According to clause 10,
The step of controlling the camera is,
If the companion object is a static companion object, the camera is controlled to move to the location of the static companion object and photograph the static companion object at a different shooting angle, and if the companion object is a dynamic companion object, the camera is tracked. A method of controlling the camera to photograph the dynamic companion object while doing so.
상기 로봇이 주행하는 동안 상기 반려 객체를 촬영하도록 상기 로봇의 카메라를 제어하는 단계;
상기 카메라를 통해 획득된 반려 객체의 이미지를 상기 로봇의 메모리에 저장된 상기 반려 객체에 대응하는 관리 정보와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하는 단계;
상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 메모리에 저장된 상기 반려 객체의 이상 증상에 대응되는 적어도 하나의 주변 기기에 대한 제어 정보에 기초하여 상기 식별된 이상 증상에 대응되는 제어 정보를 식별하는 단계; 및
상기 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 로봇의 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는 단계를 포함하고,
상기 관리 정보는 상이한 시점에서 반려 객체를 촬영한 복수의 이미지를 포함하는, 컴퓨터 판독 가능 기록 매체.
A non-transitory computer-readable recording medium storing computer instructions that cause the processor to perform an operation when performed by a processor of a robot that manages a companion object, the operation comprising:
Controlling the camera of the robot to photograph the companion object while the robot is traveling;
Comparing the image of the companion object acquired through the camera with management information corresponding to the companion object stored in the memory of the robot to identify whether an abnormality in the companion object has occurred;
When it is identified that an abnormal symptom has occurred in the companion object, control information corresponding to the identified abnormal symptom is identified based on control information for at least one peripheral device corresponding to the abnormal symptom of the companion object stored in the memory. steps; and
Transmitting a control signal for controlling the operation of at least one peripheral device based on the identified control information to the at least one peripheral device through a communication interface of the robot,
The management information is a computer-readable recording medium including a plurality of images taken of the companion object at different viewpoints.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220106820A KR20240029620A (en) | 2022-08-25 | 2022-08-25 | Robot for managing companion object and method thereof |
PCT/KR2023/010741 WO2024043552A1 (en) | 2022-08-25 | 2023-07-25 | Companion object management robot and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220106820A KR20240029620A (en) | 2022-08-25 | 2022-08-25 | Robot for managing companion object and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240029620A true KR20240029620A (en) | 2024-03-06 |
Family
ID=90013630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220106820A KR20240029620A (en) | 2022-08-25 | 2022-08-25 | Robot for managing companion object and method thereof |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20240029620A (en) |
WO (1) | WO2024043552A1 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3893257B2 (en) * | 2001-06-22 | 2007-03-14 | アルゼ株式会社 | Pet monitoring system |
KR20130049567A (en) * | 2011-11-04 | 2013-05-14 | 한국전자통신연구원 | Device and method for monitoring/measuring plants |
KR20170098621A (en) * | 2016-02-22 | 2017-08-30 | (주)아이오텍 | Companion animal friend robot based internet of things companion animal management system using the same |
KR20220033752A (en) * | 2020-09-10 | 2022-03-17 | 삼성전자주식회사 | Robot for expressing emotional state of pet and control method thererof |
KR20220115641A (en) * | 2021-02-08 | 2022-08-18 | 성결대학교 산학협력단 | Monitoring robot for companion animal |
-
2022
- 2022-08-25 KR KR1020220106820A patent/KR20240029620A/en unknown
-
2023
- 2023-07-25 WO PCT/KR2023/010741 patent/WO2024043552A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024043552A1 (en) | 2024-02-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11282389B2 (en) | Pedestrian detection for vehicle driving assistance | |
US11216935B2 (en) | Vision inspection management method and system inspecting based on process data | |
US11111785B2 (en) | Method and device for acquiring three-dimensional coordinates of ore based on mining process | |
JP2020502654A (en) | Human-machine hybrid decision-making method and apparatus | |
US11904853B2 (en) | Apparatus for preventing vehicle collision and method thereof | |
US10945888B2 (en) | Intelligent blind guide method and apparatus | |
US9922049B2 (en) | Information processing device, method of processing information, and program for processing information | |
US20190340197A1 (en) | System and method for controlling camera and program | |
JP2018149669A (en) | Learning device and learning method | |
US11257355B2 (en) | System and method for preventing false alarms due to display images | |
US20220281117A1 (en) | Remote physiological data sensing robot | |
CN115600953A (en) | Monitoring method and device for warehouse positions, computer equipment and storage medium | |
JP2022526071A (en) | Situational awareness monitoring | |
CN114494487A (en) | House type graph generation method, device and storage medium based on panorama semantic stitching | |
US20210349467A1 (en) | Control device, information processing method, and program | |
KR102349851B1 (en) | System and method for providing multi-object recognition service using camera for pet | |
KR20220021581A (en) | Robot and control method thereof | |
KR20240029620A (en) | Robot for managing companion object and method thereof | |
US10365644B2 (en) | Application, smart device, drone, server, system method, and program for automatically control drone flight | |
US20220288788A1 (en) | Robot and method for controlling same | |
US20210232150A1 (en) | Control device, control method, and program | |
WO2019093297A1 (en) | Information processing device, control method, and program | |
US11978247B2 (en) | Adversarial masks for scene-customized false detection removal | |
Velayudhan et al. | An autonomous obstacle avoiding and target recognition robotic system using kinect | |
US20190084584A1 (en) | Device and system for warning a driver of an incoming back and lateral vehicle |