WO2024043552A1 - 반려 객체 관리 로봇 및 그 제어 방법 - Google Patents

반려 객체 관리 로봇 및 그 제어 방법 Download PDF

Info

Publication number
WO2024043552A1
WO2024043552A1 PCT/KR2023/010741 KR2023010741W WO2024043552A1 WO 2024043552 A1 WO2024043552 A1 WO 2024043552A1 KR 2023010741 W KR2023010741 W KR 2023010741W WO 2024043552 A1 WO2024043552 A1 WO 2024043552A1
Authority
WO
WIPO (PCT)
Prior art keywords
companion object
companion
robot
identified
abnormal symptom
Prior art date
Application number
PCT/KR2023/010741
Other languages
English (en)
French (fr)
Inventor
노재연
윤여준
이좌영
명인식
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2024043552A1 publication Critical patent/WO2024043552A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y10/00Economic sectors
    • G16Y10/80Homes; Buildings

Definitions

  • This disclosure relates to a companion object management robot and its control method. More specifically, it relates to a robot that identifies abnormal symptoms of a companion object by comparing a plurality of images of the companion object and a method of controlling the same.
  • robots are being used in various industrial fields.
  • object recognition technology has enabled robots to accurately distinguish between various objects
  • autonomous driving technology has made it possible for robots to drive stably without colliding with obstacles even in the driving space.
  • the present disclosure is in response to the above-described need, and the purpose of the present disclosure is to provide a robot that manages a companion object and a method of controlling the same.
  • a robot to achieve the above object includes a camera, memory, a communication interface, and one or more processors.
  • the memory stores management information about the companion object, including a plurality of images taken of the companion object at different viewpoints, and control information about at least one peripheral device corresponding to abnormal symptoms of the companion object.
  • the one or more processors control the camera to photograph the companion object while the robot is traveling, and compare the image of the companion object obtained through the camera with the plurality of images stored in the memory to determine if there is an abnormality in the companion object.
  • control information corresponding to the identified abnormal symptom is identified based on information stored in the memory, and based on the identified control information
  • a control signal for controlling the operation of at least one peripheral device is transmitted to the at least one peripheral device through the communication interface.
  • the one or more processors compare the first image of the companion object obtained through the camera at a first viewpoint with the plurality of images to obtain a first comparison result and store it in the memory, and after the first viewpoint.
  • a second comparison result is obtained by comparing a second image of the companion object obtained through the camera with the plurality of images at a second viewpoint, and the companion object is obtained based on the first comparison result and the second comparison result. Identify whether abnormal symptoms occur.
  • the one or more processors select the second image to be at least one image acquired within a preset time based on the second viewpoint among the plurality of images.
  • the second comparison result is obtained by comparing with the image of .
  • the memory stores first control information corresponding to a first type abnormality symptom of the companion object and second control information corresponding to a second type abnormality symptom of the companion object
  • the one or more processors are configured to: If the abnormal symptom of the companion object is identified as the first type abnormal symptom based on the first comparison result and the second comparison result, at least one abnormal symptom based on the first control information corresponding to the first type abnormal symptom
  • a first control signal for controlling the operation of the peripheral device is transmitted to the at least one peripheral device through the communication interface, and abnormal symptoms of the companion object are detected based on the first comparison result and the second comparison result.
  • a second control signal for controlling the operation of at least one peripheral device based on the second control information corresponding to the second type abnormality symptom is sent through the communication interface. Transmit to at least one peripheral device.
  • the one or more processors transmit the information on the abnormal symptom of the companion object and the identified control information to the user terminal device through the communication interface. And, when a user command corresponding to the control information is received from the user terminal device, the control signal is transmitted to the at least one peripheral device through the communication interface.
  • the one or more processors control the camera to photograph the companion object at a first time period while the robot is traveling, and when an abnormal symptom occurs in the companion object through an image obtained by the camera, The camera is controlled to photograph the companion object at a second time period while the robot is traveling. At this time, the second time period may be set shorter than the first time period.
  • the one or more processors store the acquired image in the memory as a reference image related to the abnormal symptom and store the companion object
  • the management information for the companion object is updated, and when an image of the companion object is acquired through the camera while the robot is driving, the acquired image can be compared with the reference image to identify whether the companion object has abnormal symptoms. there is.
  • the robot may further include sensors.
  • the management information about the companion object may include environmental information corresponding to the time when each of the plurality of images was acquired.
  • the one or more processors compare the image of the companion object obtained through the camera with the plurality of images stored in the memory to identify whether an abnormal symptom occurs in the companion object, and determine whether an abnormal symptom occurs in the companion object. If identified, environmental information of the driving space is identified based on data acquired through the sensor, and environmental information of the identified driving space and environmental information corresponding to the time when each of the plurality of images were acquired are identified.
  • a control signal for this purpose may be transmitted to the at least one peripheral device through the communication interface.
  • the one or more processors control the camera to move to the location of the static companion object and photograph the static companion object at different shooting angles, and the companion object is a dynamic companion object.
  • the camera can be controlled to photograph the dynamic companion object while tracking the dynamic companion object.
  • a method of controlling a robot includes controlling a camera of the robot to photograph a companion object while the robot is traveling.
  • the method includes comparing the image of the companion object obtained through the camera with management information corresponding to the companion object stored in the memory of the robot to identify whether an abnormal symptom has occurred in the companion object.
  • the method when the method identifies that an abnormal symptom has occurred in the companion object, the method corresponds to the identified abnormal symptom based on control information for at least one peripheral device corresponding to the abnormal symptom of the companion object stored in the memory. and identifying control information.
  • the method includes transmitting a control signal for controlling the operation of at least one peripheral device to the at least one peripheral device through a communication interface of the robot based on the identified control information.
  • the management information includes a plurality of images taken of the companion object at different viewpoints.
  • the method includes comparing a first image of a companion object obtained through the camera at a first viewpoint with the plurality of images to obtain a first comparison result and storing it in the memory, the first image after the first viewpoint Obtaining a second comparison result by comparing a second image of the companion object obtained through the camera at a second viewpoint with the plurality of images, and comparing the companion object with the plurality of images based on the first comparison result and the second comparison result. It includes the step of identifying whether abnormal symptoms exist.
  • the step of obtaining the second comparison result includes, when the second image of the companion object is obtained at the second viewpoint, the second image is selected at a preset time based on the second viewpoint among the plurality of images.
  • the second comparison result is obtained by comparing with at least one image acquired within.
  • the memory may include a plurality of first images related to a first type abnormality symptom of the companion object, a plurality of second images related to a second type abnormality symptom of the companion object, and a first type corresponding to the first type abnormality symptom. Control information and second control information corresponding to the second type abnormality symptom are stored.
  • the transmitting step if the abnormal symptom of the companion object is identified as the first type abnormal symptom based on the first comparison result and the second comparison result, the abnormal symptom corresponding to the first type abnormal symptom
  • a first control signal for controlling the operation of at least one peripheral device based on the first control information is transmitted to the at least one peripheral device through the communication interface, and the first comparison result and the second comparison result are Based on this, if the abnormal symptom of the companion object is identified as the second type abnormal symptom, a second device for controlling the operation of at least one peripheral device based on the second control information corresponding to the second type abnormal symptom.
  • a control signal is transmitted to the at least one peripheral device through the communication interface.
  • the transmitting step when control information corresponding to the identified abnormal symptom is identified, information on the abnormal symptom of the companion object and the identified control information are transmitted to the user terminal device through the communication interface. do.
  • the method further includes receiving a user command corresponding to the control information from the user terminal device through the communication interface and transmitting the control signal to the at least one peripheral device through the communication interface.
  • the step of controlling the camera includes controlling the camera to photograph the companion object in a first time period while the robot is traveling, and when abnormal symptoms are detected in the companion object through images obtained by the camera. , the camera is controlled to photograph the companion object at a second time period while the robot is traveling. At this time, the second time period may be set to be shorter than the first time period.
  • the method stores the acquired image in the memory as a reference image related to the abnormal symptom to manage the companion object.
  • the management information for the companion object includes environmental information corresponding to the time when each of the plurality of images was acquired.
  • the method includes identifying environmental information of the driving space based on data acquired through the sensor of the robot, environmental information of the identified driving space, and Identifying whether the abnormal symptom of the companion object is related to environmental information based on environmental information corresponding to the time when each of the plurality of images is acquired; and if the abnormal symptom of the companion object is identified as related to environmental information, the surrounding and transmitting a control signal for controlling an operation of the at least one peripheral device to the at least one peripheral device through the communication interface based on control information about the device.
  • the step of controlling the camera includes, if the companion object is a static companion object, controlling the camera to move to the location of the static companion object and photograph the static companion object at a different shooting angle, and if the companion object is a dynamic companion object.
  • the camera is controlled to photograph the dynamic companion object while tracking the dynamic companion object.
  • the control method of a robot that manages a companion object according to an embodiment of the present disclosure to achieve the above object is performed by the processor of the robot
  • the computer command that causes the processor to perform the operation is non-transitory computer readable. It can be stored on any possible recording medium.
  • the operation includes controlling a camera of the robot to photograph the companion object while the robot is traveling. Additionally, the operation includes comparing the image of the companion object obtained through the camera with management information corresponding to the companion object stored in the memory of the robot to identify whether an abnormality in the companion object has occurred.
  • the operation is performed when it is identified that an abnormal symptom has occurred in the companion object, based on control information for at least one peripheral device corresponding to the abnormal symptom of the companion object stored in the memory and corresponding to the identified abnormal symptom. and identifying control information. Additionally, the operation includes transmitting a control signal for controlling the operation of at least one peripheral device to the at least one peripheral device through a communication interface of the robot based on the identified control information.
  • the management information includes a plurality of images taken of the companion object at different viewpoints.
  • FIG. 1 is an exemplary diagram of a robot that monitors a companion object according to an embodiment of the present disclosure.
  • Figure 2 is a configuration diagram of a robot according to an embodiment of the present disclosure.
  • Figure 3 is an example diagram illustrating identifying abnormal symptoms of a companion object based on management information about the companion object, according to an embodiment of the present disclosure.
  • Figure 4 is an example diagram showing management information on a plurality of companion objects stored in memory, according to an embodiment of the present disclosure.
  • Figure 5 is an example diagram illustrating identifying abnormal symptoms of a companion object based on images acquired at different times, according to an embodiment of the present disclosure.
  • Figure 6 is an example diagram illustrating identifying whether an abnormal symptom occurs in a companion object, according to an embodiment of the present disclosure.
  • Figure 7 is an example diagram illustrating setting a reference image as the occurrence of an abnormality in a companion object is detected and identifying whether an abnormality in the companion object has occurred based on the set reference image, according to an embodiment of the present disclosure.
  • FIG. 8 is an example diagram illustrating transmitting a control command to a peripheral device according to the type of abnormal symptom of a companion object according to an embodiment of the present disclosure.
  • Figure 9 is an example diagram illustrating transmitting management information about a companion object to a user terminal device and receiving a control command for a peripheral device from the user terminal device, according to an embodiment of the present disclosure.
  • Figure 10 is an example diagram showing information on peripheral devices corresponding to abnormal symptoms according to an embodiment of the present disclosure.
  • FIG. 11 is a detailed configuration diagram of a robot according to an embodiment of the present disclosure.
  • Figure 12 is a schematic flowchart of a control method of a companion object management robot according to an embodiment of the present disclosure.
  • expressions such as “have,” “may have,” “includes,” or “may include” refer to the presence of corresponding features (e.g., components such as numbers, functions, operations, or parts). , and does not rule out the existence of additional features.
  • expressions such as “A or B,” “at least one of A or/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together.
  • “A or B,” “at least one of A and B,” or “at least one of A or B” includes (1) at least one A, (2) at least one B, or (3) it may refer to all cases including both at least one A and at least one B.
  • a component e.g., a first component
  • another component e.g., a second component
  • any component may be directly connected to the other component or may be connected through another component (eg, a third component).
  • a component e.g., a first component
  • another component e.g., a second component
  • no other component e.g., a third component
  • the expression “configured to” used in the present disclosure may mean, for example, “suitable for,” “having the capacity to,” depending on the situation. ,” can be used interchangeably with “designed to,” “adapted to,” “made to,” or “capable of.”
  • the term “configured (or set to)” may not necessarily mean “specifically designed to” in hardware.
  • the expression “a device configured to” may mean that the device is “capable of” working with other devices or components.
  • the phrase "processor configured (or set) to perform A, B, and C" refers to a processor dedicated to performing the operations (e.g., an embedded processor), or by executing one or more software programs stored on a memory device.
  • a 'module' or 'unit' performs at least one function or operation, and may be implemented as hardware or software, or as a combination of hardware and software. Additionally, a plurality of 'modules' or a plurality of 'units' may be integrated into at least one module and implemented with at least one processor, except for 'modules' or 'units' that need to be implemented with specific hardware.
  • FIG. 1 is an exemplary diagram of a robot that monitors a companion object according to an embodiment of the present disclosure.
  • the robot 100 of the present disclosure monitors the companion object 200 in the driving space in real time and detects abnormal symptoms of the companion object 200. Specifically, the robot 100 acquires an image of the companion object 200 through the camera 110 in order to detect abnormal symptoms of the companion object 200. Then, the robot 100 identifies abnormal symptoms of the companion object 200 based on the acquired image and management information about the companion object 200.
  • Companion objects 200 include companion animals and companion plants.
  • the management information about the companion object 200 includes a plurality of images about the companion object 200. Accordingly, the robot 100 can identify abnormal symptoms of the companion object 200 by comparing a plurality of images accumulated and stored for the companion object 200 with images acquired in real time.
  • each companion object 200 since each companion object 200 has its own personality, behavior, and characteristics, it may be difficult to apply general (or common) standards for identifying abnormal symptoms. Therefore, the robot 100 of the present disclosure repeats the image for each companion object 200 and stores the acquired image as management information corresponding to the companion object 200.
  • the plurality of images accumulated for each companion object 200 serves as a standard for identifying abnormal symptoms of each companion object 200.
  • the robot 100 of the present disclosure identifies abnormal symptoms of the companion object 200 by considering the unique personality, behavior, and characteristics of each companion object 200. This allows abnormal symptoms of the companion object 200 to be more clearly identified and allows the user to more quickly take action on the companion object 200 .
  • Figure 2 is a configuration diagram of a robot according to an embodiment of the present disclosure.
  • the robot 100 of the present disclosure includes a camera 110, a memory 120, a communication interface 130, and one or more processors 140.
  • the camera 110 photographs objects around the robot 100 and acquires a plurality of images 10 about the objects. Specifically, the camera 110 captures the companion object 200 and obtains an image 10 related to the companion object 200 .
  • the image 10 of the companion object 200 acquired through the camera 110 includes a plurality of image frames constituting a video.
  • the camera 110 may be implemented as an imaging device such as a CMOS Image Sensor (CIS) with a CMOS structure or a Charge Coupled Device (CCD) structure.
  • CIS CMOS Image Sensor
  • CCD Charge Coupled Device
  • the camera 110 may be implemented as a camera 110 module with various resolutions capable of photographing a subject.
  • the camera 110 may be implemented as a depth camera 110, a stereo camera, or an RGB camera. Through this, the camera 110 can acquire the depth information of the companion object 200 together with the image 10 regarding the companion object 200.
  • the memory 120 may store data necessary for various embodiments of the present disclosure.
  • map data regarding the driving space where the robot 100 is located may be stored in the memory 120.
  • the map data is map data containing information about the driving space in which the robot 100 is set to drive.
  • Information about the driving space includes the driving path of the robot 100 set within the driving space, structures within the driving space, and location information of the companion object 200.
  • the memory 120 may store information on the companion object 200 in the driving space.
  • Information on the companion object 200 may include the type of companion object 200 existing in the driving space, identification information of the companion object 200, and the location of the companion object 200 in the driving space.
  • the memory 120 stores management information for each companion object 200 and control information for the peripheral device 300 corresponding to the abnormal symptom of the companion object 200.
  • one or more processors 140 may store a plurality of images 10 obtained by photographing the companion object 200 at different viewpoints as management information for the companion object 200 in the memory 120 .
  • one or more processors 140 may periodically photograph the companion object 200 to obtain an image 10 for the companion object 200 .
  • one or more processors 140 may accumulate acquired images and store them in the memory 120 . In this way, the plurality of images 10 accumulated for each companion object 200 can be used as management information for each companion object 200.
  • control information for at least one peripheral device 300 corresponding to an abnormal symptom of the companion object 200 is stored in the memory 120 .
  • the memory 120 may store information on the peripheral device 300 of the robot 100 that communicates with the robot 100.
  • the information about the peripheral devices 300 includes the type of each peripheral device 300, identification information of each peripheral device 300, control information of each peripheral device 300, etc.
  • control information on at least one peripheral device 300 controlled according to abnormal symptoms of the companion object 200 is also stored in the memory 120. Accordingly, the one or more processors 140 monitor abnormal symptoms of the companion object 200 identified based on management information based on control information about at least one peripheral device 300 for abnormal symptoms of the companion object 200. Appropriate measures can be taken.
  • the peripheral device 300 includes an electronic device that influences the creation of the surrounding environment of the companion object 200 .
  • the peripheral device 300 may include a lighting device, an air conditioner, an air purifier, a humidifier, a dehumidifier, etc.
  • the memory 120 may be implemented as a memory embedded in the robot 100 or as a memory detachable from the robot 100 depending on the data storage purpose. For example, data for driving the robot 100 is stored in a memory embedded in the robot 100, and data for expansion functions of the robot 100 is stored in a memory that is detachable from the robot 100. It can be.
  • volatile memory e.g., dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.
  • non-volatile memory e.g. one time programmable ROM (OTPROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash memory (e.g. NAND flash or NOR flash, etc.), a hard drive, or a solid state drive (SSD).
  • OTPROM one time programmable ROM
  • PROM programmable ROM
  • EPROM erasable and programmable ROM
  • EEPROM electrically erasable and programmable ROM
  • mask ROM e.g. NAND flash or NOR flash, etc.
  • flash memory e.g. NAND flash or NOR flash, etc.
  • hard drive e.g. NAND flash or NOR flash, etc.
  • SSD solid state drive
  • a memory 120 card e.g., compact flash (CF), secure digital (SD), micro secure digital (Micro-SD), Mini-SD (mini secure digital), xD (extreme digital), MMC (multi-media card), etc.
  • CF compact flash
  • SD secure digital
  • Micro-SD micro secure digital
  • Mini-SD mini secure digital
  • xD extreme digital
  • MMC multi-media card
  • the communication interface 130 includes a circuit and can perform communication with the robot's peripheral device 300.
  • one or more processors 140 may receive various data or information from an external device (eg, a server) connected through the communication interface 130, and may also transmit various data or information to the external device.
  • one or more processors 140 may transmit the image 10 obtained for the companion object 200 to the user terminal device 400 through the communication interface 130.
  • the one or more processors 140 identify that an abnormal symptom of the companion object 200 has occurred, the one or more processors 140 provide information notifying the abnormal symptom of the companion object 200 to the user terminal device 400 through the communication interface 130. You can also send it.
  • the communication interface 130 may include at least one of a WiFi module, a Bluetooth module, a wireless communication module, an NFC module, and a UWB module (Ultra Wide Band).
  • the WiFi module and the Bluetooth module can each communicate using WiFi and Bluetooth methods.
  • various connection information such as SSID is first transmitted and received, and various information can be transmitted and received after establishing a communication connection using this.
  • the wireless communication module can perform communication according to various communication standards such as IEEE, Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), and 5th Generation (5G).
  • the NFC module can perform communication using the NFC (Near Field Communication) method using the 13.56MHz band among various RF-ID frequency bands such as 135kHz, 13.56MHz, 433MHz, 860 ⁇ 960MHz, 2.45GHz, etc.
  • the UWB module can accurately measure ToA (Time of Arrival), which is the time for a pulse to reach the target, and AoA (Ange of Arrival), which is the angle of arrival of the pulse at the transmitter, and can thus accurately measure indoor Precise distance and position recognition is possible within an error range of several tens of centimeters.
  • ToA Time of Arrival
  • AoA Ange of Arrival
  • the processor 140 can control the overall operation of the robot 100.
  • the processor line 140 may include random access memory (RAM), read only memory (ROM), central processing unit (CPU), graphics processing unit (GPU), and system bus, and the robot 100 Operations or data processing related to the control of one or more components included in can be performed.
  • RAM random access memory
  • ROM read only memory
  • CPU central processing unit
  • GPU graphics processing unit
  • system bus system bus
  • the processor 140 controls one or more components included in the robot 100 by executing one or more instructions stored in storage, or controls one or more components as a hardware circuit or chip, or as a combination of software and hardware. One or more components can be controlled.
  • the processor 140 electrically connects various components within the robot 100, including the camera 110, memory 120, communication interface 130, at least one sensor (not shown), and a driving unit (not shown). You can control them by being connected to .
  • one or more processors 140 control the camera 110 to photograph the companion object 200 while the robot 100 travels.
  • one or more processors 140 may control the driving unit of the robot 100 so that the robot 100 travels in a travel space based on a travel command received through the communication interface 130 or an input interface. At this time, one or more processors 140 control the camera 110 to photograph the companion object 200 while the robot 100 travels. In addition, one or more processors 140 may capture the companion object 200 through the camera 110 to obtain an image 10 related to the companion object 200 .
  • the one or more processors 140 may control the driving unit of the robot 100 to search for the companion object 200 in the driving space.
  • the management mode of the companion object 200 allows the robot 100 to drive in the driving space in order to acquire a plurality of images 10 for the companion object 200 existing in the driving space during the driving mode of the robot 100. It may be a set mode.
  • the processor may control the driving unit of the robot 100 to move the robot 100 to the location of the companion object 200 set on the map data in the management mode of the companion object 200 of the robot 100. . And, when the robot 100 moves to the location of the companion object 200, the processor acquires a plurality of images 10 of the companion object 200 observed at the location of the companion object 200 set on the map data.
  • the camera 110 can be controlled to do so.
  • one or more processors 140 may control the driving unit of the robot 100 so that the robot 100 travels in the travel space based on preset conditions (eg, preset cycle time, etc.).
  • one or more processors 140 may drive in the driving space at preset intervals and search for companion objects 200 in the driving space. Assuming that the preset period is 2 hours, one or more processors 140 may drive the driving space every 2 hours and acquire a plurality of images 10 of the companion object 200 in the driving space.
  • one or more processors 140 may perform a process of identifying whether an object detected around the robot 100 is a companion object. Specifically, the processor detects objects around the robot 100 through a sensor (not shown) of the robot 100 while the robot 100 is traveling, and controls the driving part of the robot 100 to point toward the detected object. can do. And, the one or more processors 140 acquire sensing information (e.g., point cloud information corresponding to the object) on the object detected through the sensor or at least one image of the object detected through the camera 110. You can obtain (10). Additionally, the one or more processors 140 may identify whether the detected object is the companion object 200 based on the acquired sensing information or information on the companion object stored in the at least one image 10 and the memory 120 .
  • sensing information e.g., point cloud information corresponding to the object
  • the one or more processors 140 when the companion object 200 is a static companion object, move to the location of the static companion object and use the camera 110 to photograph the static companion object at different shooting angles.
  • the camera 110 may be controlled to capture the dynamic companion object while tracking the dynamic companion object.
  • the processor identifies whether the companion object 200 is a static companion object or a dynamic companion object.
  • the process of determining whether the companion object 200 is a static companion object or a dynamic companion object is performed before acquiring a plurality of images 10 for the companion object 200 or by obtaining a plurality of images 10 for the companion object 200. ) can be performed while acquiring.
  • the static companion object may be a companion object whose position is fixed within the driving space where the robot 100 is located. As an example, it may include plants such as flowers and trees. In addition, it may include animals that can be identified at fixed locations within the driving space. For example, fish, turtles, etc. in an aquarium may be static companion objects. That is, in the case of a static companion object, its position within the driving space can be maintained constant.
  • a dynamic companion object is a companion object 200 whose location can change within the driving space, and may include animals such as dogs and cats.
  • the location of the static companion object may be preset on map data. Accordingly, one or more processors 140 may identify the type of the companion object 200 depending on whether the location of the companion object 200 is preset on the map data.
  • the one or more processors 140 may identify the type of the companion object 200 as a static companion object.
  • the processor may identify the type of the companion object 200 as a dynamic companion object.
  • At least one location where the dynamic companion object is frequently found may be preset in the map data.
  • one or more processors 140 may identify the type of companion object 200 according to the number of preset positions on the map data. For example, in the case of a static companion object, there may be one preset location in the map data, but in the case of a dynamic companion object, there may be multiple preset locations in the map data.
  • One or more processors 140 may receive information about the companion object 200 existing in the driving space in advance through the communication interface 130 or an input interface (not shown).
  • Information on the companion object 200 may include the type, name, age, and location of the companion object 200 within the driving space. Meanwhile, information on the companion object 200 may be stored in the memory 120 as described above.
  • one or more processors 140 may identify the type of companion object 200 based on the image 10 acquired in real time through the camera 110. That is, at least one processor 140 may identify whether the companion object 200 is a static companion object or a dynamic companion object based on the image 10 acquired in real time.
  • one or more processors 140 may identify the type of companion object 200 based on the image 10 acquired through the camera 110. That is, the processor may acquire a plurality of images 10 of objects around the robot 100 while driving in the driving space where the robot 100 is located according to a user command or preset conditions. At this time, the processor may recognize the object in the image 10 based on the acquired plurality of images 10 and identify the type of the recognized object.
  • one or more processors 140 may identify the object within the plurality of images 10 as a dynamic companion object. On the other hand, if the position of the object does not change or the movement of the object is not detected within the plurality of images 10, the one or more processors 140 may identify the object in the plurality of images 10 as a static companion object.
  • the one or more processors 140 may use the identification information of the companion object 200 stored in the memory 120 to identify whether the object recognized based on the plurality of images 10 corresponds to the companion object 200. You can. Specifically, the one or more processors 140 identify whether the object in the image 10 corresponds to the companion object 200 based on the object recognition result regarding the object in the image 10 and the identification information of the companion object 200. can do.
  • the at least one processor 140 identifies whether the companion object 200 is a static companion object or a dynamic companion object, and then moves to the location of the static companion object when the companion object 200 is a static companion object.
  • the camera 110 is controlled to photograph a static companion object at different photographing angles.
  • the one or more processors 140 can discover the companion object 200 at that location when the robot 100 moves to the preset location of the companion object 200. . Accordingly, in the case of a static companion object, at least one processor 140 may control the driving unit to move the robot 100 to the location of the companion object 200 set on the map data.
  • the one or more processors 140 identify the object through the acquired plurality of images 10, and when the identified object is identified as a static companion object, the driving unit moves the robot 100 toward the identified static companion object. can also be controlled. Additionally, when the robot 100 is located within a preset distance from the location of the static companion object, the processor may acquire a plurality of images of the static companion object through the camera 110. At this time, the processor may acquire a plurality of images by photographing the static companion object from various photographing angles.
  • the one or more processors 140 may control the camera 110 to photograph the dynamic companion object while tracking the dynamic companion object.
  • the processor may identify an object through the acquired plurality of images 10, and when the identified companion object 200 is identified as a dynamic companion object, the processor may control the driving unit to track the identified dynamic companion object.
  • the processor controls the robot 100 to track the dynamic companion object by controlling the driving unit.
  • the processor may control the distance between the robot 100 and the dynamic companion object to be greater than or equal to a preset distance through a sensor.
  • the processor may control the camera 110 to acquire a plurality of images 10 for the dynamic companion object while tracking the dynamic companion object.
  • the processor may acquire a plurality of images 10 by photographing the dynamic companion object from various photographing angles.
  • the one or more processors 140 control the camera 110 to photograph the companion object 200, and then acquire the image 10 related to the companion object 200.
  • the image 10 related to the companion object 200 may be compared with a plurality of images stored in the memory 120 to identify whether abnormal symptoms have occurred in the companion object 200.
  • One or more processors 140 obtain an image of the companion object 200 through the camera 110 and then identify whether an abnormal symptom occurs in the companion object 200. To this end, one or more processors 140 use management information of the companion object 200 stored in the memory 120.
  • management information of the companion object 200 stored in the memory 120.
  • Figure 3 is an example diagram illustrating identifying abnormal symptoms of a companion object based on management information about the companion object, according to an embodiment of the present disclosure.
  • Figure 4 is an example diagram showing management information on a plurality of companion objects stored in memory, according to an embodiment of the present disclosure.
  • Management information about the companion object 200 may be stored in the memory 120 .
  • the management information about the companion object 200 may include a plurality of images obtained for the companion object 200.
  • the plurality of images are images acquired at different times and stored in the memory 120, and are accumulated images of the companion object 200. Accordingly, management information may be referred to as history information about the companion object 200.
  • management information 20 for the companion object 200 includes a plurality of images 11 acquired on August 2, a plurality of images 12 acquired on August 7, and August 12. It includes a plurality of images (13) acquired in one day.
  • the management information about the companion object 200 may further include information on the surrounding environment of the companion object 200 detected at the time each image is acquired.
  • the one or more processors 140 collect environmental information around the companion object 200 using a sensor (not shown) of the robot 100 at each point in time when a plurality of images of the companion object 200 are acquired. It can be obtained.
  • Information on the surrounding environment of the companion object 200 includes information on temperature, time, humidity, etc.
  • the management information 20 regarding the companion object 200 further includes information on the surrounding environment of the companion object 200 detected at the time each image is acquired. Specifically, when acquiring a plurality of images 110 for the companion object 200 at 14:25 on August 2, the one or more processors 140 determine that the temperature of the environment around the companion object 200 is 23. °C and humidity was identified as 55%. In addition, one or more processors 140 may process a plurality of images 11 acquired at 14:25 on August 2 and environmental information around the companion object 200 (i.e., temperature is 23°C, humidity is 55%) ) can be matched and stored in the memory 120.
  • the management information includes environmental information (temperature 24°C, humidity 64%) identified at the time of acquiring multiple images of the companion object 200 at 14:26 on August 7th and 14:00 on August 12th.
  • Environmental information (temperature 22°C, humidity 48%) identified at the time of acquiring multiple images of the companion object 200 at 26 minutes may be included.
  • management information about a plurality of companion objects 200 may be stored in the memory 120 . That is, referring to FIG. 4, one or more processors 140 acquire a plurality of images at different viewpoints with respect to the first companion object 210 and then use the obtained plurality of images corresponding to the first companion object 210. It can be stored in the memory 120 as management information. In addition, one or more processors 140 acquire a plurality of images for the second companion object 210 at different viewpoints, and then convert the acquired plurality of images into management information corresponding to the second companion object 210 in the memory 120. ) can be saved in .
  • the environmental information included in the management information may be different depending on the type of the companion object 200.
  • the companion object 200 is an animal
  • each time the one or more processors 140 acquire an image of the companion object 200 the body temperature of the companion object 200 is measured using an infrared sensor (not shown). By identifying the body temperature information, the obtained body temperature information can be included in the management information of the companion object 200 and stored in the memory 120 .
  • the one or more processors 140 acquire color information of the companion object 200 every time an image of the companion object 200 is acquired, and the obtained color information is returned. It can be included in the management information of the object 200 and stored in the memory 120.
  • the cycle at which management information is updated may vary depending on the type of companion object 200.
  • the first companion object 210 corresponding to a plant an image for the first companion object 200 is acquired every 5 days, and management information is updated based on the acquired image.
  • the second companion object 220 corresponding to an animal an image of the second companion object 220 is acquired every day, and management information is updated based on the acquired image.
  • the period at which the image for the companion object 200 is acquired may differ depending on the type of the companion object 200, and as a result, the period at which management information is updated based on the acquired image may also vary.
  • the companion object 200 when the companion object 200 is an animal, an image of the companion object 200 is acquired every first cycle, and then management information of the companion object 200 is stored based on the acquired image.
  • the companion object 200 is a plant, an image of the companion object 200 is acquired every second cycle, and then the management information of the companion object 200 is updated based on the acquired image.
  • the first period may be set to a shorter time than the second period.
  • the one or more processors 140 identify management information corresponding to the rejected object 200 among the plurality of management information stored in the memory 120, and plurality of pieces of management information corresponding to the rejected object 200 included in the identified management information. Images can be extracted. In addition, one or more processors 140 may compare the plurality of extracted images with the acquired image to identify whether an abnormal symptom has occurred in the companion object 200.
  • the one or more processors 140 when the one or more processors 140 identify that an abnormal symptom has occurred in the companion object 200, the one or more processors 140 perform a process corresponding to the identified abnormal symptom based on the information stored in the memory 120. Control information is identified, and a control signal for controlling the operation of at least one peripheral device 300 based on the identified control information is transmitted to at least one peripheral device 300 through the communication interface 130.
  • the one or more processors 140 identify the type of abnormal symptom occurring in the companion object 200 and retrieve control information about the peripheral device 300 corresponding to the identified type of abnormal symptom from the memory 120. It can be obtained.
  • the one or more processors 140 identify at least one peripheral device 300 to transmit a control command among the plurality of peripheral devices 300, and the identified at least one peripheral device 300 Control commands can be sent to .
  • the one or more processors 140 identify that an abnormal symptom has occurred in the companion object 200
  • the one or more processors 140 inform the user terminal device 400 through the communication interface 130 that an abnormal symptom has occurred in the companion object 200. Information can be transmitted.
  • one or more processors 140 may transmit control information regarding the peripheral device 300 together with the type of abnormal symptom. Accordingly, when a user who recognizes that an abnormal symptom has occurred in the companion object 200 inputs a control command related to the peripheral device 300 through the user terminal device 400, one or more processors 140 execute the communication interface 130. ), and can transmit the control command to the peripheral device 300 through the communication interface 130.
  • the companion object 200 is sent to the user terminal device 400 through the communication interface 130. ) can only transmit information indicating that an abnormal symptom has occurred. Accordingly, the robot 100 of the present disclosure allows the user to directly take quick action on the companion object 200.
  • Figure 5 is an example diagram illustrating identifying abnormal symptoms of a companion object based on images acquired at different times, according to an embodiment of the present disclosure.
  • one or more processors 140 obtain a first comparison result by comparing the first image of the companion object 200 acquired through the camera 110 at a first viewpoint with a plurality of images. can do. At this time, the one or more processors 140 store the obtained first comparison result in the memory 120 and then generate a second image of the companion object 200 acquired through the camera 110 at a second time point after the first time point. A second comparison result can be obtained by comparing with a plurality of images. In addition, one or more processors 140 may identify whether an abnormal symptom occurs in the companion object 200 based on the obtained second comparison result and the first comparison result stored in the memory 120.
  • one or more processors 140 may compare images acquired at different times with management information of the companion object 200 and obtain a comparison result for each image. That is, one or more processors 140 may obtain a first comparison result 31 by comparing the first image acquired at the first time point with a plurality of images included in the management information of the companion object 200. In addition, one or more processors 140 may obtain a second comparison result 32 by comparing the second image acquired at the second time point with a plurality of images included in the management information of the companion object 200. At this time, the first viewpoint and the second viewpoint correspond to different viewpoints.
  • one or more processors 140 may identify the progress of abnormal symptoms of the companion object 200 based on the first and second comparison results.
  • one or more processors 140 acquire a plurality of images (first images) 10 for the companion object 200 on August 17, 2022 (a first time point), Abnormal symptoms of the companion object 200 by comparing the acquired plurality of images (first image) 10 with the plurality of images 11, 12, and 13 included in the management information 20 of the companion object 200 It is possible to identify whether .
  • one or more processors 140 observe the companion object 200 based on a plurality of images (first image) 10 of the companion object 200 on August 17, 2022 (first time point). The area of change was identified as 20% (first comparison result (31)).
  • one or more processors 140 may identify that an abnormal symptom has occurred for the companion object 200. At this time, one or more processors 140 transmit a control signal for at least one external device corresponding to the abnormal symptom to at least one external device through the communication interface 130, or send a companion object to the user terminal device 400. Information notifying the occurrence of abnormal symptoms (200) can be transmitted.
  • one or more processors 140 acquire a plurality of images (second images) 14 for the companion object 200 on August 22, 2022 (second time point), and obtain a plurality of images (second images) 14 2 image) 14 and a plurality of images 11, 12, and 13 included in the management information of the companion object 200 can be compared to identify whether abnormal symptoms of the companion object 200 have occurred.
  • one or more processors 140 observe the companion object 200 based on a plurality of images (second images) 14 for the companion object 200 on August 22, 2022 (second time point). The area of change was identified as 10% (second comparison result (32)).
  • the one or more processors 140 are based on the first comparison result 31 and the second comparison result 32 obtained on August 22, 2022 (second time point), and The area of abnormal change can be identified as being reduced. Accordingly, on August 22, 2022 (second time point), one or more processors 140 may identify that the abnormal symptoms of the companion object 200 are decreasing. Therefore, unlike August 17, 2022 (the first time point), on August 22, 2022 (the second time point), one or more processors 140 send a control signal to at least one external device through the communication interface 130. It may not be sent.
  • one or more processors 140 repeatedly identify whether abnormal symptoms occur in the companion object 200 based on images acquired at different times.
  • one or more processors 140 accumulate and store even the comparison results that were the standard for identifying whether abnormal symptoms of the companion object 200 have occurred in the management information of the companion object 200, and based on the stored comparison results, By observing the progress of abnormal symptoms that have occurred, the abnormal symptoms of the companion object 200 can be determined more clearly.
  • the one or more processors 140 select the second image based on the second viewpoint among the plurality of images.
  • a second comparison result may be obtained by comparing the image with at least one image acquired within a preset time.
  • the one or more processors 140 acquire an image of the companion object 200 through the camera 110, at least one image acquired within a preset time from the time of acquiring the image and stored in the memory 120 By comparing the image, it is possible to identify whether abnormal symptoms occur in the companion object 200. That is, the one or more processors 140 select only at least one image acquired within a preset time among the plurality of images included in the management information, compare the selected at least one image with the image acquired in real time, and collect the companion object. Identify whether abnormal symptoms (200) occur or not.
  • one or more processors 140 may select a plurality of images 11, 12, and 13 included in the management information. By comparing the image 13 with the plurality of images 10 acquired on August 17, 2022, it is possible to identify whether abnormal symptoms of the companion object 200 have occurred.
  • one or more processors 140 manage the companion object 200 by including a plurality of images 10 acquired on August 17, 2022 in the management information of the companion object 200. Information can be updated and the updated management information can be stored in the memory 120. Accordingly, the one or more processors 140 combine the plurality of images 10 acquired on August 22, 2022 with management information of the companion object 200 including the plurality of images acquired on August 17, 2022. You can compare.
  • Figure 6 is an example diagram illustrating identifying whether an abnormal symptom occurs in a companion object, according to an embodiment of the present disclosure.
  • one or more processors 140 may identify whether an abnormal symptom occurs in the companion object 200 based on the size of the abnormal change area observed in the companion object 200 .
  • the abnormal change area may be an area where discoloration, spots, etc. occur.
  • the one or more processors 140 may identify that an abnormal change area is observed in the companion object 200 based on the image acquired on August 17th. Accordingly, one or more processors 140 may predict that an abnormal symptom occurred in the companion object 200 on August 17th. However, since the ratio of the size of the abnormal change area observed in the companion object 200 is smaller than the ratio (40%) of the preset size, one or more processors 200 determine that an abnormal symptom has occurred in the companion object 200. You can postpone doing it.
  • the size ratio of the abnormal change area observed in the companion object 200 increased to 30%, and in the image acquired on August 27th. Based on this, it can be identified that the size ratio of the abnormal change area observed in the companion object 200 has reached 40%, which is a preset size ratio. Accordingly, one or more processors 140 can definitively identify that an abnormal symptom has occurred in the companion object 200 and transmit a control command to a peripheral device corresponding to the abnormal symptom through the communication interface 130.
  • one or more processors 140 may identify whether an abnormal symptom occurs in the companion object 200 based on the number of spots observed in the companion object 200. Specifically, if the number of spots observed in the companion object 200 is more than a preset number, the one or more processors 140 may confirm and identify that an abnormal symptom has occurred in the companion object 200.
  • Figure 7 is an example diagram illustrating setting a reference image as the occurrence of an abnormality in a companion object is detected and identifying whether an abnormality in the companion object has occurred based on the set reference image, according to an embodiment of the present disclosure.
  • the one or more processors 140 when an abnormal symptom is detected in the companion object 200 based on the image acquired through the camera 110, the one or more processors 140 combine the acquired image with the abnormal symptom and Management information about the companion object 200 can be updated by storing it in the memory 120 as a related reference image. And, when the image of the companion object 200 is acquired through the camera 110 while the robot 100 is running, the one or more processors 140 compare the acquired image with the reference image to determine whether the companion object 200 has an abnormality. It is possible to identify whether symptoms are occurring.
  • the one or more processors 140 when the one or more processors 140 detect that an abnormality has occurred in the companion object 200 based on the acquired image, the one or more processors 140 store the acquired image in the management information of the companion object 200. You can update management information by adding it. At this time, one or more processors 140 may set a newly added image among a plurality of images included in the updated management information as a reference image. In addition, the one or more processors 140 may compare the plurality of images obtained for the companion object 200 with a reference image among the plurality of images included in the management information to identify abnormal symptoms of the companion object 200. there is.
  • detecting that an abnormal symptom of the companion object 200 has occurred may mean that the abnormal symptom of the companion object 200 is observed for the first time. That is, when an abnormal symptom first occurs in the companion object 200 that was identified as normal, one or more processors 140 may set the image in which the abnormal symptom was first observed as a reference image.
  • one or more processors 140 detected the occurrence of abnormal symptoms of the companion object 200 based on the plurality of images 10 acquired on August 17, 2022. Accordingly, one or more processors 140 may update the management information by adding a plurality of images 10 acquired on August 17, 2022 to the management information of the companion object 200. In addition, one or more processors 140 may set the plurality of images 10 acquired on August 17, 2022 as reference images. Thereafter, one or more processors 140 acquire a plurality of images for the companion object 200 on August 22, 2022, and then compare the acquired plurality of images with the reference image to determine abnormal symptoms of the companion object 200. Progress can be observed.
  • control information corresponding to each abnormal symptom of the companion object 200 may be stored in the memory 120.
  • the control information may include the type of peripheral device 300 controlled according to abnormal symptoms, commands for the peripheral device 300, etc.
  • first control information corresponding to the first type abnormal symptom and second control information corresponding to the second type abnormal symptom may be stored in the memory 120. .
  • a plurality of control information corresponding to discoloration among abnormal symptoms of the companion object 200 may be stored in the memory 120 . More specifically, when the discoloration of the plant is brown, control information for controlling the peripheral device 300 (e.g., dehumidifier, etc.) to increase the humidity of the driving space where the companion object 200 is located is stored in the memory 120. It can be. If the discoloration of the plant is green, control information for controlling the peripheral device 300 (e.g., lighting device, etc.) to increase the brightness of the lighting in the driving space where the companion object 200 is located will be stored in the memory 120. You can.
  • control information for controlling the peripheral device 300 e.g., dehumidifier, etc.
  • the memory 120 may store control information regarding the peripheral device 300 that can be controlled according to the type of the companion object 200 or the abnormal symptoms of the companion object 200.
  • one or more processors 140 compare a plurality of images obtained for the companion object 200 with management information corresponding to the companion object 200, and compare the management information corresponding to the companion object 200. In addition to identifying whether an abnormal symptom has occurred, the one or more processors 140 may also identify the type of abnormal symptom that has occurred. Additionally, the processor may obtain control information corresponding to the type of the companion object 200 and the type of abnormal symptom of the companion object 200 from the memory 120 .
  • FIG. 8 is an example diagram illustrating transmitting a control command to a peripheral device according to the type of abnormal symptom of a companion object according to an embodiment of the present disclosure.
  • the one or more processors 140 when the one or more processors 140 identify the abnormal symptom of the companion object 200 as a first type abnormal symptom based on the first comparison result and the second comparison result, the one or more processors 140 determine the first type abnormal symptom. Based on the first control information corresponding to the symptom, the first control signal for controlling the operation of the air conditioner among the plurality of peripheral devices 300 of the robot 100 may be transmitted to the air conditioner through the communication interface 130.
  • a second control signal for controlling the operation of a lighting device among the plurality of peripheral devices 300 of the robot 100 may be transmitted to at least one peripheral device 300 through the communication interface 130.
  • the one or more processors 140 identify that the abnormal symptom of the companion object 200 is a third type abnormal symptom based on the first comparison result and the second comparison result, the one or more processors 140 generate a third abnormal symptom corresponding to the third type abnormal symptom. Based on the control information, a third control signal for controlling the operation of the air conditioner and humidifier among the plurality of peripheral devices 300 of the robot 100 may be transmitted to the air conditioner and humidifier through the communication interface 130.
  • Figure 9 is an example diagram illustrating transmitting management information about a companion object to a user terminal device and receiving a control command for a peripheral device from the user terminal device, according to an embodiment of the present disclosure.
  • Figure 10 is an example diagram showing information on peripheral devices corresponding to abnormal symptoms according to an embodiment of the present disclosure.
  • the one or more processors 140 transmit information about the abnormal symptom of the companion object 200 and the identified control information. is transmitted to the user terminal device 400 through the communication interface 130, and when a user command corresponding to the control information is received from the user terminal device 400, the control signal is transmitted to at least one peripheral device through the communication interface 130. It can be transmitted to the device 300.
  • each time one or more processors 140 acquire an image for the companion object 200 the acquired image may be transmitted to the user through the communication interface 130. Accordingly, referring to FIG. 9 , a plurality of images of the companion object 200 acquired by one or more processors 140 may be displayed on the user terminal device 400. Through this, the user can monitor the companion object 200 even in a space separated from the companion object 200.
  • one or more processors 140 may display a separate UI for an image identified as having an abnormal symptom for the companion object 200 among the plurality of images for the companion object 200 . That is, referring to FIG. 9, one or more processors 140 include images acquired on August 12, when the companion object 200 was identified as having an abnormal symptom, in which the user indicated that the companion object 200 had an abnormal symptom. A UI can be displayed and transmitted to the user terminal device 400 so that it can be recognized.
  • one or more processors 140 may transmit control information of the peripheral device 300 of the robot 100 related to abnormal symptoms of the companion object 200 to the user terminal device 400 through the communication interface 130. there is. And, when a user command corresponding to control information is received from the user terminal device 400 through the communication interface 130, the peripheral device 300 can be controlled based on the received user command.
  • a message is sent requesting the user terminal device 400 to control the peripheral device 300. can be transmitted. The transmitted message may be displayed on the messenger UI displayed on the user terminal device 400.
  • one or more processors 140 may transmit a control command corresponding to the input message to the peripheral device 300. That is, one or more processors 140 may transmit a control command to turn off the air conditioner to the air conditioner based on a user's message requesting to turn off the air conditioner.
  • one or more processors 140 identify the cause of abnormal symptoms of the companion object using a table related to abnormal symptoms of the companion object stored in the memory 120, Control commands can be sent to peripheral devices based on the identified cause. For example, if the companion object is identified as discolored brown based on the acquired image 10, one or more processors 140 may identify that an abnormal symptom has occurred in the companion object. In addition, one or more processors 140 may identify a dehumidifier and/or humidifier as a peripheral device corresponding to the identified abnormal symptom and transmit a control command to the identified peripheral device through the communication interface 130.
  • one or more processors may obtain a plurality of images of the companion object 200 by photographing the companion object 200 at preset time periods while the robot 100 is traveling.
  • one or more processors 140 may adjust a preset time period when it is detected that an abnormal symptom has occurred in the companion object 200. That is, one or more processors 140 may change the time period for acquiring an image of the companion object 200 to a shorter time.
  • one or more processors 140 acquired a plurality of images by photographing the companion object 200 every 4 hours (period of 1 hour).
  • one or more processors 140 photograph the companion object 200 every hour (second time period) and Images can be obtained.
  • the one or more processors 140 determine the driving space based on data acquired through the sensor of the robot 100. Environmental information can be identified. At this time, the one or more processors 140 identify whether the abnormal symptom of the companion object 200 is related to the environmental information based on the environmental information of the identified driving space and the environmental information corresponding to the time when each of the plurality of images was acquired, If the abnormal symptom of the companion object 200 is identified as being related to environmental information, a control signal for controlling the operation of at least one peripheral device 300 is sent to the communication interface 130 based on the control information about the peripheral device 300. ) can be transmitted to at least one peripheral device 300.
  • the one or more processors 140 determine the abnormal symptom based on the surrounding environment information of the companion object 200.
  • the cause of symptoms can be analyzed.
  • the one or more processors 140 determine the normal state of the companion object 200 based on the environmental information and management information around the companion object 200 at the time when it is identified that an abnormal symptom has occurred in the companion object 200. It is possible to compare surrounding environmental information and identify environmental factors related to the cause of abnormal symptoms based on the comparison results.
  • one or more processors 140 may use control information about the peripheral device 300 stored in the memory to appropriately change the identified environmental factors. Specifically, based on the control information for the peripheral device 300 stored in the memory, the one or more processors 140 identify the type of peripheral device 300 that appropriately changes the identified environmental factor, and use the communication interface 130 A control command can be transmitted to the identified peripheral device 300 through .
  • FIG. 11 is a detailed configuration diagram of a robot according to an embodiment of the present disclosure.
  • the robot 100 of the present disclosure includes a camera 110, a memory 120, a communication interface 130, a sensor 150, a driver 160, a display 170, a speaker 180, Includes a microphone 190 and one or more processors 140.
  • a camera 110 a memory 120
  • a communication interface 130 a sensor 150
  • a driver 160 a driver 160
  • a display 170 a display 170
  • a speaker 180 Includes a microphone 190 and one or more processors 140.
  • FIG. 10 includes a camera 110, a memory 120, a communication interface 130, a sensor 150, a driver 160, a display 170, a speaker 180, Includes a microphone 190 and one or more processors 140.
  • a sensor is a device used to detect objects around the robot 100.
  • the sensor may be implemented as a LiDAR sensor, ToF sensor, etc.
  • One processor may identify an object based on sensing information about objects around the robot 100 (for example, point cloud information corresponding to the object, etc.) through a sensor.
  • one or more processors 140 acquire at least one image of the object detected through the camera 110 and identify the object based on the acquired image. can do.
  • the one or more processors 140 acquire a plurality of images of the object identified as the companion object 200 through the camera 110, and Based on the plurality of images and management information, it is identified whether abnormal symptoms occur in the companion object 200. Detailed explanation regarding this will be omitted.
  • the senor may obtain information about the surrounding environment (temperature, humidity, illumination, etc.) of the companion object 200.
  • the sensor may further include at least one of a temperature/humidity sensor, an illumination sensor, or a UV (ultra violet) sensor. Accordingly, each time the one or more processors 140 acquire an image of the companion object 200, they may also obtain information about the environment around the companion object 200 through a sensor.
  • the driving unit 160 is a device that can drive the robot 100.
  • the driving unit 160 can adjust the traveling direction and traveling speed according to the control of the processor 140.
  • the driving unit 160 according to one example is a power generating device that generates power for the robot 100 to travel (e.g., a gasoline engine, a diesel engine, or a liquefied petroleum gas (LPG) depending on the fuel (or energy source) used. ) engine, electric motor, etc.), and a steering device to control the driving direction (e.g., manual steering, hydraulics steering, electronic control power steering (EPS), etc.).
  • a power generating device that generates power for the robot 100 to travel
  • LPG liquefied petroleum gas
  • EPS electronic control power steering
  • the display 140 can display various visual information. As an example, the display 140 may display information about map data, the driving path of the robot 100, the companion object 200, etc.
  • the display 170 may be implemented as a display including a self-emitting device or a display including a non-light-emitting device and a backlight.
  • a display including a self-emitting device or a display including a non-light-emitting device and a backlight.
  • LCD Liquid Crystal Display
  • OLED Organic Light Emitting Diodes
  • LED Light Emitting Diodes
  • micro LED micro LED
  • Mini LED Micro LED
  • PDP Plasma Display Panel
  • QD Quantum dot
  • QLED Quantum dot light-emitting diodes
  • the display 170 may also include a driving circuit and a backlight unit that may be implemented in the form of a-si TFT, low temperature poly silicon (LTPS) TFT, or organic TFT (OTFT).
  • the display 170 may be a touch screen combined with a touch sensor or touch panel, a flexible display, a rollable display, a 3D display, or a display in which a plurality of display modules are physically connected. It can be implemented as follows. Meanwhile, when the display 170 forms a touch screen together with a touch sensor or a touch panel, the display 170 functions as an output unit that outputs information between the robot 100 and the user, and at the same time, It can function as an input unit that provides an input interface between the device and the user.
  • LTPS low temperature poly silicon
  • OFT organic TFT
  • the speaker 180 can output sound signals to the outside of the robot 100.
  • the speaker 180 can output multimedia playback, recording playback, various notification sounds, voice messages, etc.
  • the robot 100 may include an audio output device such as the speaker 180, or may include an output device such as an audio output terminal.
  • the speaker 180 can provide acquired information, information processed and produced based on the acquired information, response results to the user's voice, or operation results, etc. in voice form.
  • the microphone 190 may receive acoustic signals from the surroundings of the robot 100.
  • the microphone may receive a user's voice controlling the robot 100.
  • the user voice may be a voice for setting the management mode of the companion object 200 of the robot 100.
  • one or more processors 140 convert the user's voice into a digital signal through a STT (Speech to Text) algorithm and respond in response to the user's voice. Information can be provided.
  • STT Seech to Text
  • Figure 12 is a schematic flowchart of a control method of a companion object management robot according to an embodiment of the present disclosure.
  • one or more processors 140 of the robot 100 control the camera 110 of the robot 100 to photograph the companion object 200 while the robot 100 travels (S1210).
  • one or more processors 140 may control the driving unit of the robot 100 so that the robot 100 moves to the location of the companion object 200 set on map data about the driving space.
  • one or more processors 140 may identify objects around the robot 100 through a sensor at the preset location of the companion object 200.
  • one or more processors 140 may detect an object around the robot 100 through a sensor, acquire an image of the detected object through the camera 110, and then identify the object based on the acquired image.
  • one or more processors 140 may identify whether the identified object corresponds to the companion object 200 based on information on the companion object 200 stored in the memory 120 . And, when the identified object is identified as the companion object 200, the one or more processors 140 may acquire a plurality of images of the companion object 200 using the camera 110 on the companion object 200. there is.
  • one or more processors 140 compare the image of the companion object 200 acquired through the camera 110 with management information corresponding to the companion object 200 stored in the memory 120 of the robot 100 ( S1220), based on the comparison result, it is possible to identify whether abnormal symptoms occur in the companion object 200 (S1230).
  • the management information may include a plurality of images of the companion object 200 acquired at different viewpoints.
  • one or more processors 140 compare a plurality of images for the companion object 200 included in the management information with the obtained image of the companion object 200, and based on the comparison result, the companion object 200 It is possible to identify whether abnormal symptoms have occurred.
  • the one or more processors 140 send at least one peripheral device 300 corresponding to the abnormal symptom of the companion object 200 stored in the memory 120. Based on the control information, control information corresponding to the identified abnormal symptom can be identified (S1240).
  • the one or more processors 140 send a control signal for controlling the operation of the at least one peripheral device 300 based on the identified control information to the at least one peripheral device through the communication interface 130 of the robot 100. It can be transmitted to (300) (S1250).
  • the methods according to various embodiments of the present disclosure described above may be implemented in the form of an application that can be installed on an existing robot 100.
  • the methods according to various embodiments of the present disclosure described above may be performed using a deep learning-based learned neural network (or deep learned neural network), that is, a learning network model.
  • the methods according to various embodiments of the present disclosure described above may be implemented only by upgrading software or hardware for the existing robot 100.
  • the various embodiments of the present disclosure described above can also be performed through an embedded server provided in the robot 100 or an external server of the robot 100.
  • the various embodiments described above may be implemented as software including instructions stored in a machine-readable storage media (e.g., a computer).
  • the device is a device capable of calling instructions stored in a storage medium and operating according to the called instructions, and may include an electronic device (eg, an electronic device) according to the disclosed embodiments.
  • the processor may perform the function corresponding to the instruction directly or using other components under the control of the processor.
  • Instructions may contain code generated or executed by a compiler or interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium does not contain signals and is tangible, and does not distinguish whether the data is stored semi-permanently or temporarily in the storage medium.
  • the methods according to various embodiments described above may be provided and included in a computer program product.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed on a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or online through an application store (e.g. Play StoreTM).
  • an application store e.g. Play StoreTM
  • at least a portion of the computer program product may be at least temporarily stored or created temporarily in a storage medium such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component e.g., module or program
  • each component may be composed of a single or multiple entities, and some of the sub-components described above may be omitted, or other sub-components may be omitted. Additional components may be included in various embodiments. Alternatively or additionally, some components (e.g., modules or programs) may be integrated into a single entity and perform the same or similar functions performed by each corresponding component prior to integration. According to various embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or at least some operations may be executed in a different order, omitted, or other operations may be added. You can.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Architecture (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)

Abstract

본 개시는 로봇 및 그 제어 방법을 제공한다. 본 개시의 로봇은 카메라, 상이한 시점에서 반려 객체를 촬영한 복수의 이미지를 포함하는 상기 반려 객체에 대한 관리 정보 및 상기 반려 객체의 이상 증상에 대응되는 적어도 하나의 주변 기기에 대한 제어 정보가 저장된 메모리, 통신 인터페이스 및 하나 이상의 프로세서를 포함한다. 상기 프로세서는 상기 로봇이 주행하는 동안 상기 반려 객체를 촬영하도록 상기 카메라를 제어하고, 상기 카메라를 통해 획득된 반려 객체의 이미지를 상기 메모리에 저장된 상기 복수의 이미지와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하고, 상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 메모리에 저장된 정보에 기초하여 상기 식별된 이상 증상에 대응되는 제어 정보를 식별하고, 상기 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송한다.

Description

반려 객체 관리 로봇 및 그 제어 방법
본 개시는 반려 객체 관리 로봇 및 그 제어 방법에 관한 것이다. 더욱 상세하게는 반려 객체에 대한 복수의 이미지를 비교하여, 반려 객체의 이상 증상을 식별하는 로봇 및 그 제어 방법에 관한 것이다.
최근 전자 기술의 발달로 다양한 산업 분야에서 로봇이 이용되고 있다. 객체 인식 기술의 발달로 로봇은 다양한 사물을 정확히 구별할 수 있게 되었고, 자율 주행 기술의 발달로 로봇은 주행 공간에서도 장애물과의 충돌 없이 안정적인 주행이 가능해졌다.
한편, 최근 반려 동물의 가구수가 증가함에 따라, 반려 동물의 관리에 관한 관심이 증가하고 있다. 이와 관련하여, 반려 동물과 분리된 공간에서도 사용자가 실시간으로 반려 동물을 모니터링 할 수 있는 카메라, CCTV 등과 같은 장치 및 서비스의 이용이 활발하다. 다만, 실시간으로 반려 동물을 모니터링 할 수 있도록 하는 모니터링 장치의 경우에도, 사용자가 계속하여 모니터링 장치를 통해 반려 동물의 행동을 관찰해야만 한다. 그렇기 때문에, 사용자가 잠시 주의력을 잃은 경우에는 반려 동물의 이상 증상을 감지하지 못하는 경우가 발생하기도 한다. 무엇보다 사용자가 계속적으로 모니터링을 통해 반려 동물을 감시하는 것은 실질적으로 불가능한 일이다. 이는, 반려 동물에 한정하는 것은 아니며 반려 식물의 경우에도 마찬가지이다.
이에 따라, 사용자를 대신하여 로봇이 반려 동물 및 반려 식물을 지속적으로 모니터링하고, 반려 동물 및 반려 식물의 이상 징후를 식별할 수 있는 방안이 요구되는 실정이다.
본 개시는 상술한 필요성에 따른 것으로, 본 개시의 목적은 반려 객체를 관리하는 로봇 및 그 제어 방법을 제공함에 있다.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 로봇은 카메라, 메모리, 통신 인터페이스 및 하나 이상의 프로세서를 포함한다. 상기 메모리는 상이한 시점에서 반려 객체를 촬영한 복수의 이미지를 포함하는 상기 반려 객체에 대한 관리 정보 및 상기 반려 객체의 이상 증상에 대응되는 적어도 하나의 주변 기기에 대한 제어 정보가 저장한다. 상기 하나 이상의 프로세서는 상기 로봇이 주행하는 동안 상기 반려 객체를 촬영하도록 상기 카메라를 제어하고, 상기 카메라를 통해 획득된 반려 객체의 이미지를 상기 메모리에 저장된 상기 복수의 이미지와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하고, 상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 메모리에 저장된 정보에 기초하여 상기 식별된 이상 증상에 대응되는 제어 정보를 식별하고, 상기 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송한다.
여기서, 상기 하나 이상의 프로세서는, 제1 시점에서 상기 카메라를 통해 획득된 반려 객체의 제1 이미지를 상기 복수의 이미지와 비교하여 제1 비교 결과를 획득하여 상기 메모리에 저장하고, 상기 제1 시점 이후인 제2 시점에서 상기 카메라를 통해 획득된 반려 객체의 제2 이미지를 상기 복수의 이미지와 비교하여 제2 비교 결과를 획득하고, 상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상 발생 여부를 식별한다.
여기서, 상기 하나 이상의 프로세서는, 상기 제2 시점에서 상기 반려 객체의 상기 제2 이미지가 획득되면, 상기 제2 이미지를 상기 복수의 이미지 중 상기 제2 시점을 기준으로 기 설정된 시간 이내에 획득된 적어도 하나의 이미지와 비교하여 상기 제2 비교 결과를 획득한다.
또한, 상기 메모리는, 상기 반려 객체의 제1 타입 이상 증상에 대응되는 제1 제어 정보와 상기 반려 객체의 제2 타입 이상 증상에 대응되는 제2 제어 정보를 저장하며, 상기 하나 이상의 프로세서는, 상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상이 상기 제1 타입 이상 증상인 것으로 식별되면, 상기 제1 타입 이상 증상에 대응되는 상기 제1 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제1 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하고, 상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상이 상기 제2 타입 이상 증상인 것으로 식별되면, 상기 제2 타입 이상 증상에 대응되는 상기 제2 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제2 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송한다.
한편, 상기 하나 이상의 프로세서는, 상기 식별된 이상 증상에 대응되는 제어 정보가 식별되면, 상기 반려 객체의 이상 증상에 대한 정보 및 상기 식별된 제어 정보를 전송하도록 상기 통신 인터페이스를 통해 사용자 단말 장치로 전송하고, 상기 사용자 단말 장치로부터 상기 제어 정보에 대응되는 사용자 명령이 수신되면, 상기 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송한다.
또한, 상기 하나 이상의 프로세서는, 상기 로봇이 주행하는 동안 제1 시간 주기로 상기 반려 객체를 촬영하도록 상기 카메라를 제어하고, 상기 카메라를 획득된 이미지를 통해 상기 반려 객체에 이상 증상 발생이 감지되면, 상기 로봇이 주행하는 동안 제2 시간 주기로 상기 반려 객체를 촬영하도록 상기 카메라를 제어한다. 이때, 상기 제2 시간 주기는 상기 제1 시간 주기보다 짧게 설정될 수 있다.
또한, 상기 하나 이상의 프로세서는, 상기 카메라를 통해 획득된 이미지에 기초하여 상기 반려 객체에 이상 증상 발생이 감지되면, 상기 획득된 이미지를 상기 이상 증상과 관련된 기준 이미지로 상기 메모리에 저장하여 상기 반려 객체에 대한 관리 정보를 업데이트 하고, 상기 로봇이 주행하는 동안 상기 카메라를 통해 상기 반려 객체의 이미지가 획득되면, 상기 획득된 이미지를 상기 기준 이미지와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별할 수 있다.
또한, 상기 로봇은 센서를 더 포함할 수 있다. 이때, 상기 반려 객체에 대한 관리 정보는, 상기 복수의 이미지 각각이 획득된 시점에 대응되는 환경 정보를 포함할 수 있다. 그리고 상기 하나 이상의 프로세서는, 상기 카메라를 통해 획득된 반려 객체의 이미지를 상기 메모리에 저장된 상기 복수의 이미지와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하고, 상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 센서를 통해 획득된 데이터에 기초하여 상기 주행 공간의 환경 정보를 식별하고, 상기 식별된 주행 공간의 환경 정보 및 상기 복수의 이미지 각각이 획득된 시점에 대응되는 환경 정보에 기초하여 상기 반려 객체의 이상 증상이 환경 정보에 관련된 것인지 식별하고, 상기 반려 객체의 이상 증상이 환경 정보에 관련된 것으로 식별되면, 상기 주변 기기에 대한 제어 정보에 기초하여 상기 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송할 수 있다.
또한, 상기 하나 이상의 프로세서는, 상기 반려 객체가 정적 반려 객체인 경우 상기 정적 반려 객체의 위치로 이동하여 상기 정적 반려 객체를 상이한 촬영 각도로 촬영하도록 상기 카메라를 제어하고, 상기 반려 객체가 동적 반려 객체인 경우 상기 동적 반려 객체를 트랙킹하면서 상기 동적 반려 객체를 촬영하도록 상기 카메라를 제어할 수 있다.
또한 이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 로봇을 제어하는 방법은, 상기 로봇이 주행하는 동안 반려 객체를 촬영하도록 상기 로봇의 카메라를 제어하는 단계를 포함한다. 또한, 상기 방법은 상기 카메라를 통해 획득된 반려 객체의 이미지를 상기 로봇의 메모리에 저장된 상기 반려 객체에 대응하는 관리 정보와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하는 단계를 포함한다. 또한 상기 방법은 상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 메모리에 저장된 상기 반려 객체의 이상 증상에 대응되는 적어도 하나의 주변 기기에 대한 제어 정보에 기초하여 상기 식별된 이상 증상에 대응되는 제어 정보를 식별하는 단계를 포함한다. 또한 상기 방법은 상기 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 로봇의 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는 단계를 포함한다. 이때, 상기 관리 정보는 상이한 시점에서 반려 객체를 촬영한 복수의 이미지를 포함한다.
여기서, 상기 방법은 제1 시점에서 상기 카메라를 통해 획득된 반려 객체의 제1 이미지를 상기 복수의 이미지와 비교하여 제1 비교 결과를 획득하여 상기 메모리에 저장하는 단계, 상기 제1 시점 이후인 제2 시점에서 상기 카메라를 통해 획득된 반려 객체의 제2 이미지를 상기 복수의 이미지와 비교하여 제2 비교 결과를 획득하는 단계 및 상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상 여부를 식별하는 단계를 포함한다.
또한, 상기 제2 비교 결과를 획득하는 단계는, 상기 제2 시점에서 상기 반려 객체의 상기 제2 이미지가 획득되면, 상기 제2 이미지를 상기 복수의 이미지 중 상기 제2 시점을 기준으로 기 설정된 시간 이내에 획득된 적어도 하나의 이미지와 비교하여 상기 제2 비교 결과를 획득한다.
또한 상기 메모리는, 상기 반려 객체의 제1 타입 이상 증상과 관련된 복수의 제1 이미지 및 상기 반려 객체의 제2 타입 이상 증상과 관련된 복수의 제2 이미지, 상기 제1 타입 이상 증상에 대응되는 제1 제어 정보 및 상기 제2 타입 이상 증상에 대응되는 제2 제어 정보를 저장한다. 이때, 상기 전송하는 단계는, 상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상이 상기 제1 타입 이상 증상인 것으로 식별되면, 상기 제1 타입 이상 증상에 대응되는 상기 제1 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제1 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하고, 상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상이 상기 제2 타입 이상 증상인 것으로 식별되면, 상기 제2 타입 이상 증상에 대응되는 상기 제2 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제2 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송한다.
또한, 상기 전송하는 단계는, 상기 식별된 이상 증상에 대응되는 제어 정보가 식별되면, 상기 반려 객체의 이상 증상에 대한 정보 및 상기 식별된 제어 정보를 전송하도록 상기 통신 인터페이스를 통해 사용자 단말 장치로 전송한다. 이때, 상기 방법은, 상기 통신 인터페이스를 통해 상기 사용자 단말 장치로부터 상기 제어 정보에 대응되는 사용자 명령을 수신하는 단계 및 상기 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는 단계를 더 포함한다.
또한, 상기 카메라를 제어하는 단계는, 상기 로봇이 주행하는 동안 제1 시간 주기로 상기 반려 객체를 촬영하도록 상기 카메라를 제어하고, 상기 카메라를 획득된 이미지를 통해 상기 반려 객체에 이상 증상 발생이 감지되면, 상기 로봇이 주행하는 동안 제2 시간 주기로 상기 반려 객체를 촬영하도록 상기 카메라를 제어한다. 이때 상기 제2 시간 주기는 상기 제1 시간 주기보다 짧도록 설정될 수 있다.
또한, 상기 방법은 상기 카메라를 통해 획득된 이미지에 기초하여 상기 반려 객체에 이상 증상 발생이 감지되면, 상기 획득된 이미지를 상기 이상 증상과 관련된 기준 이미지로 상기 메모리에 저장하여 상기 반려 객체에 대한 관리 정보를 업데이트 하는 단계 및 상기 로봇이 주행하는 동안 상기 카메라를 통해 상기 반려 객체의 이미지가 획득되면, 상기 획득된 이미지를 상기 기준 이미지와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하는 단계를 더 포함한다.
또한, 상기 반려 객체에 대한 관리 정보는, 상기 복수의 이미지 각각이 획득된 시점에 대응되는 환경 정보를 포함한다. 이때, 상기 방법은 상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 로봇의 센서를 통해 획득된 데이터에 기초하여 상기 주행 공간의 환경 정보를 식별하는 단계, 상기 식별된 주행 공간의 환경 정보 및 상기 복수의 이미지 각각이 획득된 시점에 대응되는 환경 정보에 기초하여 상기 반려 객체의 이상 증상이 환경 정보에 관련된 것인지 식별하는 단계 및 상기 반려 객체의 이상 증상이 환경 정보에 관련된 것으로 식별되면, 상기 주변 기기에 대한 제어 정보에 기초하여 상기 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는 단계를 포함한다.
또한, 상기 카메라를 제어하는 단계는, 상기 반려 객체가 정적 반려 객체인 경우 상기 정적 반려 객체의 위치로 이동하여 상기 정적 반려 객체를 상이한 촬영 각도로 촬영하도록 상기 카메라를 제어하고, 상기 반려 객체가 동적 반려 객체인 경우 상기 동적 반려 객체를 트랙킹하면서 상기 동적 반려 객체를 촬영하도록 상기 카메라를 제어한다.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 반려 객체를 관리하는 로봇의 제어 방법이 로봇의 프로세서에 의해 수행되는 경우, 상기 프로세서가 동작을 수행하도록 하는 컴퓨터 명령이 비일시적 컴퓨터 판독가능 기록 매체에 저장될 수 있다. 상기 동작은, 상기 로봇이 주행하는 동안 상기 반려 객체를 촬영하도록 상기 로봇의 카메라를 제어하는 단계를 포함한다. 또한 상기 동작은, 상기 카메라를 통해 획득된 반려 객체의 이미지를 상기 로봇의 메모리에 저장된 상기 반려 객체에 대응하는 관리 정보와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하는 단계를 포함한다. 또한 상기 동작은 상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 메모리에 저장된 상기 반려 객체의 이상 증상에 대응되는 적어도 하나의 주변 기기에 대한 제어 정보에 기초하여 상기 식별된 이상 증상에 대응되는 제어 정보를 식별하는 단계를 포함한다. 또한 상기 동작은 상기 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 로봇의 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는 단계를 포함한다. 이때, 상기 관리 정보는 상이한 시점에서 반려 객체를 촬영한 복수의 이미지를 포함한다.
도 1은 본 개시의 일 실시 예에 따른, 반려 객체를 모니터링 하는 로봇의 예시도이다.
도 2는 본 개시의 일 실시 예에 따른 로봇의 구성도이다.
도 3은 본 개시의 일 실시 예에 따른, 반려 객체에 대한 관리 정보에 기초하여 반려 객체의 이상 증상을 식별하는 것을 나타낸 예시도이다.
도 4는 본 개시의 일 실시 예에 따른, 메모리에 저장된 복수의 반려 객체에 대한 관리 정보를 나타낸 예시도이다.
도 5는 본 개시의 일 실시 예에 따른, 서로 다른 시점에 획득된 이미지에 기초하여 반려 객체의 이상 증상을 식별하는 것을 나타낸 예시도이다.
도 6은 본 개시의 일 실시 예에 다른, 반려 객체의 이상 증상의 발생 여부를 식별하는 것을 나타낸 예시도이다.
도 7은 본 개시의 일 실시 예에 따른 반려 객체의 이상 증상 발생이 감지됨에 따라 기준 이미지를 설정하고, 설정된 기준 이미지에 기초하여 반려 객체의 이상 증상 발생 여부를 식별하는 것을 나타낸 예시도이다.
도 8은, 본 개시의 일 실시 예에 따른 반려 객체의 이상 증상의 유형에 따라 주변 기기에 제어 명령어를 송신하는 것을 나타낸 예시도이다.
도 9는 본 개시의 일 실시 예에 따른, 사용자 단말 장치에 반려 객체에 대한 관리 정보를 송신하고, 사용자 단말 장치로부터 주변 기기에 대한 제어 명령어를 수신하는 것을 나타낸 예시도이다.
도 10은 본 개시의 일 실시 예에 따른 이상 증상에 대응하는 주변 기기에 대한 정보를 나타낸 예시도이다.
도 11은 본 개시의 일 실시 예에 따른, 로봇의 세부적인 구성도이다.
도 12는 본 개시의 일 실시 예에 따른 반려 객체 관리 로봇의 제어 방법에 관한 개략적인 순서도이다.
본 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 본 개시의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성 요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다.
덧붙여, 하기 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 개시의 기술적 사상의 범위가 하기 실시 예에 한정되는 것은 아니다. 오히려, 이들 실시 예는 본 개시를 더욱 충실하고 완전하게 하고, 당업자에게 본 개시의 기술적 사상을 완전하게 전달하기 위하여 제공되는 것이다.
본 개시에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성 요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 개시에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성 요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성 요소를 다른 구성 요소와 구분하기 위해 사용될 뿐 해당 구성 요소들을 한정하지 않는다.
어떤 구성 요소(예: 제1 구성 요소)가 다른 구성 요소(예: 제2 구성 요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성 요소가 상기 다른 구성 요소에 직접적으로 연결되거나, 다른 구성 요소(예: 제3 구성 요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다.
반면에, 어떤 구성 요소(예: 제1 구성 요소)가 다른 구성 요소(예: 제2 구성 요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성 요소와 상기 다른 구성 요소 사이에 다른 구성 요소(예: 제3 구성 요소)가 존재하지 않는 것으로 이해될 수 있다.
본 개시에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다.
대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
실시 예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.
한편, 도면에서의 다양한 요소와 영역은 개략적으로 그려진 것이다. 따라서, 본 발명의 기술적 사상은 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되지 않는다.
이하에서는 첨부한 도면을 참고하여 본 개시에 따른 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
도 1은 본 개시의 일 실시 예에 따른, 반려 객체를 모니터링 하는 로봇의 예시도이다.
도 1을 참조하면, 본 개시의 로봇(100)은 주행 공간 내 반려 객체(200)를 실시간으로 모니터링 하여 반려 객체(200)의 이상 증상을 감지한다. 구체적으로, 로봇(100)은 반려 객체(200)의 이상 증상을 감지하기 위하여, 카메라(110)를 통해 반려 객체(200)에 대한 이미지를 획득한다. 그리고, 로봇(100)은 획득된 이미지와 반려 객체(200)에 관한 관리 정보에 기초하여 반려 객체(200)의 이상 증상을 식별한다. 반려 객체(200)는 반려 동물 및 반려 식물을 포함한다.
이때, 반려 객체(200)에 관한 관리 정보에는 반려 객체(200)에 관한 복수의 이미지가 포함된다. 따라서, 로봇(100)은 반려 객체(200)에 대하여 누적하여 저장된 복수의 이미지와 실시간으로 획득된 이미지를 비교하여 반려 객체(200)의 이상 증상을 식별할 수 있다.
특히, 각각의 반려 객체(200)는 고유의 성격, 행동, 특징 등을 갖기 때문에, 이상 증상을 식별하기 위한 일반적인(또는 공통된) 기준이 적용되기 어려운 경우가 발생하기도 한다. 그렇기 때문에, 본 개시의 로봇(100)은 각각의 반려 객체(200)에 대한 이미지를 반복하여 획득된 이미지를 반려 객체(200)에 대응하는 관리 정보로 저장한다. 각각의 반려 객체(200)에 대하여 누적된 복수의 이미지는 각각의 반려 객체(200)의 이상 증상을 식별하는 기준이 된다. 이를 통해, 본 개시의 로봇(100)은 각각의 반려 객체(200)가 갖고 있는 고유의 성격, 행동, 특징 등을 고려하여 반려 객체(200)의 이상 증상을 식별한다. 이는, 반려 객체(200)의 이상 증상을 보다 명확히 식별하고, 사용자가 보다 신속하게 반려 객체(200)에 대한 조치를 취할 수 있도록 한다.
이하에서는, 이와 관련된 본 개시의 일 실시 예에 대하여 자세히 설명하도록 한다.
도 2는 본 개시의 일 실시 예에 따른 로봇의 구성도이다.
도 2에 따르면, 본 개시의 로봇(100)은 카메라(110), 메모리(120), 통신 인터페이스(130) 및 하나 이상의 프로세서(140)를 포함한다.
카메라(110)는 로봇(100) 주변의 객체를 촬영하여 객체에 관한 복수의 이미지(10)를 획득한다. 구체적으로, 카메라(110)는 반려 객체(200)를 촬영하여 반려 객체(200)에 관한 이미지(10)를 획득한다. 카메라(110)를 통해 획득되는 반려 객체(200)에 관한 이미지(10)는 동영상을 구성하는 복수의 이미지 프레임을 포함한다.
이를 위해, 카메라(110)는 CMOS 구조를 가진 촬상 소자(CIS, CMOS Image Sensor), CCD 구조를 가진 촬상 소자(Charge Coupled Device) 등의 촬상 소자로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 카메라(110)는 피사체를 촬영할 수 있는 다양한 해상도의 카메라(110) 모듈로 구현될 수 있다.
한편, 카메라(110)는 뎁스 카메라(110), 스테레오 카메라 또는 RGB 카메라 등으로 구현될 수 있다. 이를 통해, 카메라(110)는 반려 객체(200)에 관한 이미지(10)와 함께 반려 객체(200)의 뎁스 정보를 함께 획득할 수 있다.
메모리(120)는 본 개시의 다양한 실시 예를 위해 필요한 데이터를 저장할 수 있다. 일 예로, 메모리(120)에는 로봇(100)이 위치한 주행 공간에 관한 맵 데이터가 저장될 수 있다. 여기서, 맵 데이터는 로봇(100)이 주행하도록 설정된 주행 공간에 관한 정보가 포함된 맵 데이터이다. 주행 공간에 관한 정보는 주행 공간 내 설정된 로봇(100)의 주행 경로, 주행 공간 내 구조물, 반려 객체(200)의 위치 정보 등을 포함한다.
한편, 본 개시의 일 실시 예에 따라 메모리(120)는 주행 공간 내 반려 객체(200)의 정보를 저장할 수 있다. 반려 객체(200)의 정보는, 주행 공간 내 존재하는 반려 객체(200)의 유형, 반려 객체(200)의 식별 정보, 주행 공간 내 반려 객체(200)의 위치 등이 포함될 수 있다.
또한, 본 개시의 일 실시 예에 따라 메모리(120)는 각각의 반려 객체(200)에 대한 관리 정보와 반려 객체(200)의 이상 증상에 대응되는 주변 기기(300)에 대한 제어 정보가 저장될 수 있다. 구체적으로, 하나 이상의 프로세서(140)는 상이한 시점에서 반려 객체(200)를 촬영하여 획득된 복수의 이미지(10)를 반려 객체(200)에 대한 관리 정보로 메모리(120)에 저장할 수 있다. 일 예로, 하나 이상의 프로세서(140)는 주기적으로 반려 객체(200)를 촬영하여 반려 객체(200)에 대한 이미지(10)를 획득할 수 있다. 그리고, 하나 이상의 프로세서(140)는 획득된 이미지를 누적하여 메모리(120)에 저장할 수 있다. 이와 같이, 각각의 반려 객체(200)에 대하여 누적된 복수의 이미지(10)는 각각의 반려 객체(200)의 관리 정보로 이용될 수 있다.
한편, 메모리(120)에는 반려 객체(200)의 이상 증상에 대응되는 적어도 하나의 주변 기기(300)에 대한 제어 정보가 저장된다. 구체적으로, 메모리(120)에는 로봇(100)과 통신하는 로봇(100)의 주변 기기(300)의 정보가 저장될 수 있다. 이때, 주변 기기(300)의 정보는, 각각의 주변 기기(300)의 종류, 각각의 주변 기기(300)의 식별 정보, 각각의 주변 기기(300)의 제어 정보 등이 포함된다.
한편, 반려 객체(200)의 이상 증상에 따라 제어되는 적어도 하나의 주변 기기(300)에 대한 제어 정보 또한 메모리(120)에 함께 저장된다. 이에 따라, 하나 이상의 프로세서(140)는 반려 객체(200)의 이상 증상에 대한 적어도 하나의 주변 기기(300)에 대한 제어 정보에 기초하여 관리 정보를 바탕으로 식별된 반려 객체(200)의 이상 증상에 대한 적절한 조치를 취할 수 있다. 주변 기기(300)는 반려 객체(200)의 주변 환경을 조성하는데 영향을 미치는 전자 장치를 포함한다. 일 예로, 주변 기기(300)는 조명 장치, 에어컨, 공기 청정기, 가습기, 제습기 등을 포함할 수 있다.
메모리(120)는 데이터 저장 용도에 따라 로봇(100)에 임베디드 된 메모리 형태로 구현되거나, 로봇(100)에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 로봇(100)의 구동을 위한 데이터의 경우 로봇(100)에 임베디드 된 메모리에 저장되고, 로봇(100)의 확장 기능을 위한 데이터의 경우 로봇(100)에 탈부착이 가능한 메모리에 저장될 수 있다.
한편, 로봇(100)에 임베디드 된 메모리(120)의 경우 휘발성 메모리 (예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나로 구현될 수 있다.
또한, 로봇(100)에 탈부착이 가능한 메모리(120)의 경우 메모리(120) 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결 가능한 외부 메모리(예를 들어, USB 메모리(120)) 등과 같은 형태로 구현될 수 있다.
통신 인터페이스(130)는 회로를 포함하며, 로봇의 주변 기기(300)와의 통신을 수행할 수 있다. 구체적으로, 하나 이상의 프로세서(140)는 통신 인터페이스(130)를 통해 연결된 외부 장치(예를 들어, 서버)로부터 각종 데이터 또는 정보를 수신할 수 있으며, 외부 장치로 각종 데이터 또는 정보를 전송할 수도 있다. 일 예로, 하나 이상의 프로세서(140)는 반려 객체(200)에 대하여 획득한 이미지(10)를 통신 인터페이스(130)를 통해 사용자 단말 장치(400)에 송신할 수 있다. 또한, 하나 이상의 프로세서(140)는 반려 객체(200)의 이상 증상이 발생된 것으로 식별되면, 통신 인터페이스(130)를 통해 사용자 단말 장치(400)에 반려 객체(200)의 이상 증상을 알리는 정보를 송신할 수도 있다.
통신 인터페이스(130)는 WiFi 모듈, Bluetooth 모듈, 무선 통신 모듈, NFC 모듈 및 UWB 모듈(Ultra Wide Band) 중 적어도 하나를 포함할 수 있다. 구체적으로, WiFi 모듈과 Bluetooth 모듈 각각은 WiFi 방식, Bluetooth 방식으로 통신을 수행할 수 있다. WiFi 모듈이나 Bluetooth 모듈을 이용하는 경우에는 SSID 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다.
또한, 무선 통신 모듈은 IEEE, Zigbee, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), 5G(5th Generation) 등과 같은 다양한 통신 규격에 따라 통신을 수행할 수 있다. 그리고, NFC 모듈은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 통신을 수행할 수 있다. 또한, UWB 모듈은 UWB 안테나 간 통신을 통하여, 펄스가 목표물에 도달하는 시간인 ToA(Time of Arrival), 송신 장치에서의 펄스 도래각인 AoA(Ange of Arrival)을 정확히 측정할 수 있고, 이에 따라 실내에서 수십 cm 이내의 오차 범위에서 정밀한 거리 및 위치 인식이 가능하다.
프로세서(140)는 로봇(100)의 전반적인 동작을 제어할 수 있다. 이를 위해, 프로세선(140)는 RAM(Random Access Memory), ROM(Read Only Memory), CPU(central processing unit), GPU(Graphic processing unit) 및 시스템 버스 등을 포함할 수 있으며, 로봇(100)에 포함된 하나 이상의 구성 요소들의 제어에 관한 연산이나 데이터 처리를 실행할 수 있다.
프로세서(140)는 스토리지에 저장된 하나 이상의 명령어를 실행시켜 로봇(100)에 포함된 하나 이상의 구성 요소들을 제어하거나, 하드웨어적인 회로 내지는 칩으로서 하나 이상의 구성 요소들을 제어하거나, 또는 소프트웨어 및 하드웨어의 결합으로서 하나 이상의 구성 요소들을 제어할 수 있다.
프로세서(140)는 카메라(110), 메모리(120), 통신 인터페이스(130), 적어도 하나의 센서(도시되지 않음) 및 구동부(도시되지 않음)를 포함한 로봇(100) 내 다양한 구성 요소들과 전기적으로 연결되어 이들을 제어할 수 있다.
본 개시의 일 실시 예에 따라, 하나 이상의 프로세서(140)는 로봇(100)이 주행하는 동안 반려 객체(200)를 촬영하도록 카메라(110)를 제어한다.
구체적으로, 하나 이상의 프로세서(140)는 통신 인터페이스(130) 또는 입력 인터페이스를 통해 수신된 주행 명령어에 기초하여 로봇(100)이 주행 공간을 주행하도록 로봇(100)의 구동부를 제어할 수 있다. 이때, 하나 이상의 프로세서(140)는 로봇(100)이 주행하는 동안 반려 객체(200)를 촬영하도록 카메라(110)를 제어한다. 그리고, 하나 이상의 프로세서(140)는 카메라(110)를 통해 반려 객체(200)를 촬영하여 반려 객체(200)에 관한 이미지(10)를 획득할 수 있다.
또는, 하나 이상의 프로세서(140)는 반려 객체(200)의 관리 모드에 관한 명령을 수신하면 주행 공간 내 반려 객체(200)를 탐색하도록 로봇(100)의 구동부를 제어할 수 있다. 반려 객체(200)의 관리 모드는, 로봇(100)의 구동 모드 중 주행 공간 내 존재하는 반려 객체(200)에 대한 복수의 이미지(10)를 획득하기 위하여 로봇(100)이 주행 공간을 주행하도록 설정된 모드일 수 있다.
일 예로, 프로세서는 로봇(100)의 반려 객체(200)의 관리 모드에서 맵 데이터 상에 설정된 반려 객체(200)의 위치로 로봇(100)이 이동하도록 로봇(100)의 구동부를 제어할 수 있다. 그리고, 프로세서는 반려 객체(200)의 위치로 로봇(100)이 이동하면, 맵 데이터 상에 설정된 반려 객체(200)의 위치에서 관찰되는 반려 객체(200)에 대한 복수의 이미지(10)를 획득하도록 카메라(110)를 제어할 수 있다.
또는 하나 이상의 프로세서(140)는 기 설정된 조건(예를 들어, 기 설정된 주기 시간 등)에 기초하여 로봇(100)이 주행 공간을 주행하도록 로봇(100)의 구동부를 제어할 수 있다. 일 예로, 하나 이상의 프로세서(140)는 기 설정된 주기마다 주행 공간을 주행하며, 주행 공간 내 반려 객체(200)를 탐색할 수도 있다. 기 설정된 주기가 2시간이라고 가정하였을 때, 하나 이상의 프로세서(140)는 2시간 마다 주행 공간을 주행하고, 주행 공간 내 반려 객체(200)에 대한 복수의 이미지(10)를 획득할 수 있다.
한편, 하나 이상의 프로세서(140)는 로봇(100)의 주변에서 감지되는 객체가 반려 객체인지 식별하는 과정을 수행할 수 있다. 구체적으로, 프로세서는 로봇(100)이 주행하는 동안 로봇(100)의 센서(미도시)를 통해 로봇(100) 주변의 객체를 감지하고, 감지된 객체를 향하도록 로봇(100)의 구동부를 제어할 수 있다. 그리고, 하나 이상의 프로세서(140)는 센서를 통해 감지된 객체에 센싱 정보(예를 들어, 객체에 대응하는 포인트 클라우드 정보)를 획득하거나 또는 카메라(110)를 통해 감지된 객체에 대한 적어도 하나의 이미지(10)를 획득할 수 있다. 그리고, 하나 이상의 프로세서(140)는 획득된 센싱 정보 또는 적어도 하나의 이미지(10)와 메모리(120)에 저장된 반려 객체의 정보에 기초하여 감지된 객체가 반려 객체(200)인지 식별할 수 있다.
본 개시의 일 실시 예에 따라, 하나 이상의 프로세서(140)는, 반려 객체(200)가 정적 반려 객체인 경우 정적 반려 객체의 위치로 이동하여 정적 반려 객체를 상이한 촬영 각도로 촬영하도록 카메라(110)를 제어하고, 반려 객체(200)가 동적 반려 객체인 경우 동적 반려 객체를 트랙킹하면서 동적 반려 객체를 촬영하도록 카메라(110)를 제어할 수 있다.
구체적으로, 프로세서는 반려 객체(200)가 정적 반려 객체인지 동적 반려 객체인지를 식별한다. 반려 객체(200)가 정적 반려 객체인지 동적 반려 객체인지를 판단하는 과정은, 반려 객체(200)에 대한 복수의 이미지(10)를 획득하기 전에 또는 반려 객체(200)에 대한 복수의 이미지(10)를 획득하는 동안에 수행될 수 있다.
정적 반려 객체는 로봇(100)이 위치한 주행 공간 내에서 객체의 위치가 고정된 반려 객체일 수 있다. 일 예로, 꽃, 나무 등과 같은 식물을 포함할 수 있다. 뿐만 아니라, 주행 공간 내에서 고정된 위치에서 식별 가능한 동물을 포함할 수도 있다. 일 예로, 수족관 내 물고기, 거북이 등이 정적 반려 객체에 해당할 수 있다. 즉, 정적 반려 객체의 경우 주행 공간 내에서의 위치가 일정하게 유지될 수 있다.
동적 반려 객체는 주행 공간 내에서 위치가 변경 가능한 반려 객체(200)로, 강아지, 고양이 등과 같은 동물을 포함할 수 있다.
정적 반려 객체의 위치는 맵 데이터 상에 기 설정될 수 있다. 이에 따라, 하나 이상의 프로세서(140)는 맵 데이터 상에 반려 객체(200)의 위치가 기 설정 되었는지에 따라 반려 객체(200)의 유형을 식별할 수도 있다.
일 예로, 하나 이상의 프로세서(140)는 맵 데이터 상에 반려 객체(200)의 위치가 기 설정되었으면, 반려 객체(200)의 유형을 정적 반려 객체로 식별할 수 있다. 반면에, 프로세서는 맵 데이터 상에 반려 객체(200)의 위치가 기 설정 되어있지 않으면, 반려 객체(200)의 유형을 동적 반려 객체로 식별할 수도 있다.
다만, 이에 제한되는 것은 아니다. 동적 반려 객체의 경우에도 동적 반려 객체가 자주 발견되는 적어도 하나의 위치가 맵 데이터 상에 기 설정될 수도 있다. 이 경우, 하나 이상의 프로세서(140)는 맵 데이터 상에 기 설정된 위치의 개수에 따라 반려 객체(200)의 유형을 식별할 수 있다. 일 예로, 정적 반려 객체의 경우 맵 데이터 상에 기 설정된 위치가 하나라면, 동적 반려 객체의 경우 맵 데이터 상에 기 설정된 위치가 복수 개일 수 있다.
하나 이상의 프로세서(140)는 통신 인터페이스(130) 또는 입력 인터페이스(미도시)를 통해 주행 공간 내 존재하는 반려 객체(200)에 관한 정보를 사전에 수신할 수 있다. 반려 객체(200)의 정보는, 반려 객체(200)의 유형, 이름, 나이, 주행 공간 내 반려 객체(200)의 위치 등이 포함될 수 있다. 한편, 반려 객체(200)의 정보는 상술한 바와 같이 메모리(120)에 저장될 수 있다.
또한, 하나 이상의 프로세서(140)는 카메라(110)를 통해 실시간으로 획득된 이미지(10)에 기초하여 반려 객체(200)의 유형을 식별할 수도 있다. 즉, 적어도 하나 이상의 프로세서(140)는 실시간으로 획득된 이미지(10)에 기초하여 반려 객체(200)가 정적 반려 객체인지 또는 동적 반려 객체인지를 식별할 수 있다.
구체적으로, 하나 이상의 프로세서(140)는 카메라(110)를 통해 획득된 이미지(10)에 기초하여 반려 객체(200)의 유형을 식별할 수 있다. 즉, 프로세서는 사용자 명령 또는 기 설정된 조건에 따라 로봇(100)이 위치한 주행 공간을 주행하면서 로봇(100) 주변의 객체에 대한 복수의 이미지(10)를 획득할 수 있다. 이때, 프로세서는 획득된 복수의 이미지(10)를 바탕으로, 이미지(10) 내 객체를 인식하고, 인식된 객체의 유형을 식별할 수 있다.
이때, 복수의 이미지(10) 내에서 객체의 위치가 변경되거나 또는 객체의 움직임이 감지되면 하나 이상의 프로세서(140)는 복수의 이미지(10) 내의 객체를 동적 반려 객체로 식별할 수 있다. 반면에, 복수의 이미지(10) 내에서 객체의 위치가 변경되지 않거나 또는 객체의 움직임이 감지되지 않으면 하나 이상의 프로세서(140)는 복수의 이미지(10) 내의 객체를 정적 반려 객체로 식별할 수 있다
그리고, 하나 이상의 프로세서(140)는 복수의 이미지(10)를 바탕으로 인식된 객체가 반려 객체(200)에 해당하는지 식별하기 위하여, 메모리(120)에 저장된 반려 객체(200)의 식별 정보를 이용할 수 있다. 구체적으로, 하나 이상의 프로세서(140)는 이미지(10) 내 객체에 관한 객체 인식 결과와 반려 객체(200)의 식별 정보에 기초하여, 이미지(10) 내 객체가 반려 객체(200)에 해당하는지 식별할 수 있다.
이와 같이, 적어도 하나의 프로세서(140)는 반려 객체(200)가 정적 반려 객체인지 또는 동적 반려 객체인지를 식별한 후, 반려 객체(200)가 정적 반려 객체인 경우 정적 반려 객체의 위치로 이동하여 정적 반려 객체를 상이한 촬영 각도로 촬영하도록 카메라(110)를 제어한다.
즉, 정적 반려 객체의 경우 위치가 변경되지 않으므로, 하나 이상의 프로세서(140)는 기 설정된 반려 객체(200)의 위치로 로봇(100)이 이동하면 해당 위치에서 반려 객체(200)를 발견할 수 있다. 따라서, 적어도 하나의 프로세서(140)는 정적 반려 객체의 경우, 맵 데이터 상에 설정된 반려 객체(200)의 위치로 로봇(100)이 이동하도록 구동부를 제어할 수 있다.
또는, 하나 이상의 프로세서(140)는 획득된 복수의 이미지(10)를 통해 객체를 식별하고, 식별된 객체가 정적 반려 객체인 것으로 식별되면 식별된 정적 반려 객체를 향해 로봇(100)이 이동하도록 구동부를 제어할 수도 있다. 그리고, 프로세서는 정적 반려 객체의 위치에 기 설정된 거리 이내에 로봇(100)이 위치하면, 카메라(110)를 통해 정적 반려 객체에 대한 복수의 이미지를 획득할 수 있다. 이때, 프로세서는 다양한 촬영 각도에서 정적 반려 객체를 촬영하여, 복수의 이미지를 획득할 수 있다.
한편, 하나 이상의 프로세서(140)는 반려 객체(200)가 동적 반려 객체인 경우 동적 반려 객체를 트랙킹하면서 동적 반려 객체를 촬영하도록 카메라(110)를 제어할 수 있다. 구체적으로, 프로세서는 획득된 복수의 이미지(10)를 통해 객체를 식별하고, 식별된 반려 객체(200)가 동적 반려 객체인 것으로 식별되면 식별된 동적 반려 객체를 트래킹 하도록 구동부를 제어할 수 있다.
일 예로, 프로세서는 동적 반려 객체가 이동하면, 구동부를 제어하여 동적 반려 객체를 트래킹하도록 로봇(100)을 제어한다. 이때, 프로세서는 센서를 통해 로봇(100)과 동적 반려 객체와의 거리가 기 설정된 거리 이상이 되도록 제어할 수 있다. 그리고, 프로세서는 카메라(110)를 제어하여, 동적 반려 객체를 트래킹 하는 동안, 동적 반려 객체에 대한 복수의 이미지(10)를 획득할 수 있다. 한편, 프로세서는 다양한 촬영 각도에서 동적 반려 객체를 촬영하여, 복수의 이미지(10)를 획득할 수 있다.
한편, 본 개시의 일 실시 예에 따라 하나 이상의 프로세서(140)는 반려 객체(200)를 촬영하도록 카메라(110)를 제어한 후, 반려 객체(200)에 관한 이미지(10)를 획득하고, 획득된 반려 객체(200)에 관한 이미지(10)를 메모리(120)에 저장된 복수의 이미지와 비교하여 반려 객체(200)의 이상 증상 발생 여부를 식별할 수 있다.
하나 이상의 프로세서(140)는 카메라(110)를 통해 반려 객체(200)에 관한 이미지를 획득한 후 반려 객체(200)의 이상 증상 발생 여부를 식별한다. 이를 위해, 하나 이상의 프로세서(140)는 메모리(120)에 저장된 반려 객체(200)의 관리 정보를 이용하는데, 이하에서는, 도 3 및 도 4를 참조하면 본 개시의 일 실시 예에 따른 반려 객체(200)에 관한 관리 정보에 대하여 자세히 설명하도록 한다.
도 3은 본 개시의 일 실시 예에 따른, 반려 객체에 대한 관리 정보에 기초하여 반려 객체의 이상 증상을 식별하는 것을 나타낸 예시도이다. 도 4는 본 개시의 일 실시 예에 따른, 메모리에 저장된 복수의 반려 객체에 대한 관리 정보를 나타낸 예시도이다.
메모리(120)에는 반려 객체(200)에 대한 관리 정보가 저장될 수 있다. 이때, 반려 객체(200)에 대한 관리 정보에는 반려 객체(200)에 대하여 획득된 복수의 이미지가 포함될 수 있다. 복수의 이미지는 상이한 시점에 획득된 후 메모리(120)에 저장된 이미지로, 반려 객체(200)에 대하여 누적된 이미지이다. 따라서, 관리 정보는 반려 객체(200)에 대한 히스토리 정보로 지칭될 수도 있다. 도 3을 참조하면, 반려 객체(200)에 대한 관리 정보(20)는 8월 2일에 획득된 복수의 이미지(11), 8월 7일에 획득된 복수의 이미지(12) 및 8월 12일에 획득된 복수의 이미지(13) 등이 포함한다.
한편, 반려 객체(200)에 대한 관리 정보에는, 각각의 이미지가 획득되는 시점에 감지된 반려 객체(200)의 주변 환경 정보가 더 포함될 수 있다. 구체적으로, 하나 이상의 프로세서(140)는 반려 객체(200)에 대한 복수의 이미지가 획득되는 시점마다, 로봇(100)의 센서(도시되지 않음)를 이용하여 반려 객체(200) 주변의 환경 정보를 획득할 수 있다. 반려 객체(200)의 주변의 환경 정보는, 기온, 시간, 습도 등에 관한 정보를 포함한다.
다시 도 3을 참조하면, 반려 객체(200)에 관한 관리 정보(20)에는 복수의 이미지 이외에도 각각의 이미지가 획득된 시점에서의 감지되는 반려 객체(200)의 주변 환경 정보가 더 포함된다. 구체적으로, 8월 2일 14시 25분에 반려 객체(200)에 대한 복수의 이미지(110)를 획득할 때, 하나 이상의 프로세서(140)는 반려 객체(200)의 주변의 환경의 온도가 23°C이고, 습도가 55%인 것으로 식별하였다. 그리고, 하나 이상의 프로세서(140)는 8월 2일 14시 25분에 획득된 복수의 이미지(11)와 반려 객체(200)의 주변의 환경 정보(즉, 온도가 23°C, 습도가 55%)를 매칭하여 메모리(120)에 저장할 수 있다.
이와 같이 관리 정보에는 8월 7일 14시 26분에 반려 객체(200)에 대한 복수의 이미지를 획득하는 시점에 식별된 환경 정보(온도 24°C, 습도 64%)와 8월 12일 14시 26분에 반려 객체(200)에 대한 복수의 이미지를 획득하는 시점에 식별된 환경 정보(온도 22°C, 습도 48%)가 함께 포함될 수 있다.
한편, 메모리(120)에는 복수의 반려 객체(200)에 대한 관리 정보가 저장될 수 있다. 즉, 도 4를 참조하면, 하나 이상의 프로세서(140)는 제1 반려 객체(210)에 대하여 상이한 시점마다 복수의 이미지를 획득한 후 획득된 복수의 이미지를 제1 반려 객체(210)에 대응하는 관리 정보로 메모리(120)에 저장할 수 있다. 또한, 하나 이상의 프로세서(140)는 제2 반려 객체(210)에 대하여 상이한 시점마다 복수의 이미지를 획득한 후 획득된 복수의 이미지를 제2 반려 객체(210)에 대응하는 관리 정보로 메모리(120)에 저장할 수 있다.
이때, 반려 객체(200)의 유형에 따라 관리 정보에 포함되는 환경 정보는 상이할 수 있다. 일 예로, 반려 객체(200)가 동물인 경우에는 하나 이상의 프로세서(140)는 반려 객체(200)의 이미지를 획득할 때마다, 적외선 센서(도시되지 않음)를 이용하여 반려 객체(200)의 체온을 식별하여 체온 정보를 획득하고, 획득된 체온 정보를 반려 객체(200)의 관리 정보에 포함시켜 메모리(120)에 저장할 수 있다. 또한, 반려 객체(200)가 식물인 경우에는 하나 이상의 프로세서(140)는 반려 객체(200)의 이미지를 획득할 때마다, 반려 객체(200)의 색상 정보를 획득하고, 획득된 색상 정보를 반려 객체(200)의 관리 정보에 포함시켜 메모리(120)에 저장할 수 있다.
또한, 반려 객체(200)의 유형에 따라 관리 정보가 업데이트 되는 주기도 상이할 수 있다. 일 예로, 도 4를 참조하면 식물에 해당하는 제1 반려 객체(210)의 경우 5일 주기로 제1 반려 객체(200)에 대한 이미지가 획득되고, 획득된 이미지에 기초하여 관리 정보가 업데이트 된다. 반면에, 동물에 해당하는 제2 반려 객체(220)의 경우 1일 주기로 제2 반려 객체(220)에 대한 이미지가 획득되고, 획득된 이미지에 기초하여 관리 정보가 업데이트 된다. 이와 같이, 반려 객체(200)의 유형에 따라 반려 객체(200)에 대한 이미지가 획득되는 주기가 상이할 수 있으며, 이로 인하여 획득된 이미지에 기초하여 관리 정보가 업 데이트 되는 주기도 상이할 수 있다.
본 개시의 일 실시 예에 따라, 반려 객체(200)가 동물인 경우에는 제1 주기마다 반려 객체(200)에 대한 이미지를 획득한 후 획득된 이미지에 기초하여 반려 객체(200)의 관리 정보를 업 데이트하고, 반려 객체(200)가 식물인 경우에는 제2 주기마다 반려 객체(200)에 대한 이미지를 획득한 후 획득된 이미지에 기초하여 반려 객체(200)의 관리 정보를 업 데이트할 수 있다. 이때, 제1 주기는 제2 주기보다 짧은 시간으로 설정될 수 있다.
한편, 하나 이상의 프로세서(140)는 메모리(120)에 저장된 복수의 관리 정보 중 반려 객체(200)에 대응하는 관리 정보를 식별하고, 식별된 관리 정보에 포함된 반려 객체(200)에 대응하는 복수의 이미지를 추출할 수 있다. 그리고, 하나 이상의 프로세서(140)는 추출된 복수의 이미지와 획득된 이미지를 비교하여, 반려 객체(200)에 이상 증상이 발생하였는지 식별할 수 있다.
그리고, 본 개시의 일 실시 예에 따라, 하나 이상의 프로세서(140)는 반려 객체(200)에 이상 증상이 발생된 것으로 식별되면, 메모리(120)에 저장된 정보에 기초하여 식별된 이상 증상에 대응되는 제어 정보를 식별하고, 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기(300)의 동작을 제어하기 위한 제어 신호를 통신 인터페이스(130)를 통해 적어도 하나의 주변 기기(300)로 전송한다.
구체적으로, 하나 이상의 프로세서(140)는 반려 객체(200)에 발생된 이상 증상의 유형을 식별하고, 식별된 이상 증상의 유형에 대응하는 주변 기기(300)에 관한 제어 정보를 메모리(120)로부터 획득할 수 있다.
그리고, 획득된 제어 정보에 기초하여 하나 이상의 프로세서(140)는 복수의 주변 기기(300) 중 제어 명령어를 전송할 적어도 하나의 주변 기기(300)를 식별하고, 식별된 적어도 하나의 주변 기기(300)에 제어 명령어를 송신할 수 있다.
한편, 하나 이상의 프로세서(140)는 반려 객체(200)에 이상 증상이 발생된 것으로 식별되면, 통신 인터페이스(130)를 통해 사용자 단말 장치(400)로 반려 객체(200)에 이상 증상이 발생되었음을 알리는 정보를 송신할 수 있다.
이때, 하나 이상의 프로세서(140)는 이상 증상의 유형에 주변 기기(300)에 관한 제어 정보를 함께 송신할 수도 있다. 이에 따라, 반려 객체(200)에 이상 증상이 발생되었음을 인지한 사용자가 사용자 단말 장치(400)를 통해 주변 기기(300)에 관한 제어 명령어를 입력하면, 하나 이상의 프로세서(140)는 통신 인터페이스(130)를 통해 입력된 제어 명령어를 수신하고, 통신 인터페이스(130)를 통해 주변 기기(300)에 제어 명령어를 송신할 수 있다.
한편, 하나 이상의 프로세서(140)는 식별된 이상 증상의 유형에 대응하는 주변 기기(300)에 관한 정보가 없는 것으로 식별되면, 통신 인터페이스(130)를 통해 사용자 단말 장치(400)로 반려 객체(200)에 이상 증상이 발생되었음을 알리는 정보 만을 송신할 수 있다. 이에 따라, 본 개시의 로봇(100)은 사용자가 직접 반려 객체(200)에 대한 신속한 조치를 취할 수 있도록 한다.
도 5는 본 개시의 일 실시 예에 따른, 서로 다른 시점에 획득된 이미지에 기초하여 반려 객체의 이상 증상을 식별하는 것을 나타낸 예시도이다.
본 개시의 일 실시 예에 따라, 하나 이상의 프로세서(140)는 제1 시점에서 카메라(110)를 통해 획득된 반려 객체(200)의 제1 이미지를 복수의 이미지와 비교하여 제1 비교 결과를 획득할 수 있다. 이때, 하나 이상의 프로세서(140)는 획득된 제1 비교 결과를 메모리(120)에 저장한 후 제1 시점 이후인 제2 시점에서 카메라(110)를 통해 획득된 반려 객체(200)의 제2 이미지를 복수의 이미지와 비교하여 제2 비교 결과를 획득할 수 있다. 그리고, 하나 이상의 프로세서(140)는 획득된 제2 비교 결과와 메모리(120)에 저장된 제1 비교 결과에 기초하여 반려 객체(200)의 이상 증상 발생 여부를 식별할 수 있다.
구체적으로, 하나 이상의 프로세서(140)는 서로 다른 시점에 획득된 이미지와 반려 객체(200)의 관리 정보와 비교하여 각각의 이미지에 대한 비교 결과를 획득할 수 있다. 즉, 하나 이상의 프로세서(140)는 제1 시점에 획득된 제1 이미지와 반려 객체(200)의 관리 정보에 포함된 복수의 이미지를 비교하여 제1 비교 결과(31)를 획득할 수 있다. 그리고 하나 이상의 프로세서(140)는 제2 시점에 획득된 제2 이미지와 반려 객체(200)의 관리 정보에 포함된 복수의 이미지를 비교하여 제2 비교 결과(32)를 획득할 수 있다. 이때, 제1 시점과 제2 시점은 서로 다른 시점에 해당한다.
이때, 하나 이상의 프로세서(140)는 제1 비교 결과와 제2 비교 결과에 기초하여, 반려 객체(200)의 이상 증상의 경과를 식별할 수 있다. 일 예로, 도 5를 참조하면, 하나 이상의 프로세서(140)는 2022년 8월 17일(제1 시점)에 반려 객체(200)에 대한 복수의 이미지(제1 이미지)(10)를 획득하고, 획득된 복수의 이미지(제1 이미지)(10)와 반려 객체(200)의 관리 정보(20)에 포함된 복수의 이미지(11, 12, 및 13)를 비교하여 반려 객체(200)의 이상 증상의 발생 여부를 식별할 수 있다. 이때, 하나 이상의 프로세서(140)는 2022년 8월 17일(제1 시점)에 반려 객체(200)에 대한 복수의 이미지(제1 이미지)(10) 를 바탕으로, 반려 객체(200)에서 관찰되는 이상 변화의 영역이 20%인 것(제1 비교 결과(31))으로 식별하였다. 이에 따라, 2022년 8월 17일(제1 시점)에 하나 이상의 프로세서(140)는 반려 객체(200)에 대한 이상 증상이 발생한 것으로 식별할 수 있다. 이때, 하나 이상의 프로세서(140)는 통신 인터페이스(130)를 통해 이상 증상에 대응하는 적어도 하나의 외부 장치에 대한 제어 신호를 적어도 하나의 외부 장치에 송신하거나 또는, 사용자 단말 장치(400)로 반려 객체(200)의 이상 증상 발생을 알리는 정보를 송신할 수 있다.
이후, 하나 이상의 프로세서(140)는 2022년 8월 22일(제2 시점)에 반려 객체(200)에 대한 복수의 이미지(제2 이미지)(14)를 획득하고, 획득된 복수의 이미지(제2 이미지)(14)와 반려 객체(200)의 관리 정보에 포함된 복수의 이미지(11, 12, 및 13)를 비교하여 반려 객체(200)의 이상 증상의 발생 여부를 식별할 수 있다. 이때, 하나 이상의 프로세서(140)는 2022년 8월 22일(제2 시점)에 반려 객체(200)에 대한 복수의 이미지(제2 이미지)(14)를 바탕으로, 반려 객체(200)에서 관찰되는 이상 변화의 영역이 10%인 것(제2 비교 결과(32))으로 식별하였다. 이때, 하나 이상의 프로세서(140)는 2022년 8월 22일(제2 시점)에 획득한 제1 비교 결과(31)와 제2 비교 결과(32)에 기초하여, 반려 객체(200)에서 관찰되는 이상 변화의 영역이 감소된 것으로 식별할 수 있다. 이에 따라, 2022년 8월 22일(제2 시점)에 하나 이상의 프로세서(140)는 반려 객체(200)의 이상 증상이 감소하는 것으로 식별할 수 있다. 따라서, 2022년 8월 17일(제1 시점)과 달리 2022년 8월 22일(제2 시점)에서는 하나 이상의 프로세서(140)는 통신 인터페이스(130)를 통해 적어도 하나의 외부 장치에 제어 신호를 송신하지 않을 수 있다.
이처럼, 하나 이상의 프로세서(140)는 서로 다른 시점에 획득된 이미지에 기초하여 반려 객체(200)의 이상 증상의 발생 여부를 반복하여 식별한다. 뿐만 아니라, 하나 이상의 프로세서(140)는 반려 객체(200)의 이상 증상의 발생 여부를 식별하는 기준이 되었던 비교 결과 까지도 반려 객체(200)의 관리 정보에 누적하여 저장하고, 저장된 비교 결과에 기초하여 발생된 이상 증상의 경과까지도 함께 관찰함으로써 반려 객체(200)의 이상 증상을 보다 명확히 판단할 수 있다.
한편, 본 개시의 일 실시 예에 따라, 하나 이상의 프로세서(140)는, 제2 시점에서 반려 객체(200)의 제2 이미지가 획득되면, 제2 이미지를 복수의 이미지 중 제2 시점을 기준으로 기 설정된 시간 이내에 획득된 적어도 하나의 이미지와 비교하여 제2 비교 결과를 획득할 수 있다.
구체적으로, 하나 이상의 프로세서(140)는 카메라(110)를 통해 반려 객체(200)에 대한 이미지를 획득하면, 이미지를 획득한 시점으로부터 기 설정된 시간 이내에 획득된 후 메모리(120)에 저장된 적어도 하나의 이미지와 비교하여 반려 객체(200)의 이상 증상의 발생 여부를 식별할 수 있다. 즉, 하나 이상의 프로세서(140)는 관리 정보에 포함된 복수의 이미지 중 기 설정된 시간 이내에 획득된 적어도 하나의 이미지만을 선별하고, 선별된 적어도 하나의 이미지와 실시간으로 획득된 이미지를 비교하여, 반려 객체(200)의 이상 증상의 발생 여부를 식별한다.
다시 도 5를 참조하면, 기 설정된 시간이 일 주일이라고 가정한다면 하나 이상의 프로세서(140)는 관리 정보에 포함된 복수의 이미지(11, 12 및 13) 중 2022년 8월 12일에 획득된 복수의 이미지(13)와 2022년 8월 17일에 획득된 복수의 이미지(10)를 비교하여 반려 객체(200)의 이상 증상의 발생 여부를 식별할 수 있다.
한편, 도면에 명확히 도시되지는 않았지만 하나 이상의 프로세서(140)는 2022년 8월 17일에 획득된 복수의 이미지(10)를 반려 객체(200)의 관리 정보에 포함시켜 반려 객체(200)의 관리 정보를 업 데이트하고, 업 데이트 된 관리 정보를 메모리(120)에 저장할 수 있다. 이에 따라, 하나 이상의 프로세서(140)는 2022년 8월 22일에 획득된 복수의 이미지(10)를 2022년 8월 17일에 획득된 복수의 이미지를 포함하는 반려 객체(200)의 관리 정보와 비교할 수 있다.
도 6은 본 개시의 일 실시 예에 다른, 반려 객체의 이상 증상의 발생 여부를 식별하는 것을 나타낸 예시도이다.
이하에서는, 도 6을 참조하여 반려 객체가 식물인 경우 반려 객체의 이상 증상이 발생 여부를 식별하는 본 개시의 실시 예에 대하여 설명하도록 한다.
도 6을 참조하면, 하나 이상의 프로세서(140)는 반려 객체(200)에서 관찰되는 이상 변화 영역의 크기에 기초하여 반려 객체의 이상 증상의 발생 여부를 식별할 수 있다. 여기서, 이상 변화 영역은 변색, 반점 등이 발생하는 영역일 수 있다.
구체적으로, 하나 이상의 프로세서(140)는 8월 17일에 획득된 이미지에 기초하여, 반려 객체(200)에서 이상 변화 영역이 관찰되는 것으로 식별할 수 있다. 이에 따라, 하나 이상의 프로세서(140)는 8월 17일에 반려 객체(200)에서 이상 증상이 발생한 것으로 예측할 수 있다. 다만, 반려 객체(200)에서 관찰되는 이상 변화 영역의 크기의 비율이 기 설정된 크기의 비율(40%)보다 작으므로, 하나 이상의 프로세서(200)는 반려 객체(200)에 이상 증상이 발생한 것으로 확정하는 것을 유보할 수 있다.
이후, 하나 이상의 프로세서(140) 8월 22일에 획득된 이미지에 기초하여, 반려 객체(200)에서 관찰되는 이상 변화 영역의 크기 비율이 30%로 증가하였고, 8월 27일에 획득된 이미지에 기초하여, 반려 객체(200)에서 관찰되는 이상 변화 영역의 크기 비율이 기 설정된 크기 비율인 40%에 도달한 것으로 식별할 수 있다. 이에 따라, 하나 이상의 프로세서(140)는 반려 객체(200)에 이상 증상이 발생한 것으로 확정적으로 식별하고, 통신 인터페이스(130)를 통해 이상 증상에 대응하는 주변 기기에 제어 명령을 송신할 수 있다.
한편, 본 개시의 일 실시 예에 따라서, 하나 이상의 프로세서(140)는 반려 객체(200)에서 관찰되는 반점의 개수에 기초하여 반려 객체의 이상 증상의 발생 여부를 식별할 수 있다. 구체적으로, 하나 이상의 프로세서(140)는 반려 객체(200)에서 관찰되는 반점의 개수가 기 설정된 개수 이상이면, 반려 객체(200)에 이상 증상이 발생한 것으로 확정하여 식별할 수 있다.
도 7은 본 개시의 일 실시 예에 따른 반려 객체의 이상 증상 발생이 감지됨에 따라 기준 이미지를 설정하고, 설정된 기준 이미지에 기초하여 반려 객체의 이상 증상 발생 여부를 식별하는 것을 나타낸 예시도이다.
한편, 본 개시의 일 실시 예에 따라 하나 이상의 프로세서(140)는, 카메라(110)를 통해 획득된 이미지에 기초하여 반려 객체(200)에 이상 증상 발생이 감지되면, 획득된 이미지를 이상 증상과 관련된 기준 이미지로 메모리(120)에 저장하여 반려 객체(200)에 대한 관리 정보를 업데이트 할 수 있다. 그리고, 하나 이상의 프로세서(140)는 로봇(100)이 주행하는 동안 카메라(110)를 통해 반려 객체(200)의 이미지가 획득되면, 획득된 이미지를 기준 이미지와 비교하여 반려 객체(200)의 이상 증상 발생 여부를 식별할 수 있다.
구체적으로, 하나 이상의 프로세서(140)는 획득된 이미지에 기초하여 반려 객체(200)에 이상 증상이 발생한 것으로 감지되면, 하나 이상의 프로세서(140)는 획득된 이미지를 반려 객체(200)의 관리 정보에 추가하여 관리 정보를 업 데이트할 수 있다. 이때, 하나 이상의 프로세서(140)는, 업 데이트 된 관리 정보에 포함된 복수의 이미지 중 새롭게 추가된 이미지를 기준 이미지로 설정할 수 있다. 그리고, 하나 이상의 프로세서(140)는 이후 반려 객체(200)에 대하여 획득되는 복수의 이미지에 대해서는 관리 정보에 포함된 복수의 이미지 중 기준 이미지와 비교하여 반려 객체(200)의 이상 증상을 식별할 수 있다.
한편, 반려 객체(200)의 이상 증상이 발생한 것으로 감지되는 것은 반려 객체(200)의 이상 증상이 최초 관찰되는 것을 의미할 수 있다. 즉, 정상인 것으로 식별되던 반려 객체(200)에서 최초로 이상 증상이 발생되면, 하나 이상의 프로세서(140)는 이상 증상이 최초로 관찰된 이미지를 기준 이미지로 설정할 수 있다.
도 7을 참조하면, 하나 이상의 프로세서(140)는 2022년 8월 17일에 획득된 복수의 이미지(10)에 기초하여, 반려 객체(200)의 이상 증상의 발생을 감지하였다. 이에 따라, 하나 이상의 프로세서(140)는 2022년 8월 17일에 획득된 복수의 이미지(10)를 반려 객체(200)의 관리 정보에 추가하여 관리 정보를 업 데이트할 수 있다. 그리고, 하나 이상의 프로세서(140)는 추가된 2022년 8월 17일에 획득된 복수의 이미지(10)를 기준 이미지로 설정할 수 있다. 이후, 하나 이상의 프로세서(140)는 2022년 8월 22일에 반려 객체(200)에 대하여 복수의 이미지를 획득한 후 획득된 복수의 이미지를 기준 이미지와 비교하여 반려 객체(200)의 이상 증상의 경과를 관찰할 수 있다.
한편, 상술한 바와 같이 본 개시의 일 실시 예에 따라, 메모리(120)에는, 반려 객체(200)의 각각의 이상 증상에 대응하는 제어 정보가 저장될 수 있다. 여기서, 제어 정보는 이상 증상에 따라 제어되는 주변 기기(300)의 종류, 주변 기기(300)에 대한 명령어 등이 포함될 수 있다. 일 예로, 반려 객체(200)의 이상 증상과 관련하여, 제1 타입 이상 증상에 대응되는 제1 제어 정보와 제2 타입 이상 증상에 대응되는 제2 제어 정보가 메모리(120)에 저장될 수 있다.
보다 구체적으로, 반려 객체(200)가 식물인 경우 반려 객체(200)의 이상 증상 중 변색에 해당하는 복수의 제어 정보가 메모리(120)에 저장될 수 있다. 보다 구체적으로, 식물의 변색이 갈색인 경우 반려 객체(200)가 위치한 주행 공간의 습도를 높이도록 주변 기기(300)(예를 들어, 제습기 등)를 제어하는 제어 정보가 메모리(120)에 저장될 수 있다. 식물의 변색이 초록색인 경우 반려 객체(200)가 위치한 주행 공간의 조명의 밝기를 높이도록 주변 기기(300)(예를 들어, 조명 장치 등)를 제어하는 제어 정보가 메모리(120)에 저장될 수 있다.
이와 같이, 메모리(120)에는 반려 객체(200)의 유형에 따라 또는 반려 객체(200)의 이상 증상에 따라 제어될 수 있는 주변 기기(300)에 관한 제어 정보가 저장될 수 있다.
한편, 본 개시의 일 실시 예에 따라 하나 이상의 프로세서(140)는 반려 객체(200)에 대하여 획득한 복수의 이미지와 반려 객체(200)에 대응하는 관리 정보를 비교하여, 반려 객체(200)의 이상 증상의 발생 여부를 식별할 뿐만 아니라, 하나 이상의 프로세서(140)는 발생된 이상 증상의 유형 또한 식별할 수 있다. 그리고, 프로세서는 반려 객체(200)의 유형에 대응하고, 반려 객체(200)의 이상 증상의 유형에 대응하는 제어 정보를 메모리(120)로부터 획득할 수 있다.
도 8은, 본 개시의 일 실시 예에 따른 반려 객체의 이상 증상의 유형에 따라 주변 기기에 제어 명령어를 송신하는 것을 나타낸 예시도이다.
일 예로, 도 8을 참조하면 하나 이상의 프로세서(140)는 제1 비교 결과와 제2 비교 결과에 기초하여 반려 객체(200)의 이상 증상이 제1 타입 이상 증상인 것으로 식별되면, 제1 타입 이상 증상에 대응되는 제1 제어 정보에 기초하여 로봇(100)의 복수의 주변 기기(300) 중 에어컨의 동작을 제어하기 위한 제1 제어 신호를 통신 인터페이스(130)를 통해 에어컨으로 전송할 수 있다.
그리고, 하나 이상의 프로세서(140)는 제1 비교 결과 및 제2 비교 결과에 기초하여 반려 객체(200)의 이상 증상이 제2 타입 이상 증상인 것으로 식별되면, 제2 타입 이상 증상에 대응되는 제2 제어 정보에 기초하여 로봇(100)의 복수의 주변 기기(300) 중 조명 장치의 동작을 제어하기 위한 제2 제어 신호를 통신 인터페이스(130)를 통해 적어도 하나의 주변 기기(300)로 전송할 수 있다.
또한, 하나 이상의 프로세서(140)는 제1 비교 결과 및 제2 비교 결과에 기초하여 반려 객체(200)의 이상 증상이 제3 타입 이상 증상인 것으로 식별되면, 제3 타입 이상 증상에 대응되는 제3 제어 정보에 기초하여 로봇(100)의 복수의 주변 기기(300) 중 에어컨과 가습기의 동작을 제어하기 위한 제3 제어 신호를 통신 인터페이스(130)를 통해 에어컨과 가습기로 전송할 수 있다.
도 9는 본 개시의 일 실시 예에 따른, 사용자 단말 장치에 반려 객체에 대한 관리 정보를 송신하고, 사용자 단말 장치로부터 주변 기기에 대한 제어 명령어를 수신하는 것을 나타낸 예시도이다. 도 10은 본 개시의 일 실시 예에 따른 이상 증상에 대응하는 주변 기기에 대한 정보를 나타낸 예시도이다.
한편, 본 개시의 일 실시 예에 따라, 하나 이상의 프로세서(140)는, 식별된 이상 증상에 대응되는 제어 정보가 식별되면, 반려 객체(200)의 이상 증상에 대한 정보 및 식별된 제어 정보를 전송하도록 통신 인터페이스(130)를 통해 사용자 단말 장치(400)로 전송하고, 사용자 단말 장치(400)로부터 제어 정보에 대응되는 사용자 명령이 수신되면, 제어 신호를 통신 인터페이스(130)를 통해 적어도 하나의 주변 기기(300)로 전송할 수 있다.
구체적으로, 하나 이상의 프로세서(140)는 반려 객체(200)에 대하여 이미지를 획득할 때마다, 획득된 이미지를 통신 인터페이스(130)를 통해 사용자에게 송신할 수 있다. 이에 따라, 도 9를 참조하면, 사용자 단말 장치(400)에는 하나 이상의 프로세서(140)에 의해 획득된 반려 객체(200)에 대한 복수의 이미지가 표시될 수 있다. 이를 통해, 사용자는 반려 객체(200)와 분리된 공간에서도 반려 객체(200)를 모니터링할 수 있다.
한편, 하나 이상의 프로세서(140)는 반려 객체(200)에 대한 복수의 이미지 중, 반려 객체(200)에 대한 이상 증상이 발생된 것으로 식별된 이미지에 대해서는 별도의 UI를 표시할 수 있다. 즉, 도 9를 참조하면, 하나 이상의 프로세서(140)는 반려 객체(200)에 이상 증상이 발생된 것으로 식별된 8월 12일에 획득된 이미지에는 사용자가 반려 객체(200)에 이상 증상이 발생한 것을 인지할 수 있도록 UI를 함께 표시하여 사용자 단말 장치(400)로 송신할 수 있다.
한편, 하나 이상의 프로세서(140)는 통신 인터페이스(130)를 통해 반려 객체(200)의 이상 증상과 관련된 로봇(100)의 주변 기기(300)의 제어 정보를 사용자 단말 장치(400)에 송신할 수도 있다. 그리고, 통신 인터페이스(130)를 통해 사용자 단말 장치(400)로부터 제어 정보에 대응하는 사용자 명령을 수신하면, 수신된 사용자 명령에 기초하여 주변 기기(300)를 제어할 수 있다. 다시 도 9를 참조하면, 하나 이상의 프로세서(140)는 반려 객체(200)에 대한 이상 증상이 발생된 것으로 식별됨에 따라, 사용자 단말 장치(400)에 주변 기기(300)를 제어할 것을 요청하는 메시지를 송신할 수 있다. 송신된 메시지는 사용자 단말 장치(400) 상에 표시되는 메신저 UI 상에 표시될 수 있다. 그리고, 사용자가 주변 기기(300)를 제어하도록 하는 메시지를 입력하면, 하나 이상의 프로세서(140)는 입력된 메시지에 대응하는 제어 명령을 주변 기기(300)로 송신할 수 있다. 즉, 하나 이상의 프로세서(140)는 에어컨을 OFF시킬 것을 요청하는 사용자의 메시지에 기초하여, 에어컨을 OFF시키는 제어 명령을 에어컨으로 송신할 수 있다.
한편, 도 10을 참조하면 본 개시의 일 실시 예에 따라 하나 이상의 프로세서(140)는 메모리(120)에 저장된 반려 객체의 이상 증상에 관한 테이블을 이용하여 반려 객체의 이상 증상의 원인을 식별하고, 식별된 원인에 기초하여 주변 기기에 제어 명령을 송신할 수 있다. 일 예로, 획득된 이미지(10)에 기초하여 반려 객체가 갈색으로 변색된 것으로 식별되면, 하나 이상의 프로세서(140)는 반려 객체에 이상 증상이 발생한 것으로 식별할 수 있다. 그리고, 하나 이상의 프로세서(140)는 식별된 이상 증상에 대응하는 주변 기기로 제습기 및/또는 가습기를 식별하고 식별된 주변 기기에 통신 인터페이스(130)를 통해 제어 명령을 송신할 수 있다.
한편, 하나의 이상의 프로세서는 로봇(100)이 주행하는 동안 기 설정된 시간 주기 마다 반려 객체(200)를 촬영하여 반려 객체(200)에 대한 복수의 이미지를 획득할 수 있다. 이때, 본 개시의 일 실시 예에 따라 하나 이상의 프로세서(140)는 반려 객체(200)에 이상 증상이 발생된 것으로 감지되면 기 설정된 시간 주기를 조정할 수 있다. 즉, 하나 이상의 프로세서(140)는 반려 객체(200)에 대한 이미지를 획득하는 시간 주기를 보다 짧은 시간으로 변경할 수 있다. 일 예로, 기존에는 하나 이상의 프로세서(140)가 4시간 마다(1 시간 주기) 반려 객체(200)를 촬영하여 복수의 이미지를 획득하였다고 가정한다. 이때, 카메라(110)를 획득된 이미지를 통해 반려 객체(200)에 이상 증상 발생이 감지되면, 하나 이상의 프로세서(140)는 1시간 마다(제2 시간 주기) 반려 객체(200)를 촬영하여 복수의 이미지를 획득할 수 있다.
또한, 본 개시의 일 실시 예에 따라, 하나 이상의 프로세서(140)는, 반려 객체(200)에 이상 증상이 발생된 것으로 식별되면, 로봇(100)의 센서를 통해 획득된 데이터에 기초하여 주행 공간의 환경 정보를 식별할 수 있다. 이때, 하나 이상의 프로세서(140)는 식별된 주행 공간의 환경 정보 및 복수의 이미지 각각이 획득된 시점에 대응되는 환경 정보에 기초하여 반려 객체(200)의 이상 증상이 환경 정보에 관련된 것인지 식별하고, 반려 객체(200)의 이상 증상이 환경 정보에 관련된 것으로 식별되면, 주변 기기(300)에 대한 제어 정보에 기초하여 적어도 하나의 주변 기기(300)의 동작을 제어하기 위한 제어 신호를 통신 인터페이스(130)를 통해 적어도 하나의 주변 기기(300)로 전송할 수 있다.
구체적으로, 하나 이상의 프로세서(140)는 반려 객체(200)에서 발생한 이상 증상에 대응하는 주변 기기(300)에 대한 제어 정보가 존재하지 않는 경우, 반려 객체(200)의 주변 환경 정보에 기초하여 이상 증상의 원인을 분석할 수 있다. 이때, 하나 이상의 프로세서(140)는 반려 객체(200)에 이상 증상이 발생된 것으로 식별된 시점에서 반려 객체(200) 주변의 환경 정보와 관리 정보에 기초하여 반려 객체(200)의 정상 상태에서의 주변의 환경 정보를 비교하고, 비교 결과에 기초하여 이상 증상의 원인과 관련된 환경 요인을 식별할 수 있다. 그리고, 하나 이상의 프로세서(140)는 식별된 환경 요인을 적절하게 변경하기 위하여, 메모리에 저장된 주변 기기(300)에 대한 제어 정보를 이용할 수 있다. 구체적으로, 메모리에 저장된 주변 기기(300)에 대한 제어 정보에 기초하여 하나 이상의 프로세서(140)는 식별된 환경 요인을 적절하게 변경하는 주변 기기(300)의 종류를 식별하고, 통신 인터페이스(130)를 통해 식별된 주변 기기(300)에 제어 명령을 송신할 수 있다.
도 11은 본 개시의 일 실시 예에 따른, 로봇의 세부적인 구성도이다.
도 11을 참조하면, 본 개시의 로봇(100)은 카메라(110), 메모리(120), 통신 인터페이스(130), 센서(150), 구동부(160), 디스플레이(170), 스피커(180), 마이크(190) 및 하나 이상의 프로세서(140)를 포함한다. 도 10에 도시된 구성 중 도 2에 도시된 구성과 중복되는 구성에 대해서는 자세한 설명을 생략하도록 한다
센서는 로봇(100) 주변의 객체를 감지하기 위해 이용되는 장치이다. 일 예로, 센서는 라이다 센서, ToF 센서 등으로 구현될 수 있다. 하나의 프로세서는 센서를 통해 로봇(100) 주변의 객체에 대한 센싱 정보(예를 들어, 객체에 대응하는 포인트 클라우드 정보 등)를 바탕으로 객체를 식별할 수 있다. 또는 센서를 통해 로봇(100) 주변의 객체가 감지되면, 하나 이상의 프로세서(140)는 카메라(110)를 통해 감지된 객체에 대한 적어도 하나의 이미지를 획득하고, 획득된 이미지에 기초하여 객체를 식별할 수 있다. 이와 같이, 식별된 객체가 반려 객체(200)인 것으로 식별되면, 하나 이상의 프로세서(140)는 카메라(110)를 통해 반려 객체(200)로 식별된 객체에 대한 복수의 이미지를 획득하고, 획득된 복수의 이미지와 관리 정보에 기초하여 반려 객체(200)의 이상 증상 발생 여부를 식별한다. 이에 관해서는 자세한 설명은 생략하도록 한다.
한편, 센서는 반려 객체(200)의 주변의 환경(온도, 습도, 조도 등)에 관한 정보를 획득할 수도 있다. 일 예로, 센서는 온/습도 센서, 조도 센서 또는 UV(ultra violet) 센서 중의 적어도 하나를 더 포함할 수도 있다. 이에 따라, 하나 이상의 프로세서(140)는 반려 객체(200)에 대한 이미지를 획득할 때마다, 센서를 통해 반려 객체(200) 주변의 환경에 대한 정보를 함께 획득할 수 있다.
구동부(160)는 로봇(100)을 주행 시킬 수 있는 장치이다. 구동부(160)는 프로세서(140)의 제어에 따라 주행 방향 및 주행 속도를 조절할 수 있다. 일 예에 따른 구동부(160)는 로봇(100)이 주행하기 위한 동력을 발생시키는 동력 발생 장치(예: 사용 연료(또는 에너지원)에 따라 가솔린 엔진(engine), 디젤 엔진, LPG(liquefied petroleum gas) 엔진, 전기 모터 등), 주행 방향을 조절하기 위한 조향 장치(예: 기계식 스티어링(manual steering), 유압식 스티어링(hydraulics steering), 전자식 스티어링(electronic control power steering; EPS) 등)를 포함할 수 있다.
디스플레이(140)는 다양한 시각 정보를 표시할 수 있다. 일 예로, 디스플레이(140)는 맵 데이터, 로봇(100)의 주행 경로, 반려 객체(200) 등에 관한 정보를 표시할 수 있다.
이를 위해, 디스플레이(170)는 자발광 소자를 포함하는 디스플레이 또는, 비자발광 소자 및 백라이트를 포함하는 디스플레이로 구현될 수 있다. 예를 들어, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, LED(Light Emitting Diodes), 마이크로 LED(micro LED), Mini LED, PDP(Plasma Display Panel), QD(Quantum dot) 디스플레이, QLED(Quantum dot light-emitting diodes) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다.
디스플레이(170) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(170)는 터치 센서 또는 터치 패널과 결합된 터치 스크린, 플렉시블 디스플레이(flexible display), 롤러블 디스플레이(rollable display), 3차원 디스플레이(3D display), 복수의 디스플레이 모듈이 물리적으로 연결된 디스플레이 등으로 구현될 수 있다. 한편, 디스플레이(170)는 터치 센서 또는 터치 패널과 함께 터치스크린을 구성하는 경우, 디스플레이(170)는 로봇(100)과 사용자 사이의 정보를 출력하는 출력부로써 기능함과 동시에, 로봇(100)과 사용자 사이의 입력 인터페이스를 제공하는 입력부로써 기능할 수 있다.
스피커(180)는, 음향 신호를 로봇(100)의 외부로 출력할 수 있다. 스피커(180)는 멀티미디어 재생, 녹음 재생, 각종 알림 음, 음성 메시지 등을 출력할 수 있다. 로봇(100)는 스피커(180)와 같은 오디오 출력 장치를 포함할 수 있으나, 오디오 출력 단자와 같은 출력 장치를 포함할 수 있다. 특히, 스피커(180)는 획득한 정보, 획득한 정보에 기초하여 가공·생산한 정보, 사용자 음성에 대한 응답 결과 또는 동작 결과 등을 음성 형태로 제공할 수 있다
마이크(190)는 로봇(100)의 주변의 음향 신호를 수신할 수 있다. 일 예로, 마이크는 로봇(100)을 제어하는 사용자 음성을 수신할 수 있다. 여기에서, 사용자 음성은 로봇(100)의 반려 객체(200) 관리 모드를 설정하기 위한 음성이 될 수 있다.
마이크(190)를 통해, 특정 기능을 실행시키기 위한 사용자 음성이 수신되면, 하나 이상의 프로세서(140)는 사용자 음성을 STT(Speech to Text) 알고리즘을 통해 디지털 신호로 변환하고, 사용자 음성에 대응되는 응답 정보를 제공할 수 있다.
도 12는 본 개시의 일 실시 예에 따른 반려 객체 관리 로봇의 제어 방법에 관한 개략적인 순서도이다.
도 12를 참조하면, 로봇(100)의 하나 이상의 프로세서(140)는 로봇(100)이 주행하는 동안 반려 객체(200)를 촬영하도록 로봇(100)의 카메라(110)를 제어한다(S1210).
구체적으로, 하나 이상의 프로세서(140)는 주행 공간에 관한 맵 데이터 상에 설정된 반려 객체(200)의 위치로 로봇(100)이 이동하도록 로봇(100)의 구동부를 제어할 수 있다. 그리고, 하나 이상의 프로세서(140)는 기 설정된 반려 객체(200)의 위치에서 센서를 통해 로봇(100) 주변의 객체를 식별할 수 있다. 또는 하나 이상의 프로세서(140)는 센서를 통해 로봇(100) 주변의 객체를 감지하고 카메라(110)를 통해 감지된 객체에 대한 이미지를 획득한 후 획득된 이미지에 기초하여 객체를 식별할 수 있다.
그리고, 하나 이상의 프로세서(140)는 메모리(120)에 저장된 반려 객체(200)의 정보에 기초하여 식별된 객체가 반려 객체(200) 해당하는지 식별할 수 있다. 그리고, 하나 이상의 프로세서(140)는 식별된 객체가 반려 객체(200)인 것으로 식별되면, 반려 객체(200)에 카메라(110)를 이용하여 반려 객체(200)에 대한 복수의 이미지를 획득할 수 있다.
그리고, 하나 이상의 프로세서(140)는 카메라(110)를 통해 획득된 반려 객체(200)의 이미지를 로봇(100)의 메모리(120)에 저장된 반려 객체(200)에 대응하는 관리 정보와 비교하고(S1220), 비교 결과에 기초하여 반려 객체(200)의 이상 증상 발생 여부를 식별할 수 있다(S1230).
여기서, 관리 정보는 상이한 시점에서 획득된 반려 객체(200)에 대한 복수의 이미지를 포함할 수 있다.
이에 따라, 하나 이상의 프로세서(140)는 관리 정보에 포함된 반려 객체(200)에 대한 복수의 이미지와 획득된 반려 객체(200)의 이미지를 비교하고, 비교 결과에 기초하여 반려 객체(200)의 이상 증상의 발생 여부를 식별할 수 있다.
그리고, 하나 이상의 프로세서(140)는 반려 객체(200)에 이상 증상이 발생된 것으로 식별되면, 메모리(120)에 저장된 반려 객체(200)의 이상 증상에 대응되는 적어도 하나의 주변 기기(300)에 대한 제어 정보에 기초하여 식별된 이상 증상에 대응되는 제어 정보를 식별할 수 있다(S1240).
그리고, 하나 이상의 프로세서(140)는 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기(300)의 동작을 제어하기 위한 제어 신호를 로봇(100)의 통신 인터페이스(130)를 통해 적어도 하나의 주변 기기(300)로 전송할 수 있다(S1250).
한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 로봇(100)에 설치 가능한 어플리케이션 형태로 구현될 수 있다. 또는 상술한 본 개시의 다양한 실시 예들에 따른 방법들은 딥 러닝 기반의 학습된 신경망(또는 심층 학습된 신경망) 즉, 학습 네트워크 모델을 이용하여 수행될 수 있다. 또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 로봇(100)에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다. 또한, 상술한 본 개시의 다양한 실시 예들은 로봇(100)에 구비된 임베디드 서버, 또는 로봇(100)의 외부 서버를 통해 수행되는 것도 가능하다.
한편, 본 개시의 일시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치)를 포함할 수 있다. 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 프로세서의 제어 하에 다른 구성 요소들을 이용하여 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
또한, 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
또한, 상술한 다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.

Claims (15)

  1. 로봇에 있어서,
    카메라;
    상이한 시점에서 반려 객체를 촬영한 복수의 이미지를 포함하는 상기 반려 객체에 대한 관리 정보 및 상기 반려 객체의 이상 증상에 대응되는 적어도 하나의 주변 기기에 대한 제어 정보가 저장된 메모리;
    통신 인터페이스; 및
    상기 로봇이 주행하는 동안 상기 반려 객체를 촬영하도록 상기 카메라를 제어하고, 상기 카메라를 통해 획득된 반려 객체의 이미지를 상기 메모리에 저장된 상기 복수의 이미지와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하고, 상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 메모리에 저장된 정보에 기초하여 상기 식별된 이상 증상에 대응되는 제어 정보를 식별하고, 상기 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는 하나 이상의 프로세서;를 포함하는 로봇.
  2. 제1항에 있어서,
    상기 하나 이상의 프로세서는,
    제1 시점에서 상기 카메라를 통해 획득된 반려 객체의 제1 이미지를 상기 복수의 이미지와 비교하여 제1 비교 결과를 획득하여 상기 메모리에 저장하고, 상기 제1 시점 이후인 제2 시점에서 상기 카메라를 통해 획득된 반려 객체의 제2 이미지를 상기 복수의 이미지와 비교하여 제2 비교 결과를 획득하고, 상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상 발생 여부를 식별하는, 로봇.
  3. 제2항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 제2 시점에서 상기 반려 객체의 상기 제2 이미지가 획득되면, 상기 제2 이미지를 상기 복수의 이미지 중 상기 제2 시점을 기준으로 기 설정된 시간 이내에 획득된 적어도 하나의 이미지와 비교하여 상기 제2 비교 결과를 획득하는, 로봇.
  4. 제2항에 있어서,
    상기 메모리는,
    상기 반려 객체의 제1 타입 이상 증상에 대응되는 제1 제어 정보와 상기 반려 객체의 제2 타입 이상 증상에 대응되는 제2 제어 정보를 저장하며,
    상기 하나 이상의 프로세서는,
    상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상이 상기 제1 타입 이상 증상인 것으로 식별되면, 상기 제1 타입 이상 증상에 대응되는 상기 제1 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제1 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하고,
    상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상이 상기 제2 타입 이상 증상인 것으로 식별되면, 상기 제2 타입 이상 증상에 대응되는 상기 제2 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제2 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는, 로봇.
  5. 제1항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 식별된 이상 증상에 대응되는 제어 정보가 식별되면, 상기 반려 객체의 이상 증상에 대한 정보 및 상기 식별된 제어 정보를 전송하도록 상기 통신 인터페이스를 통해 사용자 단말 장치로 전송하고, 상기 사용자 단말 장치로부터 상기 제어 정보에 대응되는 사용자 명령이 수신되면, 상기 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는, 로봇.
  6. 제1항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 로봇이 주행하는 동안 제1 시간 주기로 상기 반려 객체를 촬영하도록 상기 카메라를 제어하고, 상기 카메라를 획득된 이미지를 통해 상기 반려 객체에 이상 증상 발생이 감지되면, 상기 로봇이 주행하는 동안 제2 시간 주기로 상기 반려 객체를 촬영하도록 상기 카메라를 제어하고, 상기 제2 시간 주기는 상기 제1 시간 주기보다 짧은, 로봇.
  7. 제1항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 카메라를 통해 획득된 이미지에 기초하여 상기 반려 객체에 이상 증상 발생이 감지되면, 상기 획득된 이미지를 상기 이상 증상과 관련된 기준 이미지로 상기 메모리에 저장하여 상기 반려 객체에 대한 관리 정보를 업데이트 하고, 상기 로봇이 주행하는 동안 상기 카메라를 통해 상기 반려 객체의 이미지가 획득되면, 상기 획득된 이미지를 상기 기준 이미지와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하는, 로봇.
  8. 제1항에 있어서,
    상기 로봇은
    센서;를 더 포함하며,
    상기 반려 객체에 대한 관리 정보는, 상기 복수의 이미지 각각이 획득된 시점에 대응되는 환경 정보를 포함하며,
    상기 하나 이상의 프로세서는,
    상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 센서를 통해 획득된 데이터에 기초하여 상기 주행 공간의 환경 정보를 식별하고,
    상기 식별된 주행 공간의 환경 정보 및 상기 복수의 이미지 각각이 획득된 시점에 대응되는 환경 정보에 기초하여 상기 반려 객체의 이상 증상이 환경 정보에 관련된 것인지 식별하고,
    상기 반려 객체의 이상 증상이 환경 정보에 관련된 것으로 식별되면, 상기 주변 기기에 대한 제어 정보에 기초하여 상기 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는, 로봇.
  9. 제1항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 반려 객체가 정적 반려 객체인 경우 상기 정적 반려 객체의 위치로 이동하여 상기 정적 반려 객체를 상이한 촬영 각도로 촬영하도록 상기 카메라를 제어하고, 상기 반려 객체가 동적 반려 객체인 경우 상기 동적 반려 객체를 트랙킹하면서 상기 동적 반려 객체를 촬영하도록 상기 카메라를 제어하는, 로봇.
  10. 로봇을 제어하는 방법에 있어서,
    상기 로봇이 주행하는 동안 반려 객체를 촬영하도록 상기 로봇의 카메라를 제어하는 단계;
    상기 카메라를 통해 획득된 반려 객체의 이미지를 상기 로봇의 메모리에 저장된 상기 반려 객체에 대응하는 관리 정보와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하는 단계;
    상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 메모리에 저장된 상기 반려 객체의 이상 증상에 대응되는 적어도 하나의 주변 기기에 대한 제어 정보에 기초하여 상기 식별된 이상 증상에 대응되는 제어 정보를 식별하는 단계; 및
    상기 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 로봇의 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는 단계를 포함하고,
    상기 관리 정보는 상이한 시점에서 반려 객체를 촬영한 복수의 이미지를 포함하는, 방법.
  11. 제10항에 있어서,
    제1 시점에서 상기 카메라를 통해 획득된 반려 객체의 제1 이미지를 상기 복수의 이미지와 비교하여 제1 비교 결과를 획득하여 상기 메모리에 저장하는 단계;
    상기 제1 시점 이후인 제2 시점에서 상기 카메라를 통해 획득된 반려 객체의 제2 이미지를 상기 복수의 이미지와 비교하여 제2 비교 결과를 획득하는 단계; 및
    상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상 여부를 식별하는 단계를 포함하는, 방법.
  12. 제11항에 있어서,
    상기 제2 비교 결과를 획득하는 단계는,
    상기 제2 시점에서 상기 반려 객체의 상기 제2 이미지가 획득되면, 상기 제2 이미지를 상기 복수의 이미지 중 상기 제2 시점을 기준으로 기 설정된 시간 이내에 획득된 적어도 하나의 이미지와 비교하여 상기 제2 비교 결과를 획득하는, 방법.
  13. 제11항에 있어서,
    상기 메모리는,
    상기 반려 객체의 제1 타입 이상 증상과 관련된 복수의 제1 이미지 및 상기 반려 객체의 제2 타입 이상 증상과 관련된 복수의 제2 이미지, 상기 제1 타입 이상 증상에 대응되는 제1 제어 정보 및 상기 제2 타입 이상 증상에 대응되는 제2 제어 정보를 저장하고,
    상기 전송하는 단계는,
    상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상이 상기 제1 타입 이상 증상인 것으로 식별되면, 상기 제1 타입 이상 증상에 대응되는 상기 제1 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제1 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하고,
    상기 제1 비교 결과 및 상기 제2 비교 결과에 기초하여 상기 반려 객체의 이상 증상이 상기 제2 타입 이상 증상인 것으로 식별되면, 상기 제2 타입 이상 증상에 대응되는 상기 제2 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제2 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는, 로봇.
  14. 제10항에 있어서,
    상기 전송하는 단계는,
    상기 식별된 이상 증상에 대응되는 제어 정보가 식별되면, 상기 반려 객체의 이상 증상에 대한 정보 및 상기 식별된 제어 정보를 전송하도록 상기 통신 인터페이스를 통해 사용자 단말 장치로 전송하고,
    상기 방법은,
    상기 통신 인터페이스를 통해 상기 사용자 단말 장치로부터 상기 제어 정보에 대응되는 사용자 명령을 수신하는 단계; 및
    상기 제어 신호를 상기 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는 단계를 더 포함하는, 방법.
  15. 반려 객체를 관리하는 로봇의 프로세서에 의해 수행되는 경우, 상기 프로세서가 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독가능 기록 매체에 있어서, 상기 동작은,
    상기 로봇이 주행하는 동안 상기 반려 객체를 촬영하도록 상기 로봇의 카메라를 제어하는 단계;
    상기 카메라를 통해 획득된 반려 객체의 이미지를 상기 로봇의 메모리에 저장된 상기 반려 객체에 대응하는 관리 정보와 비교하여 상기 반려 객체의 이상 증상 발생 여부를 식별하는 단계;
    상기 반려 객체에 이상 증상이 발생된 것으로 식별되면, 상기 메모리에 저장된 상기 반려 객체의 이상 증상에 대응되는 적어도 하나의 주변 기기에 대한 제어 정보에 기초하여 상기 식별된 이상 증상에 대응되는 제어 정보를 식별하는 단계; 및
    상기 식별된 제어 정보에 기초하여 적어도 하나의 주변 기기의 동작을 제어하기 위한 제어 신호를 상기 로봇의 통신 인터페이스를 통해 상기 적어도 하나의 주변 기기로 전송하는 단계를 포함하고,
    상기 관리 정보는 상이한 시점에서 반려 객체를 촬영한 복수의 이미지를 포함하는, 컴퓨터 판독 가능 기록 매체.
PCT/KR2023/010741 2022-08-25 2023-07-25 반려 객체 관리 로봇 및 그 제어 방법 WO2024043552A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0106820 2022-08-25
KR1020220106820A KR20240029620A (ko) 2022-08-25 2022-08-25 반려 객체 관리 로봇 및 그 제어 방법

Publications (1)

Publication Number Publication Date
WO2024043552A1 true WO2024043552A1 (ko) 2024-02-29

Family

ID=90013630

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/010741 WO2024043552A1 (ko) 2022-08-25 2023-07-25 반려 객체 관리 로봇 및 그 제어 방법

Country Status (2)

Country Link
KR (1) KR20240029620A (ko)
WO (1) WO2024043552A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003000085A (ja) * 2001-06-22 2003-01-07 Aruze Corp ペット監視システム
KR20130049567A (ko) * 2011-11-04 2013-05-14 한국전자통신연구원 작물 관측 장치 및 그 방법
KR20170098621A (ko) * 2016-02-22 2017-08-30 (주)아이오텍 사물인터넷 기반의 반려동물 친구로봇 및 이를 이용한 반려동물 관리시스템
KR20220033752A (ko) * 2020-09-10 2022-03-17 삼성전자주식회사 반려동물의 감정 상태를 표현하는 로봇 및 그 제어 방법
KR20220115641A (ko) * 2021-02-08 2022-08-18 성결대학교 산학협력단 반려동물 모니터링 로봇

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003000085A (ja) * 2001-06-22 2003-01-07 Aruze Corp ペット監視システム
KR20130049567A (ko) * 2011-11-04 2013-05-14 한국전자통신연구원 작물 관측 장치 및 그 방법
KR20170098621A (ko) * 2016-02-22 2017-08-30 (주)아이오텍 사물인터넷 기반의 반려동물 친구로봇 및 이를 이용한 반려동물 관리시스템
KR20220033752A (ko) * 2020-09-10 2022-03-17 삼성전자주식회사 반려동물의 감정 상태를 표현하는 로봇 및 그 제어 방법
KR20220115641A (ko) * 2021-02-08 2022-08-18 성결대학교 산학협력단 반려동물 모니터링 로봇

Also Published As

Publication number Publication date
KR20240029620A (ko) 2024-03-06

Similar Documents

Publication Publication Date Title
WO2019124894A1 (ko) 무인 비행체 및 그의 동작 방법, 그리고 상기 무인 비행체의 이동을 제어하기 위한 무인 운반체
WO2020046038A1 (ko) 로봇 및 그의 제어 방법
WO2017095082A1 (ko) 오디오 제공 방법 및 그 장치
WO2019235776A1 (ko) 이상 개체 판단 장치 및 방법
WO2020017814A1 (ko) 이상 개체 검출 시스템 및 방법
WO2022035054A1 (ko) 로봇 및 이의 제어 방법
WO2019212237A1 (ko) 이상 개체 검출 장치 및 방법
WO2024043552A1 (ko) 반려 객체 관리 로봇 및 그 제어 방법
WO2022131739A1 (ko) 영상 처리 방법 및 이를 지원하는 전자 장치
WO2021049730A1 (ko) 영상 인식 모델을 학습하는 전자 장치 및 그 동작 방법
WO2020262733A1 (ko) 인공지능 기반의 공기조화기
WO2020149493A1 (ko) 전자 장치 및 이의 제어 방법
WO2022098164A1 (ko) 전자 장치 및 전자 장치의 제어 방법
WO2018124473A1 (ko) 이동 로봇 장치 및 그것의 동작 제어 방법
WO2022055117A1 (ko) 전자 장치 및 이의 제어 방법
WO2021071249A1 (en) Electronic apparatus and control method thereof
WO2022250275A1 (ko) 원격 모니터링을 위한 전자 장치 및 이의 동작 방법
WO2024039009A1 (ko) 안전 기능을 수행하는 전자 장치 및 그 제어 방법
WO2021066275A1 (ko) 전자 장치 및 그 제어 방법
WO2020055097A1 (ko) 객체를 인식하는 전자 장치 및 그 전자 장치를 제어하는 방법
WO2024111893A1 (ko) 맵을 이용하여 공간을 주행하는 로봇 및 그의 위치 식별 방법
WO2023043075A1 (ko) 전자 장치 및 이의 제어 방법
WO2023132638A1 (ko) 로봇 및 로봇의 제어 방법
WO2024043516A1 (ko) 특정 공간을 주행하는 로봇 및 이의 제어 방법
WO2020004758A1 (ko) 사용자의 위치에 기반하여 발광 소자를 이용한 시각적 효과를 제공하는 전자 장치 및 그에 관한 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23857588

Country of ref document: EP

Kind code of ref document: A1