WO2022114502A1 - 실내에 위치한 동물의 배설물을 감지하는 로봇 및 그 제어 방법 - Google Patents

실내에 위치한 동물의 배설물을 감지하는 로봇 및 그 제어 방법 Download PDF

Info

Publication number
WO2022114502A1
WO2022114502A1 PCT/KR2021/013559 KR2021013559W WO2022114502A1 WO 2022114502 A1 WO2022114502 A1 WO 2022114502A1 KR 2021013559 W KR2021013559 W KR 2021013559W WO 2022114502 A1 WO2022114502 A1 WO 2022114502A1
Authority
WO
WIPO (PCT)
Prior art keywords
gas
robot
sensor
identified
processor
Prior art date
Application number
PCT/KR2021/013559
Other languages
English (en)
French (fr)
Inventor
김덕환
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2022114502A1 publication Critical patent/WO2022114502A1/ko
Priority to US18/300,012 priority Critical patent/US20230252794A1/en
Priority to US18/134,873 priority patent/US20230249352A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1651Programme controls characterised by the control loop acceleration, rate control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

로봇이 개시된다. 로봇은 가스 포집부, 가스 포집부에 의해 포집된 가스를 센싱하는 가스 센서, 카메라, 구동부 및 프로세서를 포함한다. 프로세서는 가스 센서에 의해 센싱된 가스가 제1 타입 가스인 것으로 식별되면 로봇의 이동 속도가 감소되도록 구동부를 제어하고, 로봇이 감속된 속도로 이동하는 동안 가스 센서에 의해 센싱된 데이터에 기초하여 가스 발생 영역을 식별하고, 식별된 영역을 촬영하도록 카메라를 제어한다.

Description

실내에 위치한 동물의 배설물을 감지하는 로봇 및 그 제어 방법
본 발명은 오염원을 감지하고 오염원에 대응되는 동작을 수행하는 로봇 및 그 제어 방법에 관한 것이다.
최근 가정에서 사용하는 로봇이 상용화되고 있다. 특히 실내 공간을 청소하는 청소 로봇에 관한 기술 개발이 활발하게 이루어지고 있는 실정이다. 기존의 청소 로봇은 동물의 배설물이나 유아가 흘린 음식물과 같은 오염원을 식별하지 못하고 주행함으로써 오히려 실내 공간을 더럽히는 문제점이 있었다. 이에 대해 열화상 카메라를 활용한 오염원 식별 방법이 제안되었으나, 프로세서의 연산량 부담 및 오염원 형태의 다양성에 대응하지 못한 센싱 에러는 해결되지 못한 문제점으로 남아있다.
이에 프로세서에 연산량 부담을 주지 않으면서 오염원을 정확히 식별하고 식별된 오염원에 대응되는 동작을 수행하는 방법에 대한 지속적인 요구가 있었다.
본 개시는 상술한 필요성에 따른 것으로, 본 발명의 목적은 가스를 센싱하여 오염원을 식별하고 오염원에 대응되는 동작을 수행하는 로봇 및 그 제어 방법을 제공함에 있다.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 로봇은, 가스 포집부, 상기 가스 포집부에 의해 포집된 가스를 센싱하는 가스 센서, 카메라, 구동부 및 상기 가스 센서에 의해 센싱된 가스가 제1 타입 가스인 것으로 식별되면, 상기 로봇의 이동 속도가 감소되도록 상기 구동부를 제어하고, 상기 로봇이 감소된 속도로 이동하는 동안 상기 가스 센서에 의해 센싱된 데이터에 기초하여 가스 발생 영역을 식별하고, 상기 식별된 영역을 촬영하도록 상기 카메라를 제어하는 프로세서를 포함할 수 있다.
여기서, 상기 가스 센서는, 상기 제1 타입 가스를 센싱하는 제1 센서 및 상기 제1 타입과 상이한 제2 타입 가스를 센싱하는 제2 센서를 포함하며, 상기 프로세서는, 상기 제1 센서에 의해 상기 제1 타입 가스가 센싱되면, 상기 로봇의 이동 속도가 감소되도록 상기 구동부를 제어하고, 상기 로봇이 감소된 속도로 이동하는 동안 상기 제2 센서에 의해 센싱된 데이터에 기초하여 상기 가스 발생 영역을 식별할 수 있다.
여기서, 상기 제1 타입 가스는, 상기 제2 타입 가스보다 전파 속도가 빠를 수 있다.
또한, 상기 로봇이 주행하는 공간의 맵 데이터가 저장된 메모리를 더 포함하며, 상기 프로세서는, 상기 로봇이 감소된 속도로 이동하는 동안 상기 맵 데이터 상의 제1 위치에서 상기 제2 타입 가스가 감지되면, 상기 로봇이 상기 맵 데이터 상의 제2 위치로 이동하도록 상기 구동부를 제어하고, 상기 제1 위치에서 상기 제2 센서에 의해 획득된 제1 센싱 데이터 및 상기 제2 위치에서 상기 제2 센서에 의해 획득된 제2 센싱 데이터에 기초하여 상기 가스 발생 영역을 식별할 수 있다.
여기서, 상기 프로세서는, 상기 제1 센싱 데이터 및 제2 센싱 데이터에 기초하여 상기 제2 타입 가스의 농도가 임계 수치 이상인 영역을 식별하고, 상기 식별된 영역을 상기 가스 발생 영역으로 식별할 수 있다.
여기서, 상기 프로세서는, 상기 제1 센싱 데이터 및 제2 센싱 데이터에 기초하여 획득된 상기 제2 타입 가스의 농도가 임계 수치 미만이면, 상기 로봇이 상기 맵 데이터 상의 제3 위치로 이동하도록 상기 구동부를 제어하고, 상기 제1 센싱 데이터, 상기 제2 센싱 데이터 및 상기 제3 위치에서 상기 제2 센서에 의해 획득된 제3 센싱 데이터에 기초하여 상기 가스 발생 영역을 식별할 수 있다.
한편, 상기 카메라는, 뎁스 카메라 및 RGB 카메라를 포함하며, 상기 프로세서는, 상기 가스 발생 영역이 식별되면, 상기 뎁스 카메라 및 상기 RGB 카메라 각각에 의해 획득된 이미지에 기초하여 상기 식별된 가스 발생 영역에 대응되는 오염원 존재 확률 분포를 획득하고, 상기 획득된 확률 분포에 기초하여 상기 가스 발생 영역 중 오염원 존재 확률이 임계 수치 이상인 위치에 오염원이 존재하는 것으로 식별할 수 있다.
여기서, 통신 인터페이스를 더 포함하며, 상기 프로세서는, 상기 오염원이 식별되고, 상기 맵 데이터 상의 기 설정된 오브젝트가 위치한 영역이 상기 식별된 가스 발생 영역 내에 포함되는 경우, 상기 오브젝트와 관련된 피드백을 제공하고, 상기 오염원이 식별되고, 상기 맵 데이터 상의 상기 기 설정된 오브젝트가 위치한 영역이 상기 식별된 가스 발생 영역 내에 포함되지 않는 경우, 상기 통신 인터페이스를 통해 외부 장치로 상기 가스 발생 영역과 관련된 정보를 제공하며, 상기 정보는 상기 오염원 관련 정보를 포함할 수 있다.
또한, 상기 프로세서는, 상기 획득된 확률 분포에 기초하여 상기 가스 발생 영역에 오염원이 존재하지 않는 것으로 식별되면 상기 가스 발생 영역을 재식별할 수 있다.
또한, 상기 프로세서는, 상기 로봇이 상기 식별된 오염원을 회피하여 주행하도록 상기 구동부를 제어할 수 있다.
한편, 상기 가스 포집부는, 상기 가스 센서의 전면부로 향하는 깔때기 형태로 구현되며, 상기 가스 포집부의 전면부는 개방형 원 또는 타원 형상이고, 상기 가스 포집부의 후면부는 상기 가스 포집부의 전면부보다 작은 개방형 원 또는 타원 형상일 수 있다.
한편, 본 발명의 일 실시 예에 따른 가스 센서를 포함하는 로봇의 제어 방법은, 가스 포집부에 의해 포집된 가스를 센싱하는 단계, 상기 센싱된 가스가 제1 타입 가스인 것으로 식별되면, 상기 로봇의 이동 속도를 감소시키는 단계, 상기 로봇이 감소된 속도로 이동하는 동안 상기 가스 센서에 의해 센싱된 데이터에 기초하여 가스 발생 영역을 식별하는 단계 및 상기 식별된 영역을 촬영하는 단계를 포함할 수 있다.
여기서, 상기 가스 센서는, 상기 제1 타입 가스를 센싱하는 제1 센서 및 상기 제1 타입과 상이한 제2 타입 가스를 센싱하는 제2 센서를 포함하며, 상기 로봇의 이동 속도를 감소시키는 단계는, 상기 제1 센서에 의해 상기 제1 타입 가스가 센싱되면, 상기 로봇의 이동 속도를 감소시키고, 상기 가스 발생 영역을 식별하는 단계는, 상기 로봇이 감소된 속도로 이동하는 동안 상기 제2 센서에 의해 센싱된 데이터에 기초하여 상기 가스 발생 영역을 식별할 수 있다.
여기서, 상기 제1 타입 가스는, 상기 제2 타입 가스보다 전파 속도가 빠를 수 있다.
또한, 상기 로봇이 감소된 속도로 이동하는 동안 상기 로봇이 주행하는 공간의 맵 데이터 상의 제1 위치에서 상기 제2 타입 가스가 감지되면, 상기 로봇을 상기 맵 데이터 상의 제2 위치로 이동시키는 단계를 더 포함하며, 상기 가스 발생 영역을 식별하는 단계는, 상기 제1 위치에서 상기 제2 센서에 의해 획득된 제1 센싱 데이터 및 상기 제2 위치에서 상기 제2 센서에 의해 획득된 제2 센싱 데이터에 기초하여 상기 가스 발생 영역을 식별할 수 있다.
본 개시의 다양한 실시 예에 따르면, 로봇이 오염원을 정확히 식별하고 이에 대응되는 동작을 수행할 수 있으므로 실내 공간을 더욱 청결하게 유지할 수 있게 된다.
도 1은 실내 공간에 위치하는 오염원을 식별하는 로봇의 동작을 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 로봇의 구성을 설명하기 위한 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 로봇의 감속 주행을 설명하기 위한 도면이다.
도 4는 본 개시의 일 실시 예에 따른 로봇의 가스 발생 영역 촬영 동작을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 로봇의 가스 발생 영역 식별 동작을 구체적으로 설명하기 위한 도면이다.
도 6a 및 6b는 본 개시의 일 실시 예에 따른 로봇의 가스 농도에 기초한 가스 발생 영역 식별 동작을 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 로봇의 오염원 회피 주행을 설명하기 위한 도면이다.
도 8a 및 8b는 본 개시의 일 실시 예에 따른 로봇의 오염원 위치에 따른 상이한 동작을 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 로봇의 기능적 구성을 구체적으로 설명하기 위한 블록도이다.
도 10은 본 개시의 일 실시 예에 따른 제어 방법을 설명하기 위한 흐름도이다.
-
이하에서는 첨부 도면을 참조하여 본 개시를 상세히 설명한다.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
A 또는/및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다.
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
본 개시에서 사용자라는 용어는 로봇을 사용하는 사람을 지칭할 수 있다. 또한, 로봇이 동작하는 특정 공간은 실내 공간인 것을 전제로 로봇의 동작을 설명하도록 한다.
이하 첨부된 도면들을 참조하여 본 개시의 일 실시 예를 보다 상세하게 설명한다.
도 1은 실내 공간에 위치하는 오염원을 식별하는 로봇의 동작을 설명하기 위한 도면이다.
도 1을 참조하면, 본 개시의 일 실시 예에 따른 로봇(100)은 실내 공간을 청소하는 청소 로봇으로 구현될 수 있다. 일 예에 따른 로봇(100)은 하부에 흡입부(미도시)를 구비할 수 있고, 흡입부를 통해 실내 공간에 분포하는 먼지 등을 청소할 수 있다.
일 예에 따른 로봇(100)이 위치하는 실내 공간에는 동물(400)에 의해 발생한 배설물(300)이 위치할 수 있다. 오염원(300)으로부터 서로 다른 타입의 가스가 발생할 수 있는데, 일 타입의 가스를 제1 타입 가스(310), 다른 타입의 가스를 제2 타입 가스(320)라는 용어로 설명하도록 한다.
일 예에 따른 로봇(100)은 실내 공간을 청결하게 유지하기 위하여 배설물(300)을 직접 제거하거나 사용자에게 배설물(300)에 대한 알림을 제공할 필요가 있다. 한편, 일 예에 따른 로봇(100)은 배설물(300)이 배변 패드와 같은 특정 오브젝트 상에 위치하는 경우 동물(400)에게 칭찬을 해주는 동작(이하, 리워드)을 수행할 수도 있다.
일 예에 따른 로봇(100)이 열화상 카메라 또는 이미지 센서를 활용해 오염원(300)을 식별하는 경우 프로세서에 연산량 부담을 줄 수 있으며, 열화상 카메라가 고가이므로 기존의 로봇이 효율적으로 오염원(300)을 식별하는데 어려움이 있었다. 이에 오염원(300)으로부터 발생한 가스를 센싱하여 오염원을 식별하는 방법이 제시되었으나, 오염원(300)으로부터 발생한 가스의 농도가 희박한 경우 센싱이 어렵고, 또한 로봇(100)의 흡입부 또는 주행시 구동부(미도시)에 의해 발생한 난기류로 인해 정확한 센싱이 어렵다는 문제점이 있었다.
본 명세서에서는 상술한 문제점을 해결하기 위해 오염원을 식별하고 그에 대응되는 동작을 수행하는 로봇 및 그 제어 방법에 관하여 설명하도록 한다.
본 개시의 일 실시 예에 따른 로봇(100)은 배설물(300)로부터 상이한 타입의 가스(310, 320)를 각각 센싱하여 배설물(300)을 포함하는 일정 영역(200)을 식별할 수 있다. 본 명세서에서는 해당 영역(200)을 '가스 발생 영역'이라는 용어로 설명하기로 한다. 일 예에 따른 로봇(100)은 식별된 영역 내에서 배설물(300)을 식별할 수 있다.
이에 따라, 이하에서는 로봇이 오염원을 식별하고 그에 대응되는 동작을 수행할 수 있는 다양한 실시 예에 대해 좀더 구체적으로 설명하도록 한다.
도 2는 본 개시의 일 실시 예에 따른 로봇의 구성을 설명하기 위한 블록도이다.
도 2를 참조하여 본 개시의 일 실시 예에 따른 로봇(100)은 가스 포집부(110), 가스 센서(120), 카메라(130), 구동부(140) 및 프로세서(150)를 포함할 수 있다.
가스 포집부(110)는 공기 중에 분포하는 가스 분자를 포집하는 부재이다. 일 예에 따른 가스 포집부(110)는 금속 또는 합성수지로 구현될 수 있으나, 이에 한정되는 것은 아니다. 일 예에 따른 가스 포집부(110)는 본 개시의 일 실시 예에 따른 로봇(100)의 주행에 따라 가스를 포집하기 위해 가스 센서(120)의 전면부로 향하는 깔때기 형태로 구현될 수 있다.
일 예에 따른 가스 포집부(110)를 구성하는 가스 포집용 깔때기의 전면부는 원 또는 타원 형태의 단면을 가지며, 후면부는 전면부의 단면보다 작은 크기의 원 또는 타원 형태의 단면을 갖는 형상일 수 있다. 또한, 가스 포집용 깔때기의 전면부 및 후면부는 개방형 구조를 가짐으로써 전면부에서 후면부로의 공기의 흐름을 형성할 수 있다.
또한, 일 예에 따른 가스 포집용 깔때기의 전면부와 후면부 사이에는 가스 센서(120)가 위치하며, 가스 센서(120)는 가스 포집용 깔때기의 유체역학적 특성에 의해 포집된 가스를 센싱할 수 있다.
본 개시의 일 실시 예에 따른 가스 포집부(110)가 로봇(100)의 하부에 위치하는 경우 로봇(100)에 구비된 흡입부(미도시) 및 구동부(140)에 의해 발생하는 난기류에 의해 가스를 충분히 포집하지 못할 수 있다. 따라서, 일 예에 따른 가스 포집부(110)는 일정한 기준을 충족하는 위치에 구비될 수 있다. 가스 포집부(110)가 로봇(100)의 최하부에 위치하는 경우, 구동부(140)에 의해 발생한 난기류의 영향으로 원활한 가스 포집이 불가능한 문제점이 있다. 따라서, 일 예에 따른 가스 포집부(110)는 지면으로부터 100mm 높이 이상의 위치에 구비될 수 있으며, 난기류의 영향으로부터 자유로운 100mm 높이 이상의 위치 중에서는 최하단인 100mm 높이를 갖는 지점에 설치될 수 있다.
또한, 로봇(100)의 주행에 따라 신속하게 가스를 포집하기 위해 일 예에 따른 가스 포집부(110)는 로봇(100)의 전단에 위치할 수 있다.
가스 센서(120)는 로봇(100)이 주행하는 공간에 분포하는 가스 분자를 센싱할 수 있다. 일 예에 따른 가스 센서(120)는 가스 포집부(110)에 의해 포집된 가스를 센싱하기 위해 가스 포집부(110) 상에 위치할 수 있다. 일 예에 따른 가스 센서(120)는 가스 분자를 센싱하여 센싱된 정보를 전기 신호로 변환하며, 프로세서(150)는 가스 센서(120)로부터 수신된 전기 신호에 기초하여 공간에 분포하는 가스 농도에 관한 정보를 획득할 수 있다.
일 예에 따른 가스 센서(120)는 다양한 타입의 가스를 센싱할 수 있다. 구체적으로, 가스 센서(120)는 오염원(300)으로부터 발생하는 대표적인 가스 분자인 황화 수소(H2S) 및 암모니아(NH3) 분자를 센싱할 수 있다. 일 예에 따른 가스 센서(120)는 단일 타입의 가스를 센싱하는 복수의 센서를 포함하는 모듈 형태로 구현될 수도 있음은 물론이다.
카메라(130)는 카메라의 화각(Field of View; FoV) 내에 영역에 대한 촬영하는 장치이다. 카메라(130)는 객체, 예를 들어 오염원(300)에 의해 반사되어 수신되는 가시광 및 적외선 신호를 이미지 센서로 포커싱하는 렌즈 및 가시광 및 적외선 신호를 감지할 수 있는 이미지 센서를 포함할 수 있다. 여기서, 이미지 센서는 복수의 픽셀로 구분되는 2D의 픽셀 어레이를 포함할 수 있다.
본 개시의 일 실시 예에 따른 카메라(130)는 뎁스 카메라 및 RGB 카메라를 포함하는 모듈 형태로 구현될 수 있으며, 일 예에 따른 뎁스 카메라는 적외선(IR) 프로젝터 및 복수의 적외선 센서를 이용한 카메라일 수 있다.
구동부(140)는 로봇(100)을 주행시킬 수 있는 장치이며, 프로세서(150)의 제어에 따라 구동부(140)는 주행 방향 및 주행 속도를 조절할 수 있다. 이를 위해, 구동부(140)는 로봇(100)이 주행하기 위한 동력을 발생시키는 동력발생장치(예: 사용 연료(또는 에너지원)에 따라 가솔린 엔진(engine), 디젤 엔진, LPG(liquefied petroleum gas) 엔진, 전기 모터 등), 주행 방향을 조절하기 위한 조향 장치(예: 기계식 스티어링(manual steering), 유압식 스티어링(hydraulics steering), 전자식 스티어링(electronic control power steering; EPS) 등), 동력에 따라 로봇(100)을 주행시키는 주행 장치(예: 바퀴, 프로펠러 등) 등을 포함할 수 있다. 여기서, 구동부(140)는 로봇(100)의 주행 타입(예: 휠 타입, 보행 타입, 비행 타입 등)에 따라 변형 실시될 수 있다.
프로세서(130)는 로봇(100)의 동작을 전반적으로 제어한다. 구체적으로, 프로세서(130)는 로봇(100)의 각 구성과 연결되어 로봇(100)의 동작을 전반적으로 제어할 수 있다. 예를 들어, 프로세서(130)는 메모리(110) 및 카메라(120)와 연결되어 로봇(100)의 동작을 제어할 수 있다.
일 실시 예에 따라 프로세서(150)는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), NPU(Neural Processing Unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)) 등 다양한 이름으로 명명될 수 있으나, 본 명세서에서는 프로세서(150)로 기재한다.
프로세서(150)는 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다. 또한, 프로세서(150)는 SRAM 등의 휘발성 메모리를 포함할 수 있다.
일 실시 예에 따른 프로세서(150)는 가스 센서(120)에 의해 센싱된 가스가 제1 타입 가스(310)인 것으로 식별되면 로봇(100)의 이동 속도가 감소되도록 구동부(140)를 제어할 수 있다. 여기서, 제1 타입 가스(310)는 오염원(300)에서 발생한 특정 타입의 가스로서, 실내 공간에서 균일(Homogeneous)하게 확산되는 가스일 수 있다.
또한, 일 예에 따른 프로세서(150)는 로봇(100)이 감소된 속도로 이동하는 동안 가스 센서(120)에 의해 센싱된 데이터에 기초하여 가스 발생 영역을 식별할 수 있다. 여기서 가스 발생 영역은 오염원(300)으로부터 발생한 가스가 집중적으로 분포하는 영역이며, 구체적으로 가스 발생 영역은 기 설정된 타입의 가스의 농도가 임계 농도 이상인 것으로 식별된 영역일 수 있다. 실내 공간에 위치한 오염원(300)으로부터 균일하게 가스가 확산된다고 전제한다면, 가스 발생 영역(200)은 영역의 중심부에 오염원(300)을 포함하는 영역일 수 있다.
또한, 프로세서(150)는 식별된 가스 발생 영역(200)을 촬영하도록 카메라(130)를 제어할 수 있다. 일 예에 따른 로봇(100)은 가스 발생 영역(200)이 식별된 경우에만 카메라(130)를 통해 오염원(300)을 탐지하기 때문에 프로세서(150)에 가해지는 연산량 부담 및 소비 전력이 감소될 수 있다.
본 개시의 일 실시 예에 따른 프로세서(150)는 제1 센서에 의해 제1 타입 가스(310)가 센싱되면 로봇(100)의 이동 속도가 감소되도록 구동부(140)를 제어할 수 있다. 또한, 로봇(100)이 감소된 속도로 이동하는 동안 제2 타입 가스(320)를 센싱하는 제2 센서에 의해 센싱된 데이터에 기초하여 가스 발생 영역(200)을 식별할 수 있다. 여기서, 제1 타입 가스(310)는 제2 타입 가스(320)보다 전파 속도가 빠른 가스일 수 있다. 다시 말해, 제1 타입 가스(310) 분자가 제2 타입 가스(320) 분자보다 분자량이 작은 분자로서, 일 예에 따른 제1 타입 가스(310)는 황화 수소(H2S)이며 제2 타입 가스(320)는 암모니아(NH3)일 수 있다.
본 개시의 일 실시 예에 따른 로봇(100)은 로봇(100)이 주행하는 공간의 맵 데이터가 저장된 메모리를 더 포함할 수 있다. 일 예에 따른 프로세서(150)는 로봇(100)이 감소된 속도로 이동하는 동안 맵 데이터 상의 제1 위치에서 제2 타입 가스(320)가 감지되면 로봇(100)이 맵 데이터 상의 제2 위치로 이동하도록 구동부(140)를 제어할 수 있다. 구체적으로 로봇(100)은 가스 센서(120)가 제1 위치에서 센싱한 제2 타입 가스(320)의 농도만으로는 공간 내의 가스 농도 분포를 추산할 수 없으므로 로봇(100)은 프로세서(150)의 제어에 따라 제1 위치와 상이한 제2 위치로 이동할 수 있다.
일 예에 따른 프로세서(150)는 제1 위치에서 제2 센서에 의해 획득된 제1 센싱 데이터 및 제2 위치에서 제2 센서에 의해 획득된 제2 센싱 데이터에 기초하여 가스 발생 영역(200)을 식별할 수 있다. 이에 대해서는 도 5에서 상세히 설명하도록 한다.
본 개시의 일 실시 예에 따른 프로세서(150)는 제1 센싱 데이터 및 제2 센싱 데이터에 기초하여 제2 타입 가스의(320)의 농도가 이계 수치 이상인 영역을 가스 발생 영역(200)으로 식별할 수 있다.
일 예에 따른 프로세서(150)는 제1 센싱 데이터 및 제2 센싱 데이터에 기초하여 획득된 제2 타입 가스(320)의 농도가 임계 수치 미만이면, 로봇(100)이 맵 데이터 상의 제3 위치로 이동하도록 구동부(140)를 제어할 수 있다. 일 예에 따른 프로세서(150)는 제1 센싱 데이터, 제2 센싱 데이터 및 제3 위치에서 제2 센서에 의해 획득된 제3 센싱 데이터에 기초하여 가스 발생 영역(200)을 식별할 수 있다.
한편, 본 개시의 일 실시 예에 따른 프로세서(150)는 가스 발생 영역(200)이 식별되면 뎁스 카메라 및 RGB 카메라 각각에 의해 획득된 이미지에 기초하여 식별된 가스 발생 영역(200)에 대응되는 오염원(300) 존재 확률 분포를 획득하고 획득된 확률 분포에 기초하여 가스 발생 영역(200) 중 오염원 존재 확률이 임계 수치 이상인 위치에 오염원(300)이 존재하는 것으로 식별할 수 있다.
본 개시의 일 실시 예에 따른 로봇(100)은 통신 인터페이스를 더 포함하며, 일 예에 따른 프로세서(150)는 오염원(300)이 식별되고 맵 데이터 상의 기 설정된 오브젝트가 위치한 영역이 식별된 가스 발생 영역(200) 내에 포함되는 경우 오브젝트와 관련된 리워드를 포함한 피드백을 제공할 수 있다. 일 예에 따른 오브젝트는 동물의 배변 공간에 마련된 배변 패드일 수 있다.
한편, 일 예에 따른 프로세서(150)는 오염원(300)이 식별되고 맵 데이터 상의 기 설정된 오브젝트가 위치한 영역이 식별된 가스 발생 영역(200) 내에 포함되지 않는 경우 통신 인터페이스를 통해 외부 장치로 오염원(300) 관련 정보를 제공할 수 있다. 오염원 관련 정보에는 오염원의 종류, 오염원의 위치, 오염원의 크기, 오염원의 발생 추정 시각 등이 포함될 수 있다.
일 예에 따른 외부 장치는 사용자의 스마트폰일 수 있다. 이에 따라 로봇(100)는 오염원(300)을 식별하는 동작 뿐만 아니라 오염원을 청소할 수 있도록 외부 장치의 사용자에게 오염원의 위치 정보를 제공하는 동작 역시 수행할 수 있다.
한편, 본 개시의 일 실시 예에 따른 프로세서(150)는 획득된 확률 분포에 기초하여 가스 발생 영역(200)에 오염원(300)이 존재하지 않는 것으로 식별되면 가스 발생 영역(200)을 재식별할 수 있다. 구체적으로 실내 공간에 존재하는 외벽 및 가구 등의 장애물과 선풍기 또는 에어컨과 같이 대류를 발생시키는 가전제품등의 영향으로 인해 가스의 농도가 임계 수치 이상인 영역 내에 오염원(300)이 존재하지 않는 경우를 상정할 수 있다. 이 경우 일 예에 따른 프로세서(150)는 가스 센서(120)에 의해 획득된 센싱 데이터 및 공간의 맵 데이터에 기초하여 가스 발생 영역(200)을 재식별할 수 있다.
한편, 본 개시의 일 실시 예에 따른 프로세서(150)는 오염원(300)이 식별된 경우 로봇(100)이 오염원(300)을 통과하여 주행하지 않도록 하기 위해 회피 주행을 결정할 수 있다. 구체적으로, 프로세서(150)는 오염원(300)의 위치를 맵 데이터 상에 업데이트하고, 로봇(100)이 업데이트된 위치를 회피하여 주행하도록 구동부(140)를 제어할 수 있다.
도 3은 본 개시의 일 실시 예에 따른 로봇의 감속 주행을 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 로봇(100)은 실내 공간 주행 중 제1 타입 가스(310)를 센싱할 수 있다. 여기서 제1 타입 가스(310)는 대기를 구성하는 분자들의 평균 분자량보다 더 작은 분자량을 가진 가스로서, 일 예에 따른 제1 타입 가스(310)는 황화 수소일 수 있다.
주행중인 로봇(100)에 의해서 두 종류의 난기류가 생성될 수 있다. 그 중 하나는 로봇(100)이 공간 내의 공기를 가르고 이동함에 따라 발생하는 제1 난기류이며, 다른 하나는 구동부(140)의 운동에 의해 발생하는 제2 난기류이다.
이러한 난기류는 로봇 주위에 분포하는 가스 분자들을 흩어지게 하여 가스 센서(120)에 의한 센싱을 어렵게 하는 원인이 된다. 제1 난기류는 로봇(100)의 속도가 커질수록 증가하며, 구동부(140)의 운동도 로봇(100)의 속도가 커질수록 증가하기 때문에 일 예에 따른 로봇(100)은 감속을 통해 제1 난기류 및 제2 난기류의 영향을 최소화할 수 있다.
이하에서는, 제1 타입 가스는 오염원(300)에서 발생한 가스 중 분자량이 가장 작아 전파 속도가 가장 빠른 가스인 것으로 전제하고 설명하도록 한다. 제1 타입 가스(310)는 오염원(300)으로부터 가장 멀리 확산된 가스이므로, 일 예에 따른 로봇(100)은 가스가 분포하는 최 외곽에서 제1 타입 가스(310)를 센싱할 수 있다. 로봇(100)는 제1 타입 가스(310)를 센싱함에 기초하여 상술한 감속을 개시할 수 있다. 이를 통해 제1 타입 가스(310)보다 오염원(300)에 가까이 위치하는 다른 타입의 가스들은 로봇(100)의 이동 또는 구동부(140)의 운동에 의해 발생하는 난기류의 영향을 적게 받을 수 있다.
나아가, 일 예에 따른 로봇(100)은 전방을 향해 열린 구조를 갖는 가스 포집부(110)를 구비함으로써 제1 난기류의 영향에도 불구하고 가스를 효율적으로 포집할 수 있다.
도 4는 본 개시의 일 실시 예에 따른 로봇의 가스 발생 영역 촬영 동작을 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 로봇(100)은 제1 타입 가스(310)를 센싱한 후 감속 주행을 하는 동안 제2 타입 가스(320)를 센싱할 수 있다. 여기서 제2 타입 가스(320)는 대기를 구성하는 분자들의 평균 분자량보다 더 큰 분자량을 가진 가스로서, 일 예에 따른 제2 타입 가스(320)는 암모니아일 수 있다.
일 예에 따른 로봇(100)은 가스 센서(120)를 통해 가스 포집부(110)에 의해 포집된 제2 타입 가스(320)를 센싱하고, 센싱 데이터에 기초하여 오염원(300) 주위로 형성된 일정 영역(200)을 식별할 수 있다. 일 예에 따른 센싱 데이터는 된 제2 타입 가스(320)의 농도(단위: ppm)일 수 있다. 한편, 일 예에 따른 가스 센서(120)는 제1 타입 가스(310)를 센싱하는 제1 센서 및 제2 타입 가스(320)를 센싱하는 제2 센서를 포함할 수 있다.
여기서 오염원(300) 주위로 형성된 일정 영역(200)을 '가스 발생 영역(200)'으로 설명하도록 한다. 본 개시의 일 실시 예에 따른 로봇(100)은 가스 발생 영역(200)이 식별된 경우에만 오염원(300)의 위치를 식별할 수 있다. 이에 따라 로봇(100)은 오염원(300)을 식별하는데 소모되는 전력을 절약할 수 있으며, 프로세서(150)에 가해지는 연산량 부담 역시 줄일 수 있게 된다.
일 예에 따른 로봇(100)은 식별된 가스 발생 영역(200)을 촬영하도록 카메라(130)를 제어하고, 카메라(130)를 통해 획득된 이미지에 기초하여 오염원(300)의 위치를 식별할 수 있다.
구체적으로, 본 개시의 일 실시 예에 따른 카메라(130)는 뎁스 카메라 및 RGB 카메라를 포함하며, 일 예에 따른 프로세서(150)는 뎁스 카메라 및 RGB 카메라 각각에 의해 획득된 이미지에 기초하여 식별된 가스 발생 영역(200)에 대응되는 오염원(300) 존재 확률 분포를 획득할 수 있다.
일 예에 따른 프로세서(150)는 획득된 확률 분포에 기초하여 가스 발생 영역(200) 중 오염원(300) 존재 확률이 임계 수치 이상인 위치에 오염원이 존재하는 것으로 식별할 수 있다. 한편, 다른 예에 따른 프로세서(150)는 카메라(130)에 의해 획득된 이미지를 신경망 모델에 입력하여 획득된 이미지에 오염원(300)이 포함되어 있는지 여부에 관한 정보를 획득할 수 있다. 이 경우, 신경망 모델은 복수의 입력 이미지로부터 오염원에 대응되는 피쳐(feature)를 식별하도록 학습된 모델일 수 있다.
본 개시의 일 실시 예에 따른 프로세서(150)는 획득된 확률 분포에 기초하여 가스 발생 영역(200)에 오염원(300)이 존재하지 않는 것으로 식별되면 가스 발생 영역을 재식별할 수 있다.
도 5는 본 개시의 일 실시 예에 따른 로봇의 가스 발생 영역 식별 동작을 구체적으로 설명하기 위한 도면이다.
제2 타입 가스(320)의 농도에 기초하여 가스 발생 영역(200)을 식별하기 위해서는 적어도 두 곳 이상에서 측정한 가스 농도에 관한 데이터가 필요하다. 일 예에 따른 프로세서(150)는 상이한 복수의 위치에서 측정한 가스 농도에 관한 데이터에 기초하여 제2 타입 가스(320)의 농도 변화를 추적하면서 가스 발생 영역(200)을 식별할 수 있다.
본 개시의 일 실시 예에 따른 로봇(100)은 주행하는 공간의 맵 데이터가 저장된 메모리(미도시)를 포함할 수 있다. 일 예에 따른 프로세서(150)는 로봇(100)이 감소된 속도로 이동하는 동안 맵 데이터 상의 제1 위치(51)에서 제2 타칩 가스(320)가 감지되면 로봇(100)이 맵 데이터 상의 제2 위치(52)로 이동하도록 구동부(140)를 제어할 수 있다.
또한, 일 예에 따른 프로세서(150)는 제1 위치(51)에서 제2 타입 가스(320)를 센싱하는 제2 센서에 의해 획득된 제1 센싱 데이터 및 제2 위치(52)에서 제2 센서에 의해 획득된 제2 센싱 데이터에 기초하여 가스 발생 영역(200)을 식별할 수 있다.
구체적으로, 프로세서(150)는 SLAM(simultaneous localization and mapping), 즉 동시적 위치 추정 및 지도작성 방식을 통해 공간 내의 측정된 제2 타입 가스(320) 농도에 기초하여 메모리에 저장된 맵 데이터를 업데이트할 수 있다. 일 예에 따른 프로세서(150)는 로봇이 오염원(300)으로 접근하지 않으면서 위치 변화에 따른 센싱 데이터를 충분히 획득하기 위해 제1 위치(51)에서 제2 위치(52)까지 지그재그(Zig Zag) 형태의 경로로 로봇(100)이 이동하도록 구동부(140)를 제어할 수 있다. 이 경우, 로봇(100)는 제2 타입 가스(320)의 농도가 임계 수치 이상인 영역 및 이하인 영역을 넘나들며 지그재그 형태의 경로로 주행할 수 있다.
본 개시의 일 실시 예에 따른 프로세서(150)는 SLAM을 통해 업데이트된 맵 데이터에 기초하여 제2 가스 농도가 임계 수치 이상인 영역(폐곡면)을 식별하고, 식별된 영역을 가스 발생 영역(200)으로 식별할 수 있다.
도 6a 및 6b는 본 개시의 일 실시 예에 따른 로봇의 가스 농도에 기초한 가스 발생 영역 식별 동작을 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 로봇(100)은 상이한 복수의 위치에서 제2 타입 가스(320)의 농도를 센싱한 데이터에 기초하여 공간 내 제2 타입 가스 농도를 추정할 수 있다. 도 6a 및 도 6b는 일정 범위 내의 공간에서 X-Y 평면상에 일 직선 형태의 정사영을 갖는 크로스 섹션(Cross Section)을 도시한 것이다.
도 6a 및 도 6b에 도시된 제2 타입 가스 농도(601, 602)는 로봇(100)이 주행하면서 측정한 제2 타입 가스(320)의 농도에 관한 데이터 또는 측정된 데이터에 기초하여 SLAM 방식으로 제2 타입 가스(320)의 농도를 추정한 데이터에 기초하여 획득된 것일 수 있다. 다시 말해, 제2 타입 가스 농도(601, 602)가 도시된 X-Y 평면 상의 지점들은 로봇(100)이 주행한 영역일 수도 있으나, 로봇(100)이 주행하지는 않았으나 프로세서(150)에 의해 제2 타입 가스(320)의 농도에 기초하여 업데이트한 맵 데이터 상의 영역일 수도 있다.
도 6a를 참조하면, 일 예에 따른 일정 범위 내의 공간은 일정 영역(200)에서 제2 타입 가스 농도(601)가 임계 수치(610) 이상인 공간일 수 있다.
본 개시의 일 실시 예에 따른 프로세서(150)는 제2 타입 가스 농도(601)가 임계 수치(610)를 갖는 양 지점(201, 202)을 식별하고, 식별된 양 지점(201, 202)을 경계로 하는 영역(200)을 가스 발생 영역으로 식별할 수 있다.
도 6b를 참조하면, 일 예에 따른 일정 범위 내의 공간은 제2 타입 가스 농도(602)가 전 영역에서 임계 수치(610) 미만인 공간일 수 있다.
이 경우, 본 개시의 일 실시 예에 따른 프로세서(150)는 로봇(100)이 제2 타입 가스 농도(602)를 획득하기 위해 주행한 경로에 포함되지 않는 제3 위치로 이동하도록 구동부(140)를 제어할 수 있다. 또한, 일 예에 따른 프로세서(150)는 제3 위치에서 제2 타입 가스(320)를 센싱하는 제2 센서에 의해 획득된 제3 센싱 데이터에 기초하여 가스 발생 영역을 식별할 수 있다. 이 경우 프로세서(150)는 제1 내지 제3 센싱 데이터에 기초하여 제2 타입 가스(320) 분포에 의한 경계치 산출 방법을 적용한 가상의 폐곡면을 가스 발생 영역으로 식별할 수 있다.
도 7은 본 개시의 일 실시 예에 따른 로봇의 오염원 회피 주행을 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 프로세서(150)는 오염원(300)이 식별되면 로봇(100)이 식별된 오염원(300)을 회피하여 주행하도록 구동부(140)를 제어할 수 있다. 구체적으로, 일 예에 따른 프로세서(150)는 식별된 오염원(300)이 존재하는 맵 데이터 상의 위치를 포함하지 않는 주행 경로로 기존의 주행 경로를 업데이트할 수 있다.
로봇(100)이 청소 로봇으로 구현되는 경우, 일 예에 따른 로봇(100)은 흡입부(미도시)를 통해 실내 공간에 분포하는 먼지 등을 청소할 수 있다. 동물의 배설물과 같은 오염원(300)은 먼지에 비해 상대적으로 무거운 중량을 갖고, 또한 다량의 수분을 포함하므로 로봇(100)은 통상적인 먼지 청소 메커니즘을 통해 오염원(300)을 청소할 수 없다. 따라서 일 예에 따른 프로세서(150)는 로봇(100)이 오염원(300)을 회피 주행(700)하도록 구동부(140)를 제어하고, 그 후 오염원(300) 제거에 필요한 추가 동작을 수행할 수 있다.
여기서, 일 예에 따른 추가 동작은 오염원(300)에 대응되는 특수한 청소 동작 또는 사용자에게 오염원(300)에 관한 정보를 제공하거나 청소를 요청하는 등의 알림 동작일 수 있다.
도 8a 및 8b는 본 개시의 일 실시 예에 따른 로봇의 오염원 위치에 따른 상이한 동작을 설명하기 위한 도면이다.
도 8a 및 도 8b는 실내 공간에서 X-Y 평면상에 위치하는 로봇(100), 오염원(300) 및 배변 패드(500)의 위치 관계를 도시한 것이다.
본 개시의 일 실시 예에 따른 프로세서(150)는 오염원인 동물의 배설물(300)이 식별되고, 맵 데이터 상의 기 설정된 오브젝트(500)가 위치한 영역이 식별된 가스 발생 영역 내(210)에 포함되는 경우, 오브젝트(500)와 관련된 피드백을 제공할 수 있다. 여기서, 기 설정된 오브젝트(500)는 동물의 배변 패드일 수 있다.
구체적으로, 배변 패드(500)가 오염원인 동물의 배설물(300)을 포함하는 가스 발생 영역(210)에 포함되는 경우 일 예에 따른 프로세서(150)는 동물(400)이 배변 패드(500) 상에 배변을 한 것으로 판단하고, 동물(400)에게 피드백(810)을 제공할 수 있다. 여기서, 일 예에 따른 피드백(810)은 동물(400)이 배변 패드(500)에 배변한 것에 대한 리워드일 수 있다.
한편 도 8b를 참조하면, 본 개시의 일 실시 예에 따른 로봇(100)은 통신 인터페이스(미도시)를 더 포함하며, 일 예에 따른 프로세서(150)는 오염원인 동물의 배설물(300)이 식별되고, 맵 데이터 상의 기 설정된 오브젝트(500)가 위치한 영역이 식별된 가스 발생 영역 내(220)에 포함되지 않는 경우, 통신 인터페이스를 통해 외부 장치(10)로 가스 발생 영역과 관련된 정보(820)를 제공할 수 있다.
여기서, 일 예에 따른 외부 장치(10)는 사용자가 로봇(100)으로부터 정보를 제공받을 수 있도록 구현된 장치를 의미한다. 외부 장치(10)는 스마트폰으로 구현될 수 있으나, 이에 한정되는 것은 아니며 로봇(100)과 통신을 수행할 수 있는 기기, 예를 들어 태블릿 PC, 이동 전화기, 영상 전화기, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, PDA, PMP(portable multimedia player), MP3 플레이어, 카메라, 가상 현실(virtual reality(VR)) 구현 장치 또는 웨어러블 장치 등 다양한 기기로 구현될 수 있다.
구체적으로, 배변 패드(500)가 오염원인 동물의 배설물(300)을 포함하는 가스 발생 영역(220)에 포함되지 않는 경우 일 예에 따른 프로세서(150)는 동물(400)이 배변 패드(500) 외의 영역에 배변을 한 것으로 판단하고, 통신 인터페이스를 통해 외부 장치(10)로 가스 발생 영역과 관련된 정보(820)를 제공할 수 있다. 여기서, 가스 발생 영역에 관련된 정보(820)는 배변 패드(500) 외의 영역에 위치한 배설물(300)에 관한 정보를 제공하거나 청소를 요청하는 등의 알림에 대응되는 정보일 수 있다.
본 개시의 일 실시 예에 따른 로봇(100)은 컴페니언 어플리케이션(Companion Application)을 통해 배설물(300)에 관한 정보 및 청소를 요청하는 알림에 대응되는 정보를 제공할 수 있다. 여기서 배설물(300)에 관한 정보는 맵 데이터 상에서 배설물이 위치하는 좌표에 관한 정보 및 배설물의 특성으로부터 추정되는 동물(400)의 이상 징후에 관한 정보를 포함할 수 있다. 한편, 도 8a에서와 같이 동물(400)이 배변 패드(500) 상에 배변한 경우라도 로봇(100)은 외부 장치(10)로 배변 패드 교환을 알리는 정보를 제공할 수 있다.
일 예에 따른 로봇(100)으로부터 외부 장치(10)를 통해 가스 발생 영역에 관련된 정보(820)를 제공받은 사용자는 가스 발생 영역(220)에 가까이 위치한 창문을 열어 환기를 수행하거나 배설물(300)을 청소할 수 있다.
도 9는 본 개시의 일 실시 예에 따른 로봇의 기능적 구성을 구체적으로 설명하기 위한 블록도이다.
도 9에 따르면, 로봇(100')은 가스 포집부(110), 제1 센서(121) 및 제2 센서(122)를 포함하는 가스 센서(120), 뎁스 카메라(131) 및 RGB 카메라(132)를 포함하는 카메라(130), 구동부(140), 프로세서(150), 메모리(160) 및 통신 인터페이스(170)를 포함한다. 도9에 도시된 구성 중 도 2에 도시된 구성과 중복되는 구성에 대해서는 자세한 설명을 생략하도록 한다.
메모리(160)는 본 개시의 다양한 실시 예를 위해 필요한 데이터를 저장할 수 있다. 메모리(160)는 데이터 저장 용도에 따라 로봇(100')에 임베디드된 메모리 형태로 구현되거나, 로봇(100')에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 로봇(100')의 구동을 위한 데이터의 경우 로봇(100)에 임베디드된 메모리에 저장되고, 로봇(100')의 확장 기능을 위한 데이터의 경우 로봇(100')에 탈부착이 가능한 메모리에 저장될 수 있다. 한편, 로봇(100')에 임베디드된 메모리의 경우 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나로 구현될 수 있다. 또한, 로봇(100')에 탈부착이 가능한 메모리의 경우 메모리 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.
본 개시의 일 실시 예에 따른 메모리(140)는 로봇(100')이 주행하는 공간의 맵 데이터를 저장할 수도 있다.
통신 인터페이스(170)는 다양한 타입의 데이터를 입력 및 출력할 수 있다. 예를 들어 통신 인터페이스(170)는 AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN(Wide Area Network), 이더넷(Ethernet), IEEE 1394, HDMI(High-Definition Multimedia Interface), USB(Universal Serial Bus), MHL(Mobile High-Definition Link), AES/EBU(Audio Engineering Society/ European Broadcasting Union), 옵티컬(Optical), 코액셜(Coaxial) 등과 같은 통신 방식을 통해 외부 장치(예를 들어, 소스 장치), 외부 저장 매체(예를 들어, USB 메모리), 외부 서버(예를 들어 웹 하드)와 다양한 타입의 데이터를 송수신할 수 있다.
도 10은 본 개시의 일 실시 예에 따른 제어 방법을 설명하기 위한 흐름도이다.
본 개시의 일 실시 예에 따른 가스 센서를 포함하는 로봇의 제어 방법은 가스 포집부에 의해 포집된 가스를 센싱한다(S1010). 이어서 센싱된 가스가 제1 타입 가스인 것으로 식별되면 로봇의 이동 속도를 감소시킨다(S1020). 이어서 로봇이 감소된 속도로 이동하는 동안 가스 센서에 의해 센싱된 데이터에 기초하여 가스 발생 영역을 식별한다(S1030). 마지막으로 식별된 영역을 촬영한다(S1040).
여기서, 가스 센서는 제1 타입 가스를 센싱하는 제1 센서 및 제1 타입과 상이한 제2 타입 가스를 센싱하는 제2 센서를 포함하며, 로봇의 이동 속도를 감소시키는 단계(S1020)는 제1 센서에 의해 제1 타입 가스가 센싱되면 로봇의 이동 속도를 감소시키고, 가스 발생 영역을 식별하는 단계(S1030)는 로봇이 감소된 속도로 이동하는 동안 제2 센서에 의해 센싱된 데이터에 기초하여 가스 발생 영역을 식별할 수 있다.
여기서, 제1 타입 가스는 제2 타입 가스보다 전파 속도가 빠를 수 있다.
또한, 로봇이 감소된 속도로 이동하는 동안 로봇이 주행하는 공간의 맵 데이터 상의 제1 위치에서 제2 타입 가스가 감지되면 로봇을 맵 데이터 상의 제2 위치로 이동시키는 단계를 더 포함하며, 가스 발생 영역을 식별하는 단계(S1030)는 제1 위치에서 제2 센서에 의해 획득된 제1 센싱 데이터 및 제2 위치에서 제2 센서에 의해 획득된 제2 센싱 데이터에 기초하여 가스 발생 영역을 식별할 수 있다.
여기서, 가스 발생 영역을 식별하는 단계(S1030)는 제1 센싱 데이터 및 제2 센싱 데이터에 기초하여 제2 타입 가스의 농도가 임계 수치 이상인 영역을 식별하고, 식별된 영역을 가스 발생 영역으로 식별할 수 있다.
여기서, 제1 센싱 데이터 및 제2 센싱 데이터에 기초하여 획득된 제2 타입 가스의 농도가 임계 수치 미만이면 로봇을 맵 데이터 상의 제3 위치로 이동시키는 단계를 더 포함하며, 가스 발생 영역을 식별하는 단계(S1030)는 제1 센싱 데이터, 제2 센싱 데이터 및 제3 위치에서 제2 센서에 의해 획득된 제3 센싱 데이터에 기초하여 가스 발생 영역을 식별할 수 있다.
한편, 가스 발생 영역이 식별되면 뎁스 카메라 및 RGB 카메라 각각에 의해 획득된 이미지에 기초하여 식별된 가스 발생 영역에 대응되는 오염원 존재 확률 분포를 획득하는 단계 및 획득된 확률 분포에 기초하여 가스 발생 영역 중 오염원 존재 확률이 임계 수치 이상인 위치에 오염원이 존재하는 것으로 식별하는 단계를 더 포함할 수 있다.
여기서, 오염원이 식별되고 식별된 가스 발생 영역 내에 맵 데이터 상의 기 설정된 오브젝트가 위치한 영역이 포함되는 경우 오브젝트와 관련된 피드백을 제공하는 단계 및 오염원이 식별되고, 식별된 가스 발생 영역 내에 맵 데이터 상의 기 설정된 오브젝트가 위치한 영역이 포함되지 않는 경우 외부 장치로 가스 발생 영역과 관련된 정보를 제공하는 단계를 더 포함할 수 있다. 여기서 가스 발생 영역과 관련된 정보는 오염원 관련 정보를 포함할 수 잇다.
또한, 획득된 확률 분포에 기초하여 가스 발생 영역에 오염원이 존재하지 않는 것으로 식별되면 가스 발생 영역을 재식별하는 단계를 더 포함할 수도 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 로봇에 설치 가능한 어플리케이션 형태로 구현될 수 있다.
또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 로봇에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다.
또한, 상술한 본 개시의 다양한 실시 예들은 로봇에 구비된 임베디드 서버 또는 적어도 하나의 외부 서버를 통해 수행되는 것도 가능하다.
한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시 예들이 프로세서(150) 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 로봇(100)의 프로세싱 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium) 에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 로봇(100)에서의 처리 동작을 특정 기기가 수행하도록 한다.
비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해 되어져서는 안될 것이다.

Claims (15)

  1. 로봇에 있어서,
    가스 포집부;
    상기 가스 포집부에 의해 포집된 가스를 센싱하는 가스 센서;
    카메라;
    구동부; 및
    상기 가스 센서에 의해 센싱된 가스가 제1 타입 가스인 것으로 식별되면, 상기 로봇의 이동 속도가 감소되도록 상기 구동부를 제어하고,
    상기 로봇이 감소된 속도로 이동하는 동안 상기 가스 센서에 의해 센싱된 데이터에 기초하여 가스 발생 영역을 식별하고, 상기 식별된 영역을 촬영하도록 상기 카메라를 제어하는 프로세서;를 포함하는 로봇.
  2. 제1항에 있어서,
    상기 가스 센서는,
    상기 제1 타입 가스를 센싱하는 제1 센서 및 상기 제1 타입과 상이한 제2 타입 가스를 센싱하는 제2 센서를 포함하며,
    상기 프로세서는,
    상기 제1 센서에 의해 상기 제1 타입 가스가 센싱되면, 상기 로봇의 이동 속도가 감소되도록 상기 구동부를 제어하고,
    상기 로봇이 감소된 속도로 이동하는 동안 상기 제2 센서에 의해 센싱된 데이터에 기초하여 상기 가스 발생 영역을 식별하는, 로봇.
  3. 제2항에 있어서,
    상기 제1 타입 가스는, 상기 제2 타입 가스보다 전파 속도가 빠른, 로봇.
  4. 제2항에 있어서,
    상기 로봇이 주행하는 공간의 맵 데이터가 저장된 메모리;를 더 포함하며,
    상기 프로세서는,
    상기 로봇이 감소된 속도로 이동하는 동안 상기 맵 데이터 상의 제1 위치에서 상기 제2 타입 가스가 감지되면, 상기 로봇이 상기 맵 데이터 상의 제2 위치로 이동하도록 상기 구동부를 제어하고,
    상기 제1 위치에서 상기 제2 센서에 의해 획득된 제1 센싱 데이터 및 상기 제2 위치에서 상기 제2 센서에 의해 획득된 제2 센싱 데이터에 기초하여 상기 가스 발생 영역을 식별하는, 로봇.
  5. 제4항에 있어서,
    상기 프로세서는,
    상기 제1 센싱 데이터 및 제2 센싱 데이터에 기초하여 상기 제2 타입 가스의 농도가 임계 수치 이상인 영역을 식별하고,
    상기 식별된 영역을 상기 가스 발생 영역으로 식별하는, 로봇.
  6. 제5항에 있어서,
    상기 프로세서는,
    상기 제1 센싱 데이터 및 제2 센싱 데이터에 기초하여 획득된 상기 제2 타입 가스의 농도가 임계 수치 미만이면, 상기 로봇이 상기 맵 데이터 상의 제3 위치로 이동하도록 상기 구동부를 제어하고,
    상기 제1 센싱 데이터, 상기 제2 센싱 데이터 및 상기 제3 위치에서 상기 제2 센서에 의해 획득된 제3 센싱 데이터에 기초하여 상기 가스 발생 영역을 식별하는, 로봇.
  7. 제4항에 있어서,
    상기 카메라는,
    뎁스 카메라 및 RGB 카메라를 포함하며,
    상기 프로세서는,
    상기 가스 발생 영역이 식별되면, 상기 뎁스 카메라 및 상기 RGB 카메라 각각에 의해 획득된 이미지에 기초하여 상기 식별된 가스 발생 영역에 대응되는 오염원 존재 확률 분포를 획득하고,
    상기 획득된 확률 분포에 기초하여 상기 가스 발생 영역 중 오염원 존재 확률이 임계 수치 이상인 위치에 오염원이 존재하는 것으로 식별하는, 로봇.
  8. 제7항에 있어서,
    통신 인터페이스;를 더 포함하며,
    상기 프로세서는,
    상기 오염원이 식별되고, 상기 맵 데이터 상의 기 설정된 오브젝트가 위치한 영역이 상기 식별된 가스 발생 영역 내에 포함되는 경우, 상기 오브젝트와 관련된 피드백을 제공하고,
    상기 오염원이 식별되고, 상기 맵 데이터 상의 상기 기 설정된 오브젝트가 위치한 영역이 상기 식별된 가스 발생 영역 내에 포함되지 않는 경우, 상기 통신 인터페이스를 통해 외부 장치로 상기 가스 발생 영역과 관련된 정보를 제공하며,
    상기 정보는 상기 오염원 관련 정보를 포함하는, 로봇.
  9. 제7항에 있어서,
    상기 프로세서는,
    상기 획득된 확률 분포에 기초하여 상기 가스 발생 영역에 오염원이 존재하지 않는 것으로 식별되면 상기 가스 발생 영역을 재식별하는, 로봇.
  10. 제7항에 있어서,
    상기 프로세서는,
    상기 로봇이 상기 식별된 오염원을 회피하여 주행하도록 상기 구동부를 제어하는, 로봇.
  11. 제1항에 있어서,
    상기 가스 포집부는,
    상기 가스 센서의 전면부로 향하는 깔때기 형태로 구현되며,
    상기 가스 포집부의 전면부는 개방형 원 또는 타원 형상이고,
    상기 가스 포집부의 후면부는 상기 가스 포집부의 전면부보다 작은 개방형 원 또는 타원 형상인, 로봇.
  12. 가스 센서를 포함하는 로봇의 제어 방법에 있어서,
    가스 포집부에 의해 포집된 가스를 센싱하는 단계;
    상기 센싱된 가스가 제1 타입 가스인 것으로 식별되면, 상기 로봇의 이동 속도를 감소시키는 단계;
    상기 로봇이 감소된 속도로 이동하는 동안 상기 가스 센서에 의해 센싱된 데이터에 기초하여 가스 발생 영역을 식별하는 단계; 및
    상기 식별된 영역을 촬영하는 단계;를 포함하는 제어 방법.
  13. 제12항에 있어서,
    상기 가스 센서는,
    상기 제1 타입 가스를 센싱하는 제1 센서 및 상기 제1 타입과 상이한 제2 타입 가스를 센싱하는 제2 센서를 포함하며,
    상기 로봇의 이동 속도를 감소시키는 단계는,
    상기 제1 센서에 의해 상기 제1 타입 가스가 센싱되면, 상기 로봇의 이동 속도를 감소시키고,
    상기 가스 발생 영역을 식별하는 단계는,
    상기 로봇이 감소된 속도로 이동하는 동안 상기 제2 센서에 의해 센싱된 데이터에 기초하여 상기 가스 발생 영역을 식별하는, 제어 방법.
  14. 제13항에 있어서,
    상기 제1 타입 가스는, 상기 제2 타입 가스보다 전파 속도가 빠른, 제어 방법.
  15. 제13항에 있어서,
    상기 로봇이 감소된 속도로 이동하는 동안 상기 로봇이 주행하는 공간의 맵 데이터 상의 제1 위치에서 상기 제2 타입 가스가 감지되면, 상기 로봇을 상기 맵 데이터 상의 제2 위치로 이동시키는 단계;를 더 포함하며,
    상기 가스 발생 영역을 식별하는 단계는,
    상기 제1 위치에서 상기 제2 센서에 의해 획득된 제1 센싱 데이터 및 상기 제2 위치에서 상기 제2 센서에 의해 획득된 제2 센싱 데이터에 기초하여 상기 가스 발생 영역을 식별하는, 제어 방법.
PCT/KR2021/013559 2020-11-27 2021-10-05 실내에 위치한 동물의 배설물을 감지하는 로봇 및 그 제어 방법 WO2022114502A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/300,012 US20230252794A1 (en) 2020-11-27 2023-04-13 Display apparatus
US18/134,873 US20230249352A1 (en) 2020-11-27 2023-04-14 Robot sensing animal waste located indoors and controlling method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200162020A KR20220074001A (ko) 2020-11-27 2020-11-27 실내에 위치한 동물의 배설물을 감지하는 로봇 및 그 제어 방법
KR10-2020-0162020 2020-11-27

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US18/300,012 Continuation US20230252794A1 (en) 2020-11-27 2023-04-13 Display apparatus
US18/134,873 Continuation US20230249352A1 (en) 2020-11-27 2023-04-14 Robot sensing animal waste located indoors and controlling method thereof

Publications (1)

Publication Number Publication Date
WO2022114502A1 true WO2022114502A1 (ko) 2022-06-02

Family

ID=81754739

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/013559 WO2022114502A1 (ko) 2020-11-27 2021-10-05 실내에 위치한 동물의 배설물을 감지하는 로봇 및 그 제어 방법

Country Status (3)

Country Link
US (2) US20230252794A1 (ko)
KR (1) KR20220074001A (ko)
WO (1) WO2022114502A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160133348A (ko) * 2015-05-12 2016-11-22 삼성전자주식회사 로봇 및 그의 제어 방법
US20180125318A1 (en) * 2015-04-28 2018-05-10 Vorwerk & Co. Interholding Gmbh Household Robot and Method for Operating a Household Robot
KR20190092338A (ko) * 2019-05-30 2019-08-07 엘지전자 주식회사 청소 로봇
KR20200011623A (ko) * 2018-07-09 2020-02-04 임세빈 반려동물용 모니터링 로봇
KR20200056493A (ko) * 2018-11-08 2020-05-25 삼성전자주식회사 로봇 청소기 및 이의 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180125318A1 (en) * 2015-04-28 2018-05-10 Vorwerk & Co. Interholding Gmbh Household Robot and Method for Operating a Household Robot
KR20160133348A (ko) * 2015-05-12 2016-11-22 삼성전자주식회사 로봇 및 그의 제어 방법
KR20200011623A (ko) * 2018-07-09 2020-02-04 임세빈 반려동물용 모니터링 로봇
KR20200056493A (ko) * 2018-11-08 2020-05-25 삼성전자주식회사 로봇 청소기 및 이의 제어 방법
KR20190092338A (ko) * 2019-05-30 2019-08-07 엘지전자 주식회사 청소 로봇

Also Published As

Publication number Publication date
US20230252794A1 (en) 2023-08-10
KR20220074001A (ko) 2022-06-03
US20230249352A1 (en) 2023-08-10

Similar Documents

Publication Publication Date Title
WO2021118093A1 (en) Air conditioning device and control method thereof
WO2018052204A1 (ko) 공항 로봇 및 그를 포함하는 공항 로봇 시스템
WO2020138910A1 (en) Air conditioning device and control method thereof
WO2017119737A1 (ko) 통신 시스템에서 영상 정보를 공유하는 방법 및 장치
WO2019107738A1 (ko) 쓰레기 수거 차량제어 방법, 이를 수행하는 쓰레기 수거 차량제어 장치 및 이를 저장하는 기록매체
WO2016074123A1 (zh) 一种视频生成系统的视频生成方法及装置
WO2019235828A1 (ko) 투 페이스 질병 진단 시스템 및 그 방법
WO2020046038A1 (ko) 로봇 및 그의 제어 방법
WO2019083299A1 (ko) 사육장 관리 장치 및 방법
WO2020096232A1 (ko) 로봇 청소기 및 이의 제어 방법
WO2020159076A1 (ko) 랜드마크 위치 추정 장치와 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독 가능한 기록매체
WO2018147599A1 (ko) 차량의 운전을 보조하는 전자 장치 및 방법
WO2021002722A1 (ko) 이벤트 태깅 기반 상황인지 방법 및 그 시스템
WO2021080323A1 (en) Air conditioner and method for controlling the air conditioner thereof
WO2017186041A1 (zh) 投影仪和及其散热控制方法
WO2022114502A1 (ko) 실내에 위치한 동물의 배설물을 감지하는 로봇 및 그 제어 방법
WO2024014627A1 (ko) 스마트 하천 관제를 위한 통합 플랫폼
WO2018097384A1 (ko) 밀집도 알림 장치 및 방법
JP2019079303A (ja) 道路設備点検システムおよび道路設備点検方法、ならびにそれに使用されるサーバ
WO2013022153A1 (en) Apparatus and method for detecting lane
WO2021201569A1 (ko) 강화학습 기반 신호 제어 장치 및 신호 제어 방법
WO2016060384A1 (ko) 다중 카메라와 레이더 센서 정보를 이용한 파노라믹 차량 상황 정보 제공 방법 및 장치
WO2021194109A1 (ko) 차량의 위치 정보 및 신호등 정보를 이용한 주행 안내 제공 방법, 장치 및 컴퓨터프로그램
WO2016195128A1 (ko) 영상 저장 방법 및 이를 이용한 영상 저장 장치
WO2022154242A1 (ko) 로봇 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21898328

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21898328

Country of ref document: EP

Kind code of ref document: A1