KR102661942B1 - 방역 로봇 및 그 제어 방법 - Google Patents

방역 로봇 및 그 제어 방법 Download PDF

Info

Publication number
KR102661942B1
KR102661942B1 KR1020220125838A KR20220125838A KR102661942B1 KR 102661942 B1 KR102661942 B1 KR 102661942B1 KR 1020220125838 A KR1020220125838 A KR 1020220125838A KR 20220125838 A KR20220125838 A KR 20220125838A KR 102661942 B1 KR102661942 B1 KR 102661942B1
Authority
KR
South Korea
Prior art keywords
quarantine
main body
wheel
robot
change
Prior art date
Application number
KR1020220125838A
Other languages
English (en)
Other versions
KR20240046395A (ko
Inventor
김태현
정인환
김종욱
오종규
Original Assignee
에이치디현대로보틱스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이치디현대로보틱스 주식회사 filed Critical 에이치디현대로보틱스 주식회사
Priority to KR1020220125838A priority Critical patent/KR102661942B1/ko
Priority to EP23200858.1A priority patent/EP4345568A1/en
Priority to US18/374,945 priority patent/US20240118698A1/en
Publication of KR20240046395A publication Critical patent/KR20240046395A/ko
Application granted granted Critical
Publication of KR102661942B1 publication Critical patent/KR102661942B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/243Means capturing signals occurring naturally from the environment, e.g. ambient optical, acoustic, gravitational or magnetic signals
    • G05D1/2435Extracting 3D information
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4097Means for exhaust-air diffusion; Exhaust-air treatment, e.g. air purification; Means for sound or vibration damping
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L9/00Disinfection, sterilisation or deodorisation of air
    • A61L9/01Deodorant compositions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F8/00Treatment, e.g. purification, of air supplied to human living or working spaces otherwise than by heating, cooling, humidifying or drying
    • F24F8/10Treatment, e.g. purification, of air supplied to human living or working spaces otherwise than by heating, cooling, humidifying or drying by separation, e.g. by filtering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/94Investigating contamination, e.g. dust
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/242Means based on the reflection of waves generated by the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/246Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/617Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/06Control of the cleaning action for autonomous devices; Automatic detection of the surface condition before, during or after cleaning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2209/00Aspects relating to disinfection, sterilisation or deodorisation of air
    • A61L2209/10Apparatus features
    • A61L2209/11Apparatus for controlling air treatment
    • A61L2209/111Sensor means, e.g. motion, brightness, scent, contaminant sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2209/00Aspects relating to disinfection, sterilisation or deodorisation of air
    • A61L2209/10Apparatus features
    • A61L2209/14Filtering means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2105/00Specific applications of the controlled vehicles
    • G05D2105/10Specific applications of the controlled vehicles for cleaning, vacuuming or polishing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/10Land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2111/00Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
    • G05D2111/10Optical signals
    • G05D2111/17Coherent light, e.g. laser signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Electromagnetism (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Analytical Chemistry (AREA)
  • General Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Combustion & Propulsion (AREA)
  • Biochemistry (AREA)
  • Human Computer Interaction (AREA)
  • Epidemiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

방역 로봇은, 토출구가 마련된 본체; 상기 본체의 내부에 마련된 팬; 상기 팬을 회전시키는 팬 모터; 상기 본체의 하부에 마련된 휠; 상기 휠을 회전시키는 휠 모터; 상기 본체의 전방을 향하는 시야를 가지고 3차원 이미지를 촬영하는 3차원 카메라; 및 상기 팬을 회전시켜 상기 토출구를 통하여 공기를 토출하도록 팬 모터를 제어하고, 상기 휠을 회전시켜 상기 3차원 이미지에 기초하여 상기 본체를 이동시키도록 상기 휠 모터를 제어하는 프로세서를 포함할 수 있다.

Description

방역 로봇 및 그 제어 방법 {DISINFECTION ROBOT AND CONTROLLING METHOD THEREOF}
개시된 발명은 이동 가능한 방역 로봇 및 그 제어 방법에 관한 발명이다.
방역이기는 실내의 공기를 흡입하고, 흡입된 공기를 방역해서 배출하는 장치이다. 이때, 방역이란 실내 공기의 청정도 등을 적절하게 조절하는 것을 말한다.
방역이기는 공기 중의 오염 물질을 제거하여 실내 공기의 청정도를 조절할 수 있다. 방역이기는 흡입된 공기 중에 존재하는 세균, 바이러스, 곰팡이, 미세먼지 및 악취의 원인이 되는 화학 물질 등을 제거할 수 있다.
방역이기에는 오염된 실내 공기를 정화하기 위한 필터가 구비될 수 있다. 방역이기로 흡입된 공기는 필터를 통과하는 동안 오염 물질이 제거되어 깨끗한 공기로 정화되고, 정화된 공기는 방역이기의 외부로 배출될 수 있다.
방역이기의 정화 동작을 위하여 방역 공간의 오염도를 측정할 필요가 있다. 방역 공간의 오염도를 측정하기 위하여, 방역이기는 공기 중에 포함된 미립자에 레이저 빔을 조사한 후 미립자에 의하여 산란된 빔의 양을 통해 오염도를 측정하는 파티클 센서(Particle sensor)를 포함할 수 있다.
방역이기는 이동이 불가능하며, 그로 인하여 공기 중의 오염 물질의 농도 변화에 대하여 능동적으로 대응하지 못한다.
개시된 발명의 일 측면은, 이동 가능한 방역 로봇 및 그 제어 방법을 제공하고자 한다.
개시된 발명의 일 측면은, 이동 중에 단차 및/또는 경사로를 감지하고 회피할 수 있는 방역 로봇 및 그 제어 방법을 제공하고자 한다.
개시된 발명의 일 측면에 의한 방역 로봇은, 토출구가 마련된 본체; 상기 본체의 내부에 마련된 팬; 상기 팬을 회전시키는 팬 모터; 상기 본체의 하부에 마련된 휠; 상기 휠을 회전시키는 휠 모터; 상기 본체의 전방을 향하는 시야를 가지고 3차원 이미지를 촬영하는 3차원 카메라; 및 상기 팬을 회전시켜 상기 토출구를 통하여 공기를 토출하도록 팬 모터를 제어하고, 상기 휠을 회전시켜 상기 3차원 이미지에 기초하여 상기 본체를 이동시키도록 상기 휠 모터를 제어하는 프로세서를 포함할 수 있다.
상기 프로세서는, 상기 3차원 이미지에 기초하여 상기 본체의 전방 바닥의 높이 변화를 식별하고, 상기 높이 변화가 제1 기준 값보다 큰 것에 기초하여 상기 높이 변화가 상기 제1 기준 값보다 큰 영역을 회피하도록 상기 휠 모터를 제어할 수 있다.
상기 프로세서는, 상기 3차원 이미지에 기초하여 상기 본체의 전방 바닥의 기울기 변화를 식별하고, 상기 기울기 변화가 제2 기준 값보다 큰 것에 기초하여 상기 기울기 변화가 상기 제2 기준 값보다 큰 영역을 회피하도록 상기 휠 모터를 제어할 수 있다.
상기 프로세서는, 상기 3차원 이미지를 복수의 버켓들로 구획하고, 상기 복수의 버켓들의 평균 거리를 획득하고, 인접한 버켓들의 평균 거리 사이의 차이에 기초하여 상기 인접한 버켓들의 높이 변화를 식별할 수 있다.
상기 프로세서는, 상기 높이 변화가 상기 제1 기준 값보다 큰 영역을 회피하도록 상기 휠 모터를 제어할 수 있다.
상기 프로세서는, 상기 인접한 버켓들의 높이 변화에 의한 각도에 기초하여 상기 인접한 버켓들 사이의 기울기를 식별하고, 상기 인접한 버켓들 사이의 기울기 사이의 차이에 기초하여 상기 인접한 버켓들 사이의 기울기 차이를 식별할 수 있다.
상기 프로세서는, 상기 기울기 변화가 제2 기준 값보다 큰 영역을 회피하도록 상기 휠 모터를 제어할 수 있다.
상기 프로세서는, 복수의 구역들을 포함하는 공기 정청 공간에 대응하는 지리적 맵 데이터와 상기 복수의 구역들의 대기질을 나타내는 대기질 맵 데이터를 포함하고, 상기 지리적 맵 데이터와 상기 대기질 맵 데이터에 기초하여 상기 본체를 이동시키도록 상기 휠 모터를 제어할 수 있다.
개시된 발명의 일 측면에 의한 토출구가 마련된 본체, 상기 본체의 내부에 마련된 팬 및 상기 본체의 하부에 마련된 휠을 포함하는 방역 로봇의 제어 방법은, 상기 본체의 전방을 향하는 시야를 가지는 3차원 카메라를 통하여 3차원 이미지를 촬영하고; 상기 토출구를 통하여 공기를 토출하도록 상기 팬을 회전시키고; 상기 3차원 이미지에 기초하여 상기 본체를 이동시키도록 상기 휠을 회전시키는 것을 포함할 수 있다.
개시된 발명의 일 측면에 의한 방역 로봇은, 토출구가 마련된 본체; 상기 본체의 내부에 마련된 팬; 상기 팬을 회전시키는 팬 모터; 상기 본체의 하부에 마련된 휠; 상기 휠을 회전시키는 휠 모터; 상기 본체의 전방을 향하는 시야를 가지고 라이다 데이터를 획득하는 라이다 센서; 및 상기 팬을 회전시켜 상기 토출구를 통하여 공기를 토출하도록 팬 모터를 제어하고, 상기 휠을 회전시켜 상기 라이다 데이터에 기초하여 상기 본체를 이동시키도록 상기 휠 모터를 제어하는 프로세서를 포함할 수 있다.
개시된 발명의 일 측면에 의한 토출구가 마련된 본체, 상기 본체의 내부에 마련된 팬 및 상기 본체의 하부에 마련된 휠을 포함하는 방역 로봇의 제어 방법은, 상기 본체의 전방을 향하는 시야를 가지는 라이다 센서를 통하여 라이다 데이터를 획득하고; 상기 토출구를 통하여 공기를 토출하도록 상기 팬을 회전시키고; 상기 라이다 데이터에 기초하여 상기 본체를 이동시키도록 상기 휠을 회전시키는 것을 포함할 수 있다.
개시된 발명의 일 측면에 따르면, 이동 가능한 방역 로봇 및 그 제어 방법을 제공할 수 있다.
개시된 발명의 일 측면에 따르면, 공기 중의 오염 물질의 농도 변화에 대하여 능동적으로 대응할 수 있는 방역 로봇 및 그 제어 방법을 제공할 수 있다.
도 1은 일 실시예에 의한 방역 로봇의 외형을 도시한다.
도 2는 일 실시예에 의한 방역 로봇의 구성을 도시한다.
도 3은 일 실시예에 의한 방역 로봇에 포함된 지리적 맵 데이터와 대기질 맵 데이터를 도시한다.
도 4는 일 실시예에 의한 방역 로봇에 포함된 라이다 센서의 일 예를 도시한다.
도 5는 일 실시예에 의한 방역 로봇이 바닥의 단차 및/또는 경사로를 식별하는 방법을 도시한다.
도 6은 일 실시예에 의한 방역 로봇의 구성을 도시한다.
도 7은 일 실시예에 의한 방역 로봇에 포함된 3차원 카메라의 일 예를 도시한다.
도 8은 일 실시예에 의한 방역 로봇이 바닥의 단차 및/또는 경사로를 식별하는 방법을 도시한다.
도 9는 일 실시예에 의한 방역 로봇이 3차원 영상을 처리하는 일 예를 도시한다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭할 수 있다.
본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다.
명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다. 또한, 명세서 전체에서 사용된 용어 "전방", "후방", "좌측" 및 "우측"등은 도면을 기준으로 정의한 것이며, 이 용어에 의하여 각 구성요소의 형상 및 위치가 제한되는 것은 아니다.
명세서 전체에서, 제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
명세서 전체에서, 단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별 부호는 설명의 편의를 위하여 사용되는 것으로 식별 부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예에 대해 설명한다.
도 1은 일 실시예에 의한 방역 로봇의 외형을 도시한다.
도 1을 참조하면, 방역 로봇(1)은 대략 원기둥 형태로 제공되는 방역 본체(10)와, 방역 본체(10)의 하부에 마련되는 이동 본체(20)를 포함할 수 있다. 다만, 방역 본체(10)와 이동 본체(20)의 형상은 원기둥에 제한되는 것은 아니며, 다면체 등 다양한 형상으로 마련될 수 있다. 또한, 방역 본체(10)와 이동 본체(20)는 분리 가능하게 마련되거나 또는 일체로 마련될 수 있다. 방역 본체(10)와 이동 본체(20)는 방역 로봇(1)의 방역 본체(10)에는, 방역 공간의 공기를 정화하기 위한 구성들이 마련될 수 있다. 예를 들어, 방역 본체(10)에는, 방역 공간의 공기를 흡입하는 팬(50)과, 흡입된 공기를 정화하는 필터 등이 마련될 수 있다.
방역 본체(10)의 상측에는 커버(30)가 마련될 수 있다.
커버(30)는 방역 본체(10)에 대하여 회전 가능하게 마련될 수 있다. 도 1에 도시된 바와 같이 커버(30)는 방역 본체(10)에 대하여 시계 방향 또는 반시계 방향으로 회전할 수 있다.
커버(30)에는, 필터에 의하여 정화된 공기가 토출되는 토출구(31)가 마련될 수 있다. 토출구(31)는 필터에 의하여 정화된 공기를 특정한 방향으로 토출할 수 있다.
토출구(31)는 커버(30)의 회전에 따라 회전할 수 있다. 예를 들어, 커버(30)가 방역 본체(10)에 대하여 시계 방향으로 회전하면 토출구(31) 역시 방역 본체(10)에 대하여 시계 방향으로 회전하며, 필터에 의하여 정화된 공기가 토출되는 방향 역시 시계 방향으로 회전할 수 있다. 또한, 커버(30)가 방역 본체(10)에 대하여 반시계 방향으로 회전하면 토출구(31) 역시 방역 본체(10)에 대하여 반시계 방향으로 회전하며, 필터에 의하여 정화된 공기가 토출되는 방향 역시 반시계 방향으로 회전할 수 있다.
이동 본체(20)에는, 방역 로봇(1)을 이동시키기 위한 구성들이 마련될 수 있다. 예를 들어, 이동 본체(20)에는, 방역 로봇(1)을 이동시키기 위한 제1 휠(41) 및 제2 휠(42)이 마련될 수 있다.
제1 휠(41) 및 제2 휠(42)은 이동 본체(20)의 저면에 마련될 수 있으며, 방역 로봇(1)이 이동할 수 있도록 회전할 수 있다. 예를 들어, 제1 휠2는 이동 본체(20)의 저면 좌측단에 마련되며, 제2 휠(42)는 이동 본체(20)의 저면 우측단에 마련될 수 있다. 제1 휠(41) 및 제2 휠(42)의 회전에 의하여 이동 본체(20)는 전방으로 또는 후방으로 또는 좌측으로 또는 우측으로 이동할 수 있다.
도 2는 일 실시예에 의한 방역 로봇의 구성을 도시한다. 도 3은 일 실시예에 의한 방역 로봇에 포함된 지리적 맵 데이터와 대기질 맵 데이터를 도시한다. 도 4는 일 실시예에 의한 방역 로봇에 포함된 라이다 센서의 일 예를 도시한다.
도 2, 도 3 및 도 4를 참고하면, 방역 로봇(1)은 컨트롤 패널(110), 오염 센서(120), 충돌 센서(131), 장애물 센서(132), 휠 드라이브(140), 주행 센서(150), 팬 드라이브(160), 커버 드라이브(170), 통신 모듈(180), 라이다 센서(210) 및/또는 프로세서(190)를 포함할 수 있다. 컨트롤 패널(110), 오염 센서(120), 충돌 센서(131), 장애물 센서(132), 휠 드라이브(140), 주행 센서(150), 팬 드라이브(160), 커버 드라이브(170), 통신 모듈(180), 라이다 센서(210) 및/또는 프로세서(190)는 방역 로봇(1)의 필수적 구성에 해당하지 아니하며, 이들 중 적어도 일부는 생략될 수 있다.
컨트롤 패널(110)은 사용자와 상호 작용을 위한 유저 인터페이스를 사용자에게 제공할 수 있다.
컨트롤 패널(110)은 입력 버튼(111) 또는 디스플레이(112)를 포함할 수 있다.
입력 버튼(111)은 방역 로봇(1)의 동작과 관련된 사용자의 입력을 획득할 수 있다. 예를 들어, 입력 버튼(111)는 방역 로봇(1)에 의하여 배출되는 공기의 풍량 또는 풍속을 획득할 수 있다.
입력 버튼(111)은, 택트 스위치(tact switch), 푸시 스위치, 슬라이드 스위치, 토클 스위치, 마이크로 스위치, 또는 터치 스위치를 포함할 수 있다.
디스플레이(112)는 방역 로봇(1)의 동작 정보를 표시할 수 있다. 또한, 디스플레이(112)는 방역 로봇(1)의 동작과 관련하여 획득된 사용자의 입력을 표시할 수 있다. 예를 들어, 디스플레이(112)는 방역 로봇(1)에 의하여 배출되는 풍량 또는 풍속 등을 표시할 수 있다.
디스플레이(112)는 예를 들어 액정 디스플레이(Liquid Crystal Display, LCD) 패널, 발광 다이오드(Light Emitting Diode, LED) 패널 등을 포함할 수 있다.
오염 센서(120)는 방역 공간의 공기 중에 포함된 오염 물질에 관한 정보를 수집할 수 있다. 예를 들어, 오염 센서(120)는 공기 중에 포함된 냄새를 유발하는 입자(이하에서는 '가스'라 한다)의 농도에 관한 정보 및/또는 먼지의 농도에 관한 정보를 수집할 수 있다.
오염 센서(120)는 가스 센서(121), 먼지 센서(122), 오존 센서(123) 및/또는 이산화탄소 센서(124)를 포함할 수 있다. 가스 센서(121), 먼지 센서(122), 오존 센서(123) 및/또는 이산화탄소 센서(124)는 필수적 구성에 해당하지 아니하며, 이들 중 적어도 일부는 생략될 수 있다.
가스 센서(121)는 공기 중에 포함된 가스의 농도를 측정하고, 가스의 농도를 나타내는 전기적 신호를 출력할 수 있다. 예를 들어, 가스 센서(121)는, 반도체 표면에 가스가 포집될 때 발생하는 반도체 소자의 전기 전도도의 변화를 이용하여, 공기 중의 가스를 검출하거나 또는 공기 중의 가스의 농도를 측정할 수 있다.
프로세서(190)는 가스 센서(121)의 출력에 기초하여 방역 공간의 공기 중에 포함된 가스의 농도를 식별할 수 있다.
먼지 센서(122)는 공기 중에 포함된 먼지의 농도를 측정하고, 먼지의 농도를 나타내는 전기적 신호를 출력할 수 있다. 예를 들어, 먼지 센서(122)는 공기 중에 포함된 먼지에 의한 광의 산란을 이용하여 공기 중의 먼지를 검출하거나 또는 공기 중의 먼지의 농도를 측정할 수 있다.
프로세서(190)는 먼지 센서(122)의 출력에 기초하여 방역 공간의 공기 중에 포함된 먼지의 농도를 식별할 수 있다.
오존 센서(123)는 공기 중에 포함된 오존의 농도를 측정하고, 오존의 농도를 나타내는 전기적 신호를 출력할 수 있다. 예를 들어, 오존 센서(123)는, 반도체 표면에 가스가 포집될 때 발생하는 반도체 소자의 전기 전도도의 변화를 이용하여, 공기 중의 오존을 검출하거나 또는 공기 중의 오존의 농도를 측정할 수 있다.
프로세서(190)는 오존 센서(123)의 출력에 기초하여 방역 공간의 공기 중에 포함된 가스의 농도를 식별할 수 있다.
이산화탄소 센서(124)는 공기 중에 포함된 이산화탄소의 농도를 측정하고, 이산화탄소의 농도를 나타내는 전기적 신호를 출력할 수 있다. 예를 들어, 이산화탄소 센서(124)는 공기 중에 포함된 이산화탄소에 의한 적외선의 흡수를 이용하여 공기 중의 이산화탄소를 검출하거나 또는 공기 중의 이산화탄소의 농도를 측정할 수 있다.
프로세서(190)는 이산화탄소 센서(124)의 출력에 기초하여 방역 공간의 공기 중에 포함된 이산화탄소의 농도를 식별할 수 있다.
충돌 센서(131)는 이동 본체(20)의 범퍼 내측에 위치할 수 있으며, 장애물과의 충돌을 식별할 수 있다.
범퍼는 이동 본체(20)의 전면에 마련될 수 있으며, 장애물과의 충돌 시에 이동 본체(20)에 전달되는 충격을 저감시킬 수 있다. 범퍼는 장애물과의 충돌 시에 충돌에 의한 충격을 충돌 스위치로 전달할 수 있다.
예를 들어, 충돌 센서(131)는 충돌 스위치를 포함할 수 있다. 충돌 스위치는 범퍼와 장애물 사이의 충돌을 검출할 수 있다. 개방(오프)된 충돌 스위치는 범퍼와 장애물 사이의 충돌에 의하여 폐쇄(온)될 수 있다. 범퍼가 장애물과 충돌할 때, 충돌 스위치는 장애물과의 충돌을 나타내는 충돌 감지 신호(예를 들어, 전압 신호 또는 전압 신호)를 프로세서(190)에 제공할 수 있다.
장애물 센서(132)는 이동 본체(20) 내측에 위치할 수 있다. 장애물 센서(132)는 장애물과의 접촉 또는 충돌 없이 장애물의 존재 여부 및/또는 장애물까지의 거리를 식별할 수 있다.
장애물 센서(132)는 이동 본체(20)의 전방을 향하여 적외선, 초음파 또는 전파를 발신하고, 장애물에서 반사되는 적외선, 초음파 또는 전파를 수신할 수 있다. 장애물 센서(132)는 수신된 적외선, 초음파 또는 전파에 기초하여 장애물의 존재 여부 및/또는 장애물까지의 거리를 식별할 수 있다.
예를 들어, 장애물 센서(132)는 적외선을 발신하는 포토 다이오드 및 포토 센서를 포함할 수 있다. 포토 다이오드는 방역 로봇(1)의 전방을 향하여 적외선을 발신할 수 있으며, 포토 센서는 방역 로봇(1)의 전방에 위치하는 장애물에서 반사된 적외선을 수신할 수 있다. 장애물 센서(132)는 포토 센서에 의하여 수신된 적외선의 세기에 기초하여 장애물의 존재 여부 및/또는 장애물까지의 거리를 식별할 수 있다.
휠 드라이브(140)는 프로세서(190)의 제어 신호에 응답하여 이동 본체(20)를 이동시킬 수 있다.
휠 드라이브(140)는 제1 휠 모터(141)와, 제2 휠 모터(142)를 포함할 수 있다. 제1 휠 모터(141)는 제1 휠(41)를 회전시키며, 제2 휠 모터(142)는 제2 휠(42)를 회전시킬 수 있다. 제1 휠 모터(141)와 제2 휠 모터(142)는 프로세서(190)의 제어 신호에 의하여 서로 독립적으로 제1 휠(41)와 제2 휠(42)를 회전시킬 수 있다. 제1 휠(41)는 제1 휠 모터(141)에 의하여 제2 휠(42)의 회전과 독립적으로 회전할 수 있으며, 제2 휠(42)는 제2 휠 모터(142)에 의하여 제1 휠(41)의 회전과 독립적으로 회전할 수 있다.
휠 드라이브(140)는 프로세서(190)의 제어 신호에 응답하여 제1 휠 모터(141)와 제2 휠 모터(142)에 각각 구동 전류를 공급하는 구동 회로와, 제1 및 제2 휠 모터들(141, 142)의 회전을 각각 제1 및 제2 휠들(41, 42)로 전달하는 동력 전달 수단 등을 더 포함할 수 있다.
주행 센서(150)는 제1 휠(41)와 제2 휠(42)에 설치되며, 제1 휠(41) 및 제2 휠(42)의 회전 속도 및 회전 방향을 감지할 수 있다.
주행 센서(150)는 제1 엔코더(151)와 제2 엔코더(152)를 포함한다.
제1 엔코더(151)는 제1 휠(41)의 회전 속도와 회전 방향을 감지하고, 제2 엔코더(152)는 제2 휠(42)의 회전 속도와 회전 방향을 감지할 수 있다.
예를 들어, 제1 엔코더(151)와 제2 엔코더(152)는 각각 복수의 슬릿들이 형성된 디스크와 광을 발신하는 발광 다이오드와 복수의 슬릿들을 통과한 광을 감지할 수 있는 포토 다이오드를 포함할 수 있다. 제1 엔코더(151)와 제2 엔코더(152)는 각각 포토 다이오드에 의하여 감지된 광의 감지 주기 및 감지 횟수에 기초하여 제1 휠(41)와 제2 휠(42)의 회전 속도와 회전 방향을 식별할 수 있다.
또한, 제1 엔코더(151)와 제2 엔코더(152)는 각각 복수의 영구 자석들이 설치된 디스크와 복수의 영구 자석들에 의한 자기장을 감지할 수 있는 홀 센서를 포함할 수 있다. 제1 엔코더(151)와 제2 엔코더(152)는 각각 홀 센서에 의하여 감지된 자기장의 감지 주기 및 감지 횟수에 기초하여 제1 휠(41)와 제2 휠(42)의 회전 속도와 회전 방향을 식별할 수 있다.
제1 엔코더(151)와 제2 엔코더(152)는 각각 제1 휠(41)의 회전 속도와 회전 방향에 관한 정보와 제2 휠(42)의 회전 속도와 회전 방향에 관한 정보를 프로세서(190)에 제공할 수 있다.
팬 드라이브(160)는 프로세서(190)의 제어 신호에 응답하여 방역 본체(10)에 포함된 팬(50)을 구동할 수 있다.
팬 드라이브(160)는 팬 모터(161)를 포함할 수 있다. 팬 모터(161)는 팬(50)을 회전시킬 수 있다. 팬(50)의 회전에 의하여 방역 로봇(1)의 외부 공기가 방역 로봇(1)의 내부로 흡입될 수 있다. 흡입된 공기는 팬(50)의 회전에 의하여 필터로 강제로 유동될 수 있다. 흡입된 공기가 필터를 통과하는 동안 흡입된 공기에 포함된 이물질 등은 필터에 의하여 걸러질 수 있다.
팬 드라이브(160)는 프로세서(190)의 제어 신호에 응답하여 팬 모터(161)에 구동 전류를 공급하는 구동 회로와 팬 모터(161)의 회전을 팬(50)으로 전달하는 동력 전달 수단 등을 더 포함할 수 있다.
커버 드라이브(170)는 프로세서(190)의 제어 신호에 응답하여 커버(30)를 회전시킬 수 있다.
커버 드라이브(170)는 커버 모터(171)를 포함할 수 있다. 커버 모터(171)는 커버(30)의 회전축과 연결되며, 방역 본체(10)에 대하여 커버(30)를 시계 방향으로 또는 반시계 방향으로 회전시킬 수 있다. 커버(30)의 회전에 의하여 토출구(31)가 향하는 방향이 변경될 수 있으며, 또한 필터를 통과한 공기가 토출되는 방향이 변경될 수 있다.
커버 드라이브(170)는 프로세서(190)의 제어 신호에 응답하여 팬 모터(161)에 구동 전류를 공급하는 구동 회로와 커버 모터(171)의 회전을 커버(30)로 전달하는 동력 전달 수단 등을 더 포함할 수 있다.
통신 모듈(180)은 사용자 장치(예를 들어, 휴대용 장치 등)와 데이터를 주고 받을 수 있는 통신 회로 및/또는 서비스 장치(예를 들어, 서버 장치 등)와 데이터를 주고 받을 수 있는 통신 회로를 포함할 수 있다.
통신 모듈(180)은 사용자 장치 및/또는 서비스 장치와 무선으로 데이터를 주고 받을 수 있는 무선 통신 모듈(181)을 포함할 수 있다.
무선 통신 모듈(181)은 예를 들어 기지국(base station) 또는 액세스 포인트(AP)와 무선으로 통신할 수 있으며, 기지국 또는 액세스 포인트를 통하여 유선 통신망에 접속할 수 있다. 무선 통신 모듈(181)은, 기지국 또는 액세스 포인트를 거쳐, 유선 통신망에 접속된 사용자 장치 및/또는 서비스 장치와 통신할 수 있다. 예를 들어, 무선 통신 모듈(181)은 와이파이(WiFi™, IEEE 802.11 기술 표준)을 이용하여 액세스 포인트(AP)와 무선으로 통신하거나, CDMA, WCDMA, GSM, LTE(Long Term Evolution), 와이브로 등을 이용하여 기지국과 통신할 수 있다. 무선 통신 모듈(181)은 또한 유선 통신망을 통하여 서비스 장치를 거쳐 사용자 장치와 데이터를 송수신할 수 있다.
또한, 무선 통신 모듈(181)은 사용자 장치와 직접 무선으로 통신할 수 있다. 예를 들어, 무선 통신 모듈(181)은 와이파이 다이렉트, 블루투스 (Bluetooth™, IEEE 802.15.1 기술 표준), 지그비(ZigBee™, IEEE 802.15.4 기술 표준) 등을 이용하여 사용자 장치와 무선으로 데이터를 송수신할 수 있다.
라이다 센서(210)는 방역 로봇(1)의 주변을 향하여 광(예를 들어, 적외선)을 발신하고 장애물 및/또는 단차로부터 반사된 반사 광에 기초하여 방역 로봇(1)의 장애물 및/또는 단차를 검출할 수 있다. 예를 들어, 라이다 센서(210)는 도 4에 도시된 바와 같이 방역 로봇(1)의 이동 본체(20)에 설치될 수 있으며, 방역 로봇(1)의 전방 바닥을 향하는 시야(210a)를 가질 수 있다.
라이다 센서(210)는 광(예를 들어, 적외선 등)을 발신하는 광원(예를 들어, 발광 다이오드, 발광 다이오드 어레이, 레이저 다이오드 또는 레이저 다이오드 어레이) (211)과, 광(예를 들어, 적외선 등)을 수신하는 광 센서(예를 들어, 포토 다이오드 또는 포토 다이오드 어레이) (212)를 포함할 수 있다. 또한, 필요에 따라, 라이다 센서(210)는 광원 및/또는 광 센서를 회전시키는 구동 장치를 더 포함할 수 있다.
라이다 센서(210)는 광원(211)을 통하여 광을 방출하고 바닥, 장애물 또는 단차에서 반사된 광을 광 센서를 통하여 수신할 수 있으며, 그에 의하여 라이다 데이터를 획득할 수 있다. 라이다 데이터는 방역 로봇(1)의 주변 장애물 및/또는 단차의 상대 위치(주변 객체의 거리 및/또는 주변 객체의 방향) 및/또는 상대 속도를 포함할 수 있다.
라이다 센서(210)는 라이다 데이터를 프로세서(190)에 제공할 수 있다.
프로세서(190)는 컨트롤 패널(110), 오염 센서(120), 충돌 센서(131), 장애물 센서(132), 휠 드라이브(140), 주행 센서(150), 팬 드라이브(160), 커버 드라이브(170), 통신 모듈(180) 및/또는 라이다 센서(210)와 전기적으로 연결될 수 있다.
프로세서(190)는 센서로부터 방역 로봇(1)의 주변 정보를 획득하고, 획득된 정보에 기초하여 방역 로봇(1)의 동작을 제어하기 위한 제어 신호를 생성할 수 있다.
프로세서(190)는 컨트롤 패널(110), 오염 센서(120), 충돌 센서(131), 장애물 센서(132), 주행 센서(150) 및/또는 라이다 센서(210)로부터 수신된 전기적 신호 또는 데이터를 처리하고, 관련된 환경 정보를 획득할 수 있다. 예를 들어, 프로세서(190)는 컨트롤 패널(110)으로부터 사용자 입력에 관한 정보를 획득할 수 있다. 프로세서(190)는 충돌 센서(131)로부터 장애물과의 충돌에 관한 정보를 획득할 수 있다. 프로세서(190)는 장애물 센서(132)로부터 장애물의 존재 여부 및 장애물까지의 거리에 관한 정보를 획득할 수 있다. 프로세서(190)는 주행 센서(150)로부터 제1 및 제2 휠들(41, 42)의 회전 속도와 회전 방향에 관한 정보를 수신할 수 있다. 프로세서(190)는 라이다 센서(210)로부터 단차 및/또는 경사로에 관한 정보를 포함하는 라이다 데이터를 획득할 수 있다.
프로세서(190)는 획득된 정보를 처리한 것에 기초하여 휠 드라이브(140), 팬 드라이브(160) 및 커버 드라이브(170)에 제어 신호 또는 제어 데이터를 제공할 수 있다. 예를 들어, 프로세서(190)는 단차 및/또는 경사로에 관한 정보에 기초하여 제1 및 제2 휠들(41, 42)을 회전시키도록 제1 및 제2 휠 모터들(141, 142)을 제어할 수 있다. 프로세서(190)는 장애물에 관한 정보(충돌, 존재 여부 또는 거리)에 기초하여 제1 및 제2 휠들(41, 42)을 회전시키도록 제1 및 제2 휠 모터들(141, 142)을 제어할 수 있다. 프로세서(190)는 사용자 입력에 관한 정보에 기초하여 팬(50)을 회전시키도록 팬 모터(161)를 제어할 수 있다. 프로세서(190)는 사용자 입력에 관한 정보에 기초하여 커버(30)를 회전시키도록 커버 모터(171)를 제어할 수 있다.
프로세서(190)는 통신 모듈(180)로부터 수신 신호를 수신할 수 있으며, 또한 송신 신호를 통신 모듈(180)에 제공할 수 있다.
프로세서(190)는 제어 신호를 생성하기 위한 프로그램 및 데이터를 기억 및/또는 저장하는 메모리(191)를 포함할 수 있다.
메모리(191)는 컨트롤 패널(110), 오염 센서(120), 충돌 센서(131), 장애물 센서(132) 및 주행 센서(150)으로부터 수신된 전기적 신호 또는 데이터를 임시로 기억하고, 수신된 전기적 신호 또는 데이터를 처리하는 중에 발생하는 임시 데이터를 기억할 수 있다. 또한, 메모리(191)는 휠 드라이브(140), 팬 드라이브(160) 및 커버 드라이브(170)에 제공하기 위한 제어 신호 또는 제어 데이터를 임시로 기억할 수 있다.
메모리(191)는 S램(S-RAM), D램(D-RAM) 등의 휘발성 메모리뿐만 아니라 플래시 메모리, 롬(Read Only Memory, ROM), 이피롬(Erasable Programmable Read Only Memory: EPROM) 등의 비휘발성 메모리를 포함할 수 있다.
메모리(191)는 프로세서(190)와 일체로 마련되거나 또는 프로세서(190)와 별도로 마련될 수 있다.
이처럼, 프로세서(190)는 방역 로봇(1)이 방역 공간을 주행하고 방역 공간의 공기를 정화할 수 있도록 방역 로봇(1)에 포함된 구성들을 제어할 수 있다.
프로세서(190)는 방역 공간을 효율적으로 주행하기 위하여 방역 공간의 지리적 맵 데이터를 메모리(191)에 저장할 수 있다.
예를 들어, 방역 공간의 지리적 맵 데이터는 사전에 저장되거나 또는 방역 로봇(1)이 방역 공간을 주행하는 동안 기록된 주행 기록에 기초하여 생성될 수 있다.
예를 들어, 프로세서(190)는 방역 로봇(1)의 주행 중에 주행 센서(150)로부터 제1 및 제2 휠들(41, 42)의 회전에 관한 정보(예를 들어, 회전 속도 및/또는 회전 방향에 관한 정보)를 획득하고, 제1 및 제2 휠들(41, 42)의 회전에 관한 정보에 기초하여 방역 로봇(1)의 이동 속도 및 이동 방향을 나타내는 이동 벡터를 판단할 수 있다.
프로세서(190)는 기준점의 위치와 방역 로봇(1)의 이동 벡터에 기초하여 방역 로봇(1)의 현재 위치(기준점으로부터 상대 위치)를 판단할 수 있다. 프로세서(190)는 미리 정해진 시간마다 획득된 방역 로봇(1)의 현재 위치들을 포함하는 주행 기록을 저장할 수 있다. 또한, 프로세서(190)는 주행 기록에 기초하여 방역 공간의 지리적 맵 데이터를 생성하고, 방역 공간을 효율적으로 주행할 수 있다.
지리적 맵 데이터는 방역 로봇(1)이 주행할 수 있는 구역에 관한 정보를 포함할 수 있다. 지리적 맵 데이터의 방역 공간은 방역 로봇(1)이 주행할 없는 장애물 등의 배치에 따라 복수의 구역들로 구획될 수 있다. 예를 들어, 지리적 맵 데이터는 도 3(a)에 도시된 바와 같이 장애물 등의 배치에 따라 제1 구역(R1), 제2 구역(R2), 제3 구역(R3), 제4 구역(R4), 제5 구역(R5), 제6 구역(R6), 제7 구역(R7), 제8 구역(R8), 제9 구역(R9) 및 제10 구역(R10)으로 구획될 수 있다.
프로세서(190)는 방역 공간의 공기를 효율적으로 정화하기 위하여 방역 공간의 대기질 맵 데이터를 메모리(191)에 저장할 수 있다.
예를 들어, 방역 공간의 대기질 맵 데이터는 사전에 저장되거나 또는 방역 로봇(1)이 방역 공간을 주행하는 동안 기록된 대기질 기록에 기초하여 생성될 수 있다.
프로세서(190)는 방역 로봇(1)이 방역 공간을 주행하는 동안 방역 로봇(1)의 현재 위치들을 포함하는 주행 기록을 저장할 수 있다. 이때, 프로세서(190)는 오염 센서(120)의 출력에 기초하여 현재 위치에 대응하는 대기 오염도를 획득할 수 있다. 대기 오염도는 공기의 오염된 정도를 나타내며, 가스 농도, 먼지 농도, 오존 농도 및/또는 이산화탄소 농도에 기초하여 산출될 수 있다. 대기 오염도가 높은 것은 공기의 가스 농도, 먼지 농도, 오존 농도 및/또는 이산화탄소 농도가 높고 대기질이 낮은 것을 나타내며, 대기 오염도가 낮은 것은 공기의 가스 농도, 먼지 농도, 오존 농도 및/또는 이산화탄소 농도가 낮고 대기질이 높은 것을 나타낼 수 있다.
프로세서(190)는 현재 위치에 대응하는 대기 오염도에 기초하여 지리적 맵 데이터에 대응하는 대기질 맵 데이터를 생성할 수 있다.
앞서 설명된 바와 같이, 지리적 맵 데이터의 방역 공간은 복수의 구역들로 구획될 수 있다. 대기질 맵 데이터는 복수의 구역들 각각에 대응하는 대기 오염도를 포함할 수 있다. 예를 들어, 대기질 맵 데이터는 도 3(b)에 도시된 바와 같이, 제1 구역(R1)의 대기 오염도, 제2 구역(R2)의 대기 오염도, 제3 구역(R3)의 대기 오염도, 제4 구역(R4)의 대기 오염도, 제5 구역(R5)의 대기 오염도, 제6 구역(R6)의 대기 오염도, 제7 구역(R7)의 대기 오염도, 제8 구역(R8)의 대기 오염도, 제9 구역(R9)의 대기 오염도 및 제10 구역(R10)의 대기 오염도를 포함할 수 있다.
프로세서(190)는 지리적 맵 데이터와 대기질 맵 데이터에 기초하여 방역 공간의 공기를 효율적으로 정화하기 위하여 방역 공간에 주행하도록 방역 로봇(1)을 제어할 수 있다.
방역 로봇(1)은 방역 공간의 바닥의 오염도를 판단하고, 자외선 광원(UV LED)를 이용하여 방역 공간의 바닥을 살균할 수 있다. 예를 들어, 프로세서(190)는 방역 로봇(1)가 방역 공간을 주행하는 중에 적외선 센서 등을 이용하여 방역 공간의 바닥의 오염도를 식별할 수 있으며, 식별된 바닥의 오염도에 기초하여 바닥의 오염도 맵 데이터를 생성할 수 있다. 프로세서(190)은 바닥의 오염도 맵 데이터에 기초하여 바닥을 살균하기 위한 주행 경로를 생성하고, 생성된 주행 경로를 따라 주행하도록 휠 드라이브(140)를 제어할 수 있다. 또한, 프로세서(190)는 방역 로봇(1)이 방역 공간을 주행하는 중에 방역 공간의 바닥을 살균할 수 있다. 구체적으로, 프로세서(190)는 방역 공간의 바닥을 향하여 자외선을 조사하도록 자외선 광원을 제어할 수 있다.
방역 로봇(1)이 방역 공간을 효율적으로 주행하는 구체적인 방법은 아래에서 자세하게 설명된다.
도 5는 일 실시예에 의한 방역 로봇이 바닥의 단차 및/또는 경사로를 식별하는 방법을 도시한다.
도 5와 함께, 방역 로봇(1)이 바닥의 단차 및/또는 경사로를 식별하는 방법(1000)이 설명된다.
방역 로봇(1)은 방역 공간의 바닥 데이터를 획득할 수 있다(1010).
프로세서(190)는 방역 로봇(1)이 방역 공간을 주행하는 동안 바닥에 관한 정보를 획득하도록 라이다 센서(210)를 제어할 수 있다.
라이다 센서(210)는 방역 로봇(1)이 주행하는 바닥을 향하여 광을 발신하도록 광원(211)을 제어하고, 광 센서(212)를 통하여 바닥에서 반사된 광을 획득할 수 있다. 라이다 센서(210)는 반사된 광에 기초하여 바닥의 높이 정보를 포함하는 라이다 데이터를 프로세서(190)에 제공할 수 있다.
프로세서(190)는 라이다 센서(210)로부터 바닥의 높이 정보를 포함하는 라이다 데이터를 획득할 수 있다.
방역 로봇(1)은 바닥 상태를 판단할 수 있다(1020).
프로세서(190)는 라이다 센서(210)로부터 획득된 라이다 데이터를 처리하여, 바닥의 높이 변화(예를 들어, 단차 및/또는 경사로)를 식별할 수 있다. 예를 들어, 프로세서(190)는 바닥의 높이 변화 및/또는 바닥의 기울기 변화 등을 식별할 수 있다.
방역 로봇(1)은 바닥의 높이 변화가 제1 기준 값보다 큰지 여부를 판단할 수 있다(1030).
프로세서(190)는 이전에 획득된 바닥의 높이와 현재 획득된 바닥의 높이 사이의 차이에 기초하여 바닥의 높이 변화를 식별할 수 있다.
프로세서(190)는 바닥의 높이 변화를 제1 기준 값과 비교하고, 바닥의 높이 변화가 제1 기준 값보다 큰지 여부를 식별할 수 있다. 여기서, 제1 기준 값은 실험적으로 또는 경험적으로 설정될 수 있으며, 예를 들어 방역 로봇(1)이 통과할 수 없는 단차에 기초하여 설정될 수 있다. 예를 들어, 제1 기준 값은 3cm에서 7cm 사이의 값일 수 있으며, 바람직하게는 5cm 내외일 수 있다.
바닥의 높이 변화가 제1 기준 값보다 크지 아니하면(1030의 아니오), 방역 로봇(1)은 바닥의 기울기 변화가 제2 기준 값보다 큰지 여부를 판단할 수 있다(1040).
프로세서(190)는 라이다 센서(210)의 샘플링 주기와 방역 로봇(1)의 이동 속도에 기초하여 라이다 센서(210)의 샘플링 주기 사이에 방역 로봇(1)이 이동한 거리를 산출할 수 있다. 프로세서(190)는 라이다 센서(210)의 샘플링 주기 사이에 방역 로봇(1)이 이동한 거리와 바닥의 높이 변화에 기초하여 바닥의 기울기를 식별할 수 있다. 또한, 프로세서(190)는 이전에 획득된 바닥의 기울기와 현재 획득된 바닥의 기울기 사이의 차이에 기초하여 바닥의 기울기 변화를 식별할 수 있다.
프로세서(190)는 바닥의 기울기 변화를 제2 기준 값과 비교하고, 바닥의 기울기 변화가 제2 기준 값보다 큰지 여부를 식별할 수 있다. 여기서, 제2 기준 값은 실험적으로 또는 경험적으로 설정될 수 있으며, 예를 들어 방역 로봇(1)이 통과할 수 없는 기울기 변화에 기초하여 설정될 수 있다. 예를 들어, 제2 기준 값은 10도에서 20도 사이의 값일 수 있으며, 바람직하게는 15도 내외일 수 있다.
바닥의 기울기 변화가 제2 기준 값보다 크지 아니하면(1040의 아니오), 방역 로봇(1)은 기존의 주행을 계속할 수 있다(1050).
바닥의 높이 변화가 제1 기준 값보다 크지 아니하고 바닥의 기울기 변화가 제2 기준 값보다 크지 아니하며, 프로세서(190)는 현재 주행 중인 경로를 따라 주행하는 것을 계속할 수 있다.
바닥의 높이 변화가 제1 기준 값보다 크거나(1030의 예) 또는 바닥의 기울기 변화가 제2 기준 값보다 크면(1040의 예), 방역 로봇(1)은 바닥의 단차 또는 경사로를 회피할 수 있다(1060).
바닥의 높이 변화가 제1 기준 값보다 크면, 프로세서(190)는 방역 로봇(1)이 바닥의 단차(예를 들어, 바닥의 높이 변화가 제1 기준 값보다 큰 위치)의 외곽선을 따라 주행하도록 제1 및 제2 휠들(41, 42)의 회전을 제어할 수 있다.
또한, 바닥의 기울기 변화가 제2 기준 값보다 크면, 프로세서(190)는 바닥의 경사로(예를 들어, 바닥의 기울기 변화가 제2 기준 값보다 큰 위치)의 외곽선을 따라 주행하도록 제1 및 제2 휠들(41, 42)의 회전을 제어할 수 있다.
이상에서 설명된 바와 같이, 방역 로봇(1)은 라이다 센서(210)를 이용하여 바닥의 단차 및/또는 경사로를 식별할 수 있다. 방역 로봇(1)은 바닥의 단차 및/또는 경사로의 식별에 응답하여 단차 및/또는 경사로를 회피할 수 있다. 그에 의하여 바닥의 단차 및/또는 경사로로 인하여 방역 로봇(1)의 이동이 제한되는 것이 억제, 최소화 또는 방지될 수 있다.
도 6은 일 실시예에 의한 방역 로봇의 구성을 도시한다. 도 7은 일 실시예에 의한 방역 로봇에 포함된 3차원 카메라의 일 예를 도시한다.
도 6 및 도 7을 참조하면, 방역 로봇(1)은 컨트롤 패널(110), 오염 센서(120), 충돌 센서(131), 장애물 센서(132), 휠 드라이브(140), 주행 센서(150), 팬 드라이브(160), 커버 드라이브(170), 통신 모듈(180), 3차원 카메라(220) 및/또는 프로세서(190)를 포함할 수 있다. 컨트롤 패널(110), 오염 센서(120), 충돌 센서(131), 장애물 센서(132), 휠 드라이브(140), 주행 센서(150), 팬 드라이브(160), 커버 드라이브(170), 통신 모듈(180), 3차원 카메라(220) 및/또는 프로세서(190)는 방역 로봇(1)의 필수적 구성에 해당하지 아니하며, 이들 중 적어도 일부는 생략될 수 있다.
컨트롤 패널(110), 오염 센서(120), 충돌 센서(131), 장애물 센서(132), 휠 드라이브(140), 주행 센서(150), 팬 드라이브(160), 커버 드라이브(170), 통신 모듈(180) 및/또는 프로세서(190)는 도 2에 도시된 컨트롤 패널(110), 오염 센서(120), 충돌 센서(131), 장애물 센서(132), 휠 드라이브(140), 주행 센서(150), 팬 드라이브(160), 커버 드라이브(170), 통신 모듈(180) 및/또는 프로세서(190)와 동일할 수 있다.
3차원 카메라(220)는 방역 로봇(1) 주변의 3차원 이미지를 획득할 수 있다. 3차원 이미지는 매트릭스 형태로 배치되는 복수의 픽셀들을 포함하는 2차원 이미지와 2차원 이미지를 구성하는 복수의 픽셀들 각각의 거리 정보를 포함할 수 있다. 다시 말해, 3차원 이미지는 2차원 이미지와 각 픽셀들의 거리 정보를 포함할 수 있다.
예를 들어, 도 7에 도시된 바와 같이 3차원 카메라(220)는 방역 로봇(1)의 커버(30)에 마련될 수 있으며, 방역 로봇(1)의 전방 바닥을 향하는 시야(220a)를 가질 수 있다.
각 픽셀들의 거리 정보를 포함하는 3차원 이미지를 획득하기 위하여 3차원 카메라(220)는 서로 이격된 한 쌍의 카메라(예를 들어, 스테레오 카메라)를 포함하거나 또는 카메라와 거리 센서(예를 들어, 적외선 센서 또는 초음파 센서 등)를 포함할 수 있다.
3차원 카메라(220)가 한 쌍의 카메라를 포함하는 경우, 3차원 카메라(220)는, 한 쌍의 카메라에 의하여 촬영된 한 쌍의 이미지 사이의 차이에 기초하여, 촬영된 대상까지의 거리를 식별할 수 있다. 또한, 3차원 카메라(220)가 거리 센서를 포함하는 경우, 3차원 카메라(220)는 거리 센서의 출력에 기초하여, 촬영된 대상까지의 거리를 식별할 수 있다.
3차원 카메라(220)는 거리 정보와 2차원 이미지를 포함하는 3차원 이미지를 프로세서(190)에 제공할 수 있다.
프로세서(190)는 3차원 카메라(220)로부터 수신된 3차원 이미지를 처리하고, 관련된 환경 정보를 획득할 수 있다. 프로세서(190)는 3차원 이미지를 처리하고 방역 공간의 단차 및/또는 경사로에 관한 정보를 획득할 수 있다.
이하에서는 방역 로봇(1)이 방역 공간을 효율적으로 주행하는 구체적인 방법이 자세하게 설명된다.
도 8은 일 실시예에 의한 방역 로봇이 바닥의 단차 및/또는 경사로를 식별하는 방법을 도시한다. 도 9는 일 실시예에 의한 방역 로봇이 3차원 영상을 처리하는 일 예를 도시한다.
도 8 및 도 9와 함께, 방역 로봇(1)이 바닥의 단차 및/또는 경사로를 식별하는 방법(1100)이 설명된다.
방역 로봇(1)은 방역 공간 바닥의 3차원 이미지 데이터를 획득할 수 있다(1010).
프로세서(190)는 방역 로봇(1)이 방역 공간을 주행하는 동안 바닥에 관한 정보를 획득하도록 3차원 카메라(220)를 제어할 수 있다.
3차원 카메라(220)는 방역 로봇(1)이 주행하는 바닥의 3차원 이미지를 획득하고, 3차원 이미지를 프로세서(190)에 제공할 수 있다.
프로세서(190)는 예를 들어 도 8에 도시된 바와 같이 바닥의 높이 정보를 포함하는 3차원 이미지를 획득할 수 있다.
방역 로봇(1)은 바닥 상태를 판단할 수 있다(1020).
프로세서(190)는 3차원 이미지를 처리하여, 바닥의 높이 변화(예를 들어, 단차 및/또는 경사로)를 식별할 수 있다. 예를 들어, 프로세서(190)는 바닥의 높이 변화 및/또는 바닥의 기울기 변화 등을 식별할 수 있다.
프로세서(190)는 3차원 이미지에 포함된 복수의 픽셀들을 복수의 버켓(bucket)으로 분류할 수 있다. 예를 들어, 프로세서(190)는 640*480 픽셀들을 포함하는 3차원 이미지를 획득할 수 있으며, 3차원 이미지를 20*20 버켓들로 구획할 수 있다.
프로세서(190)는 버켓들 각각의 평균 거리를 산출할 수 있다. 예를 들어, 프로세서(190)는 수학식 1을 이용하여 버겟들 각각의 평균 거리를 산출할 수 있다.
[수학식 1]
여기서, Mij는 i번째 행, j번째 열의 버켓의 평균 거리를 나타내며, pk는 버켓 내의 픽셀들의 거리를 나타낼 수 있다.
프로세서(190)는 버켓들 각각의 평균 거리에 기초하여 높이 변화를 식별할 수 있다. 구체적으로, 프로세서(190)는 인접한 버켓들 각각의 평균 거리 사이의 차이에 기초하여 바닥의 높이 변화를 식별할 수 있다. 예를 들어, 프로세서(190)는 수학식 2를 이용하여 높이 변화를 식별할 수 있다.
[수학식 2]
여기서, Zi,j은 i번째 행, j번째 열의 거리(높이)를 나타내며, Zi+1,j+1은 i+1번째 행, j+1번째 열의 거리(높이)를 나타내며, Hleft,i,j은 i번째 행, j번째 열의 전방 좌측의 높이 차이를 나타낼 수 있다.
Zi-1,j+1은 i-1번째 행, j+1번째 열의 거리(높이)를 나타내며, Hright,i,j은 i번째 행, j번째 열의 전방 우측의 높이 차이를 나타낼 수 있다.
또한, Zi,j+1은 i번째 행, j+1번째 열의 거리(높이)를 나타내며, Hfront,i,j은 i번째 행, j번째 열의 전방의 높이 차이를 나타낼 수 있다.
프로세서(190)는 인접한 버켓들의 높이 변화에 기초하여 기울기를 식별할 수 있다. 구체적으로, 프로세서(190)는 인접한 버켓들의 높이 변화에 의한 각도에 기초하여 인접한 버켓들 사이의 기울기를 식별할 수 있다. 예를 들어, 프로세서(190)는 수학식 3를 이용하여 기울기를 식별할 수 있다.
[수학식 3]
여기서, Hleft,i,j+1은 i번째 행, j+1번째 열의 전방 좌측의 높이 차이를 나타내며, Hleft,i,j는 i번째 행, j번째 열의 전방 좌측의 높이 차이를 나타내며, Θleft,i,j는 i번째 행, j번째 열의 전방 좌측의 기울기를 나타낼 수 있다.
Hright,i,j+1은 i번째 행, j+1번째 열의 전방 우측의 높이 차이를 나타내며, Hright,i,j는 i번째 행, j번째 열의 전방 우측의 높이 차이를 나타내며, Θright,i,j는 i번째 행, j번째 열의 전방 우측의 기울기를 나타낼 수 있다.
또한, Hfront,i,j+1은 i번째 행, j+1번째 열의 전방의 높이 차이를 나타내며, Hfront,i,j는 i번째 행, j번째 열의 전방의 높이 차이를 나타내며, Θfront,i,j는 i번째 행, j번째 열의 전방의 기울기를 나타낼 수 있다.
프로세서(190)는 버켓들 각각의 기울기 정보에 기초하여 기울기 변화를 식별할 수 있다. 구체적으로, 프로세서(190)는 인접한 버켓들 사이의 차이에 기초하여 기울기 변화를 식별할 수 있다. 예를 들어, 프로세서(190)는 수학식 4를 이용하여 기울기 변화를 식별할 수 있다.
[수학식 4]
여기서, Θleft,i,j+1은 i번째 행, j+1번째 열의 전방 좌측의 기울기를 나타내며, Θleft,i,j는 i번째 행, j번째 열의 전방 좌측의 기울기를 나타내며, ωleft,i,j는 i번째 행, j번째 열의 전방 좌측의 기울기 차이를 나타낼 수 있다.
Θright,i,j+1은 i번째 행, j+1번째 열의 전방 우측의 기울기를 나타내며, Θright,i,j는 i번째 행, j번째 열의 전방 우측의 기울기를 나타내며, ωright,i,j는 i번째 행, j번째 열의 전방 우측의 기울기 차이를 나타낼 수 있다.
또한, Θfront,i,j+1은 i번째 행, j+1번째 열의 전방의 기울기를 나타내며, Θfront,i,j는 i번째 행, j번째 열의 전방의 기울기를 나타내며, ωfront,i,j는 i번째 행, j번째 열의 전방의 기울기 차이를 나타낼 수 있다.
이처럼, 프로세서(190)는 3차원 이미지를 처리하여, 방역 로봇(1) 전방 바닥의 높이 차이 및/또는 기울기 차이를 산출할 수 있다.
방역 로봇(1)은 바닥의 높이 변화가 제1 기준 값보다 큰지 여부를 판단할 수 있다(1130).
프로세서(190)는 이전에 획득된 바닥의 높이와 현재 획득된 바닥의 높이 사이의 차이에 기초하여 바닥의 높이 변화를 식별할 수 있다. 예를 들어, 프로세서(190)는 수학식 2를 이용하여 바닥의 높이 변화를 식별할 수 있다.
프로세서(190)는 바닥의 높이 변화를 제1 기준 값과 비교하고, 바닥의 높이 변화가 제1 기준 값보다 큰지 여부를 식별할 수 있다. 여기서, 제1 기준 값은 실험적으로 또는 경험적으로 설정될 수 있으며, 예를 들어 방역 로봇(1)이 통과할 수 없는 단차에 기초하여 설정될 수 있다. 예를 들어, 제1 기준 값은 3cm에서 7cm 사이의 값일 수 있으며, 바람직하게는 5cm 내외일 수 있다.
바닥의 높이 변화가 제1 기준 값보다 크지 아니하면(1130의 아니오), 방역 로봇(1)은 바닥의 기울기 변화가 제2 기준 값보다 큰지 여부를 판단할 수 있다(1140).
프로세서(190)는 이전에 획득된 바닥의 기울기와 현재 획득된 바닥의 기울기 사이의 차이에 기초하여 바닥의 기울기 변화를 식별할 수 있다. 예를 들어, 프로세서(190)는 수학식 4를 이용하여 바닥의 기울기 변화를 식별할 수 있다.
프로세서(190)는 바닥의 기울기 변화를 제2 기준 값과 비교하고, 바닥의 기울기 변화가 제2 기준 값보다 큰지 여부를 식별할 수 있다. 여기서, 제2 기준 값은 실험적으로 또는 경험적으로 설정될 수 있으며, 예를 들어 방역 로봇(1)이 통과할 수 없는 기울기 변화에 기초하여 설정될 수 있다. 예를 들어, 제2 기준 값은 10도에서 20도 사이의 값일 수 있으며, 바람직하게는 15도 내외일 수 있다.
바닥의 기울기 변화가 제2 기준 값보다 크지 아니하면(1140의 아니오), 방역 로봇(1)은 기존의 주행을 계속할 수 있다(1150). 바닥의 높이 변화가 제1 기준 값보다 크거나(1130의 예) 또는 바닥의 기울기 변화가 제2 기준 값보다 크면(1140의 예), 방역 로봇(1)은 바닥의 단차 또는 경사로를 회피할 수 있다(1160).
동작 1150 및 동작 1160은 도 5에 도시된 동작 1050 및 동작 1060과 동일할 수 있다.
이상에서 설명된 바와 같이, 방역 로봇(1)은 3차원 카메라(220)를 이용하여 바닥의 단차 및/또는 경사로를 식별할 수 있다. 방역 로봇(1)은 바닥의 단차 및/또는 경사로의 식별에 응답하여 단차 및/또는 경사로를 회피할 수 있다. 그에 의하여 바닥의 단차 및/또는 경사로로 인하여 방역 로봇(1)의 이동이 제한되는 것이 억제, 최소화 또는 방지될 수 있다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로 , '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 게시된 실시예가 속하는 기술분야에서 통상의 지식을 가진 자는 게시된 실시예의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.
1: 방역 로봇 10: 방역 본체
20: 이동 본체 30: 커버
31: 토출구 41: 제1 휠
42: 제2 휠 50: 팬
110: 컨트롤 패널 111: 입력 버튼
112: 디스플레이 120: 오염 센서
121: 가스 센서 122: 먼지 센서
123: 오존 센서 124: 이산화탄소 센서
131: 충돌 센서 132: 장애물 센서
140: 휠 드라이브 141: 제1 휠 모터
142: 제2 휠 모터 150: 주행 센서
151: 제1 엔코더 152: 제2 엔코더
160: 팬 드라이브 161: 팬 모터
170: 커버 드라이브 171: 커버 모터
180: 통신 모듈 181: 무선 통신 모듈
190: 프로세서 191: 메모리
210: 라이다 센서 220: 3차원 카메라

Claims (20)

  1. 토출구가 마련된 본체;
    상기 본체의 내부에 마련된 팬;
    상기 팬을 회전시키는 팬 모터;
    상기 본체의 하부에 마련된 휠;
    상기 휠을 회전시키는 휠 모터;
    상기 본체의 전방을 향하는 시야를 가지고 3차원 이미지를 촬영하는 3차원 카메라; 및
    상기 팬을 회전시켜 상기 토출구를 통하여 공기를 토출하도록 팬 모터를 제어하고, 상기 휠을 회전시켜 상기 3차원 이미지에 기초하여 상기 본체를 이동시키도록 상기 휠 모터를 제어하는 프로세서를 포함하며,
    상기 프로세서는,
    상기 3차원 이미지에 기초하여 상기 본체의 전방 바닥의 기울기 변화를 식별하고,
    상기 기울기 변화가 기준 기울기 변화 값보다 큰 것에 기초하여 상기 기울기 변화가 상기 기준 기울기 변화 값보다 큰 영역을 회피하도록 상기 휠 모터를 제어하는 방역 로봇.
  2. 제1항에 있어서, 상기 프로세서는,
    상기 3차원 이미지에 기초하여 상기 본체의 전방 바닥의 높이 변화를 식별하고,
    상기 높이 변화가 기준 높이 변화 값보다 큰 것에 기초하여 상기 높이 변화가 상기 기준 높이 변화 값보다 큰 영역을 회피하도록 상기 휠 모터를 제어하는 방역 로봇.
  3. 삭제
  4. 제1항에 있어서, 상기 프로세서는,
    상기 3차원 이미지를 복수의 버켓들로 구획하고,
    상기 복수의 버켓들의 평균 거리를 획득하고,
    인접한 버켓들의 평균 거리 사이의 차이에 기초하여 상기 인접한 버켓들의 높이 변화를 식별하는 방역 로봇.
  5. 제4항에 있어서, 상기 프로세서는,
    상기 높이 변화가 기준 높이 변화 값보다 큰 영역을 회피하도록 상기 휠 모터를 제어하는 방역 로봇.
  6. 제4항에 있어서, 상기 프로세서는,
    상기 인접한 버켓들의 높이 변화에 의한 각도에 기초하여 상기 인접한 버켓들 사이의 기울기를 식별하고,
    상기 인접한 버켓들 사이의 기울기 사이의 차이에 기초하여 상기 인접한 버켓들 사이의 기울기 차이를 식별하는 방역 로봇.
  7. 제6항에 있어서, 상기 프로세서는,
    상기 기울기 변화가 상기 기준 기울기 변화 값 보다 큰 영역을 회피하도록 상기 휠 모터를 제어하는 방역 로봇.
  8. 제1항에 있어서, 상기 프로세서는,
    복수의 구역들을 포함하는 공기 정청 공간에 대응하는 지리적 맵 데이터와 상기 복수의 구역들의 대기질을 나타내는 대기질 맵 데이터를 포함하고,
    상기 지리적 맵 데이터와 상기 대기질 맵 데이터에 기초하여 상기 본체를 이동시키도록 상기 휠 모터를 제어하는 방역 로봇.
  9. 토출구가 마련된 본체, 상기 본체의 내부에 마련된 팬 및 상기 본체의 하부에 마련된 휠을 포함하는 방역 로봇의 제어 방법에 있어서,
    상기 본체의 전방을 향하는 시야를 가지는 3차원 카메라를 통하여 3차원 이미지를 촬영하고;
    상기 토출구를 통하여 공기를 토출하도록 상기 팬을 회전시키고;
    상기 3차원 이미지에 기초하여 상기 본체를 이동시키도록 상기 휠을 회전시키는 것을 포함하며,
    상기 본체를 이동시키도록 상기 휠을 회전시키는 것은,
    상기 3차원 이미지에 기초하여 상기 본체의 전방 바닥의 기울기 변화를 식별하고;
    상기 기울기 변화가 기준 기울기 변화 값보다 큰 것에 기초하여 상기 기울기 변화가 상기 기준 기울기 변화 값보다 큰 영역을 회피하도록 상기 휠을 회전시키는 것을 포함하는 방역 로봇의 제어 방법.
  10. 제9항에 있어서, 상기 3차원 이미지에 기초하여 상기 본체를 이동시키도록 상기 휠을 회전시키는 것은,
    상기 3차원 이미지에 기초하여 상기 본체의 전방 바닥의 높이 변화를 식별하고;
    상기 높이 변화가 기준 높이 변화 값보다 큰 것에 기초하여 상기 높이 변화가 상기 기준 높이 변화 값보다 큰 영역을 회피하도록 상기 휠을 회전시키는 것을 포함하는 방역 로봇의 제어 방법.
  11. 삭제
  12. 제9항에 있어서, 상기 3차원 이미지에 기초하여 상기 본체를 이동시키도록 상기 휠을 회전시키는 것은,
    상기 3차원 이미지를 복수의 버켓들로 구획하고;
    상기 복수의 버켓들의 평균 거리를 획득하고;
    인접한 버켓들의 평균 거리 사이의 차이에 기초하여 상기 인접한 버켓들의 높이 변화를 식별하는 것을 포함하는 방역 로봇의 제어 방법.
  13. 제12항에 있어서, 상기 3차원 이미지에 기초하여 상기 본체를 이동시키도록 상기 휠을 회전시키는 것은,
    상기 높이 변화가 기준 높이 변화 값보다 큰 영역을 회피하도록 상기 휠을 회전시키는 것을 더 포함하는 방역 로봇의 제어 방법.
  14. 제12항에 있어서, 상기 3차원 이미지에 기초하여 상기 본체를 이동시키도록 상기 휠을 회전시키는 것은,
    상기 인접한 버켓들의 높이 변화에 의한 각도에 기초하여 상기 인접한 버켓들 사이의 기울기를 식별하고;
    상기 인접한 버켓들 사이의 기울기 사이의 차이에 기초하여 상기 인접한 버켓들 사이의 기울기 차이를 식별하는 것을 더 포함하는 방역 로봇의 제어 방법.
  15. 제14항에 있어서, 상기 3차원 이미지에 기초하여 상기 본체를 이동시키도록 상기 휠을 회전시키는 것은,
    상기 기울기 변화가 상기 기준 기울기 변화 값보다 큰 영역을 회피하도록 상기 휠을 회전시키는 것을 포함하는 방역 로봇의 제어 방법.
  16. 제9항에 있어서, 상기 제어 방법은,
    복수의 구역들을 포함하는 공기 정청 공간에 대응하는 지리적 맵 데이터와 상기 복수의 구역들의 대기질을 나타내는 대기질 맵 데이터에 기초하여 상기 본체를 이동시키도록 상기 휠을 회전시키는 것을 더 포함하는 방역 로봇의 제어 방법.
  17. 토출구가 마련된 본체;
    상기 본체의 내부에 마련된 팬;
    상기 팬을 회전시키는 팬 모터;
    상기 본체의 하부에 마련된 휠;
    상기 휠을 회전시키는 휠 모터;
    상기 본체의 전방을 향하는 시야를 가지고 라이다 데이터를 획득하는 라이다 센서; 및
    상기 팬을 회전시켜 상기 토출구를 통하여 공기를 토출하도록 팬 모터를 제어하고, 상기 휠을 회전시켜 상기 라이다 데이터에 기초하여 상기 본체를 이동시키도록 상기 휠 모터를 제어하는 프로세서를 포함하고,
    상기 프로세서는,
    상기 라이다 데이터에 기초하여 상기 본체의 전방 바닥의 기울기 변화를 식별하고,
    상기 기울기 변화가 기준 기울기 변화 값보다 큰 것에 기초하여 상기 기울기 변화가 상기 기준 기울기 변화 값보다 큰 영역을 회피하도록 상기 휠 모터를 제어하는 방역 로봇.
  18. 제17항에 있어서, 상기 프로세서는,
    상기 라이다 데이터에 기초하여 상기 본체의 전방 바닥의 높이 변화를 식별하고,
    상기 높이 변화가 기준 높이 변화 값보다 큰 것에 기초하여 상기 높이 변화가 상기 기준 높이 변화 값보다 큰 영역을 회피하도록 상기 휠 모터를 제어하는 방역 로봇.
  19. 삭제
  20. 토출구가 마련된 본체, 상기 본체의 내부에 마련된 팬 및 상기 본체의 하부에 마련된 휠을 포함하는 방역 로봇의 제어 방법에 있어서,
    상기 본체의 전방을 향하는 시야를 가지는 라이다 센서를 통하여 라이다 데이터를 획득하고;
    상기 토출구를 통하여 공기를 토출하도록 상기 팬을 회전시키고;
    상기 라이다 데이터에 기초하여 상기 본체를 이동시키도록 상기 휠을 회전시키는 것을 포함하며,
    상기 본체를 이동시키도록 상기 휠을 회전시키는 것은,
    상기 라이다 데이터에 기초하여 상기 본체의 전방 바닥의 기울기 변화를 식별하고,
    상기 기울기 변화가 기준 기울기 변화 값보다 큰 것에 기초하여 상기 기울기 변화가 상기 기준 기울기 변화 값보다 큰 영역을 회피하도록 상기 휠을 회전시키는 것을 포함하는 방역 로봇의 제어 방법.
KR1020220125838A 2022-09-30 2022-09-30 방역 로봇 및 그 제어 방법 KR102661942B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020220125838A KR102661942B1 (ko) 2022-09-30 2022-09-30 방역 로봇 및 그 제어 방법
EP23200858.1A EP4345568A1 (en) 2022-09-30 2023-09-29 Disinfection robot and method of controlling the same
US18/374,945 US20240118698A1 (en) 2022-09-30 2023-09-29 Disinfection robot and controlling method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220125838A KR102661942B1 (ko) 2022-09-30 2022-09-30 방역 로봇 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20240046395A KR20240046395A (ko) 2024-04-09
KR102661942B1 true KR102661942B1 (ko) 2024-04-29

Family

ID=88241374

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220125838A KR102661942B1 (ko) 2022-09-30 2022-09-30 방역 로봇 및 그 제어 방법

Country Status (3)

Country Link
US (1) US20240118698A1 (ko)
EP (1) EP4345568A1 (ko)
KR (1) KR102661942B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101659037B1 (ko) 2015-02-16 2016-09-23 엘지전자 주식회사 로봇 청소기, 이를 포함하는 원격 제어 시스템 및 이의 제어 방법
KR102296693B1 (ko) 2020-03-17 2021-08-31 엘지전자 주식회사 이동 로봇

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102548614B1 (ko) * 2017-09-07 2023-06-29 코웨이 주식회사 공기 청정 로봇
KR102100476B1 (ko) * 2018-05-04 2020-05-26 엘지전자 주식회사 복수의 이동 로봇 및 그 제어방법
EP3695694B8 (en) * 2019-02-14 2021-09-08 Stiga S.P.A. Robotic vehicle for movable operation in a work area
KR20200102108A (ko) * 2019-02-21 2020-08-31 현대모비스 주식회사 차량의 객체 검출 장치 및 방법
KR102535719B1 (ko) * 2019-03-05 2023-05-22 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
KR102280460B1 (ko) * 2019-12-04 2021-07-21 배재대학교 산학협력단 3차원 센서 기반 파워 테일게이트 제어 시스템 및 방법
KR102366327B1 (ko) * 2020-04-02 2022-02-22 주식회사 제타뱅크 이동 로봇 및 그 제어방법
KR102366330B1 (ko) * 2020-04-29 2022-02-22 주식회사 제타뱅크 이동 로봇

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101659037B1 (ko) 2015-02-16 2016-09-23 엘지전자 주식회사 로봇 청소기, 이를 포함하는 원격 제어 시스템 및 이의 제어 방법
KR102296693B1 (ko) 2020-03-17 2021-08-31 엘지전자 주식회사 이동 로봇

Also Published As

Publication number Publication date
US20240118698A1 (en) 2024-04-11
KR20240046395A (ko) 2024-04-09
EP4345568A1 (en) 2024-04-03

Similar Documents

Publication Publication Date Title
CN111479662B (zh) 学习障碍物的人工智能移动机器人及其控制方法
US11547255B2 (en) Cleaning robot
JP6103319B2 (ja) 移動式ロボット
KR102548614B1 (ko) 공기 청정 로봇
JP3841220B2 (ja) 自律走行ロボットクリーナー
JP6591544B2 (ja) 移動式ロボット
WO2017065171A1 (ja) 電気掃除機
KR20120114671A (ko) 로봇 청소기, 이의 원격 제어 시스템 및 원격 제어 방법
JP2016052515A (ja) 移動式ロボット
US20140036062A1 (en) Sensor assembly and robot cleaner having the same
EP2631730A1 (en) Sensor assembly and robot cleaner having the same
KR20130002218A (ko) 로봇 청소기 및 그 제어방법
JP2005230044A (ja) 自律走行ロボットクリーナー
JP2005211367A (ja) 自律走行ロボットクリーナー
KR20210005765A (ko) 자율주행차량 청결 관리 시스템, 그리고 이를 위한 자율주행차량 장치
CN113573935A (zh) 车辆用平视显示器以及车辆用平视显示器系统
KR102637851B1 (ko) 청소 로봇
JP2017123065A (ja) 自律走行装置
KR102330607B1 (ko) 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법
KR102661942B1 (ko) 방역 로봇 및 그 제어 방법
KR102631151B1 (ko) 청소 로봇
KR20190095197A (ko) 흡입 제한물을 회피할 수 있는 이동로봇 및 이동로봇의 흡입 제한물 회피 방법
KR20210132759A (ko) IoT 기반 공간 지능 기능이 구현되는 이동 로봇 및 이동 로봇의 제어 방법
RU2004127722A (ru) Мобильный робот
KR20240045901A (ko) 방역 로봇 및 그 제어 방법

Legal Events

Date Code Title Description
GRNT Written decision to grant