KR102482264B1 - 자율 주행 및 방역 목표 자동 인식이 가능한 방역 로봇 - Google Patents

자율 주행 및 방역 목표 자동 인식이 가능한 방역 로봇 Download PDF

Info

Publication number
KR102482264B1
KR102482264B1 KR1020210018077A KR20210018077A KR102482264B1 KR 102482264 B1 KR102482264 B1 KR 102482264B1 KR 1020210018077 A KR1020210018077 A KR 1020210018077A KR 20210018077 A KR20210018077 A KR 20210018077A KR 102482264 B1 KR102482264 B1 KR 102482264B1
Authority
KR
South Korea
Prior art keywords
quarantine
robot
unit
light source
surrounding environment
Prior art date
Application number
KR1020210018077A
Other languages
English (en)
Other versions
KR20220115129A (ko
Inventor
김강건
최종석
이우섭
김준식
김순겸
곽소나
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020210018077A priority Critical patent/KR102482264B1/ko
Priority to US17/369,466 priority patent/US20220253067A1/en
Publication of KR20220115129A publication Critical patent/KR20220115129A/ko
Application granted granted Critical
Publication of KR102482264B1 publication Critical patent/KR102482264B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/02Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor using physical phenomena
    • A61L2/08Radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/02Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor using physical phenomena
    • A61L2/08Radiation
    • A61L2/10Ultraviolet radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/16Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor using chemical substances
    • A61L2/22Phase substances, e.g. smokes, aerosols or sprayed or atomised substances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/24Apparatus using programmed or automatic operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/383Indoor data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2202/00Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
    • A61L2202/10Apparatus features
    • A61L2202/11Apparatus for generating biocidal substances, e.g. vaporisers, UV lamps
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2202/00Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
    • A61L2202/10Apparatus features
    • A61L2202/14Means for controlling sterilisation processes, data processing, presentation and storage means, e.g. sensors, controllers, programs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2202/00Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
    • A61L2202/10Apparatus features
    • A61L2202/15Biocide distribution means, e.g. nozzles, pumps, manifolds, fans, baffles, sprayers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2202/00Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
    • A61L2202/10Apparatus features
    • A61L2202/16Mobile applications, e.g. portable devices, trailers, devices mounted on vehicles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2202/00Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
    • A61L2202/20Targets to be treated
    • A61L2202/25Rooms in buildings, passenger compartments

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Epidemiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • General Chemical & Material Sciences (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Chemical & Material Sciences (AREA)
  • Optics & Photonics (AREA)
  • Manipulator (AREA)

Abstract

자율 주행 및 방역 목표의 인식이 가능한 방역 로봇이 제공된다. 방역 로봇은 상기 방역 로봇의 주변 환경을 인식하여 인식 정보를 생성하는 인식부; 상기 방역 로봇의 위치 이동을 위한 이동부; 방역을 위한 일정 파장 영역의 빛을 방출하는 광원부; 방역을 위한 유체를 분사하는 분사부; 및 상기 인식 정보에 기초하여 상기 이동부를 통해 상기 방역 로봇을 이동시키는 제어부를 포함하되, 상기 제어부는 상기 인식 정보에서 방역 목표를 식별하며, 상기 광원부 및 상기 분사부 중 적어도 하나를 제어하여 상기 방역 로봇의 주변 환경 및 상기 방역 목표 중 적어도 하나에 대한 방역을 수행한다.

Description

자율 주행 및 방역 목표 자동 인식이 가능한 방역 로봇{Disinfection robot capable of autonomous driving and automatic recognition of disinfection targets}
자율 주행 및 방역 목표 자동 인식이 가능한 방역 로봇에 관한 것으로, 자율 주행 및 방역 목표를 자동으로 인식하여 방역을 수행하되, 광원 기반의 간접 소독과 소독제 분사를 통한 직접 소독을 동시에 수행할 수 있는 방역 로봇에 관한 것이다.
코로나 19(COVID-19) 바이러스 발병에 따라, 전 세계적으로 전염병 확산을 예방하거나, 발병된 지역을 소독하기 위한 방역에 대한 관심이 높아지고 있는 상황이다. 다만, 현재까지의 방역 작업은 작업자가 방역 장치를 들고 방역이 필요한 공간을 이동하면서 방역을 수행하는 방식으로 수행되었으며, 작업자가 방역복을 착용하였더라도 감염의 위험으로부터 완전히 자유로울 수 없는 상황이다.
또한, 일정 장소에 배치되어 주기적 또는 사물 인식을 통해 소독제를 분사하는 장치가 종래 제안되었으나, 배치된 장소의 일정 범위에 대한 방역 작업만이 가능하다는 한계가 존재하였다.
즉, 방역 인력을 대신해 병원, 공공기관, 학교 등 많은 사람들이 이용하는 다중 이용 시설의 구역을 이동하면서 방역 기능을 수행하여, 국민의 건강과 생명을 보호할 수 있는 장치가 요구되고 있다.
이에, 본 출원의 발명자는 감염 위험이 있는 공간을 자율적으로 이동하며 방역 목표를 자동 인식하여 방역 작업을 수행할 수 있는 방역 로봇을 개발하는 데 이르렀다.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 구체적으로, 자율 주행 및 방역 목표 자동 인식이 가능한 방역 로봇에 관한 것으로, 자율 주행 및 방역 목표를 자동으로 인식하여 방역을 수행하되, UV 기반 간접 소독과 소독제 분사를 통한 직접 소독을 모두 제공할 수 있는 방역 로봇에 관한 것이다.
본 발명의 일 실시예에 따른 방역 로봇은 자율 주행 및 방역 목표의 인식이 가능한 방역 로봇으로, 상기 방역 로봇의 주변 환경을 인식하여 인식 정보를 생성하는 인식부; 상기 방역 로봇의 위치 이동을 위한 이동부; 방역을 위한 일정 파장 영역의 빛을 방출하는 광원부; 방역을 위한 유체를 분사하는 분사부; 및 상기 인식 정보에 기초하여 상기 이동부를 통해 상기 방역 로봇을 이동시키는 제어부를 포함하되, 상기 제어부는 상기 인식 정보에서 방역 목표를 식별하며, 상기 광원부 및 상기 분사부 중 적어도 하나를 제어하여 상기 방역 로봇의 주변 환경 및 상기 방역 목표 중 적어도 하나에 대한 방역을 수행한다.
본 발명의 다른 실시예에 따른 방역 로봇은 자율 주행 및 방역 목표의 인식이 가능한 방역 로봇으로, 상기 방역 로봇의 위치 이동을 위한 이동부를 수납하는 하부 커버부; 방역을 위한 일정 파장의 빛을 방출하는 광원을 포함하며, 상기 하부 커버부 상에 위치하는 몸통부; 방역을 위한 유체를 분사하는 분사부를 포함하는 헤드부; 상기 몸통부와 헤드부를 연결하는 연결부; 및 상기 몸통부, 상기 헤드부, 상기 하부 커버부 중 적어도 하나에 위치하여 상기 방역 로봇의 주변 환경을 인식한 인식 정보를 생성하는 적어도 하나의 인식부를 포함하고, 상기 인식 정보에 기초하여 상기 광원 및 상기 분사부 중 적어도 하나가 제어되어 상기 방역 로봇의 주변 환경 및 상기 방역 목표 중 적어도 하나에 대한 방역이 수행된다.
본 발명의 실시예에 따른 방역 로봇은 방역 시설 내부를 자율 주행하면서 방역 시설에 대한 방역 작업을 수행할 수 있으며, 방역 시설 내부의 위치한 방역 목표를 자동으로 식별하여 식별된 방역 목표에 대한 집중 방역을 수행할 수 있다.
본 발명의 실시예에 따른 방역 로봇은 UV 기반 간접 소독과 소독제 분사를 통한 직접 소독을 모두 제공할 수 있으므로, 더욱 효과적인 방역 작업을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 방역 로봇의 구성을 도시한 블록도이다.
도 2는 방역 로봇의 사시도이다.
도 3은 하부 커버부에 수납된 이동부를 도시한다.
도 4 내지 도 7은 연결부의 기능을 설명하기 위한 예시도이다.
도 8은 몸통부 내부에 수납된 광원을 도시한다.
도 9는 광원과 상태 표시부가 동작되는 상태를 예시적으로 도시한다.
도 10은 하부 커버부에 더 포함된 광원이 동작되는 상태를 예시적으로 도시한다.
이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 당업자는 본 발명이 이러한 구체적 세부사항 없이도 실시될 수 있음을 인지할 수 있다. 이하의 설명에서 사용되는 특정 용어들은 본 발명의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.
도 1은 본 발명의 일 실시예에 따른 방역 로봇의 구성을 도시한 블록도이다.
본 발명의 일 실시예에 따른 방역 로봇(10)은 자율 주행을 통해 방역 공간을 이동하며, 방역 공간에서 방역 목표를 인식하여 방역 목표에 대한 방역 작업을 수행할 수 있다. 방역 로봇(10)은 방역 시설과 방역 목표에 대한 광원 기반의 간접 소독과 소독제 분사를 통한 직접 소독을 동시에 수행할 수 있다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 방역 로봇(10)은 제어부(100), 인식부(110), 광원부(120), 분사부(130), 이동부(140), 상태 표시부(150), 전원부(160) 및 음향 출력부(170)를 포함한다.
방역 로봇(10)은, 전적으로 하드웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 본 명세서의 방역 로봇 및 이에 포함된 각 부는, 특정 형식 및 내용의 데이터를 전자통신 방식으로 주고받기 위한 장치 및 이에 관련된 소프트웨어를 통칭할 수 있다. 본 명세서에서 "부", "모듈(module)", "서버(server)", "시스템", "장치" 또는 "단말" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 예를 들어, 여기서 하드웨어는 CPU 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 하드웨어에 의해 구동되는 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.
또한, 방역 로봇(10)을 구성하는 각각의 모듈은 반드시 물리적으로 구분되는 별개의 구성요소를 지칭하는 것으로 의도되지 않는다. 도 1에서 제어부(100), 인식부(110), 광원부(120), 분사부(130), 이동부(140), 상태 표시부(150), 전원부(160) 및 음향 출력부(170)는 서로 구분되는 별개의 블록으로 도시되나, 이는 방역 로봇을 구성하는 장치를 해당 장치에 의해 실행되는 동작에 의해 단지 기능적으로 구분한 것이다. 따라서, 실시예에 따라서는 제어부(100), 인식부(110), 광원부(120), 분사부(130), 이동부(140), 상태 표시부(150), 전원부(160) 및 음향 출력부(170)는 일부 또는 전부가 동일한 하나의 장치 내에 집적화될 수 있고, 하나 이상이 다른 부와 물리적으로 구분되는 별개의 장치로 구현될 수 있으며, 분산 컴퓨팅 환경 하에서 서로 통신 가능하게 연결된 컴포넌트들일 수도 있다.
제어부(100)는 방역 로봇(10)의 주요 구성들의 동작을 제어한다.
인식부(110)는 방역 로봇의 주변 환경을 인식하여 인식 정보를 생성한다. 인식부(110)는 서로 다른 종류의 이종 센서를 포함할 수 있으며, 이종 센서에서 수집되는 정보를 기초로 인식 정보를 생성할 수 있다. 일 실시예에서, 인식부(110)는 방역 로봇(10)의 주변 환경을 촬영하는 적어도 하나의 카메라(111) 및 적어도 하나의 라이더(112, Lidar)를 포함할 수 있다. 카메라(111)는 방역 로봇(10)의 주변 환경을 촬영하여 영상 신호를 실시간으로 생성할 수 있다. 라이더(112)는 방역 로봇의 주변 환경을 감지하기 위해 신호를 로봇 주변에 방출하며, 주변 환경에서 반사되어 돌아오는 신호의 시간을 측정함으로써, 반사 지점의 공간 위치와 관련된 센싱 신호를 생성할 수 있다. 라이더(112)에서 생성되는 센싱 신호는 복수의 반사 지점으로부터 제공된 복수의 포인트 정보로 구성된 포인트 클라우드에 해당한다. 일 실시예에서, 인식부(110)에서 생성되는 인식 정보는 카메라(111)에서 생성된 영상 신호와 라이더(112)에서 생성된 센싱 신호를 포함할 수 있다.
제어부(100)는 인식부(110)에서 제공된 인식 정보를 기초로 방역 로봇의 자율 주행을 제어할 수 있다. 이동부(140)는 방역 로봇의 위치 이동을 위한 구성일 수 있다. 일 실시예에서, 이동부(140)는 평면 바닥에서의 용이한 이동을 위해 휠(wheel) 방식으로 구성될 수 있다. 예를 들어, 이동부(140)는 평면 바닥의 전 방향 이동이 용이하도록 옴니 휠(omni wheel) 또는 메카넘 휠(mecanum wheel)로 구성될 수 있다. 다만 이동부(140)의 구성이 이에 한정되는 것은 아니다. 몇몇 실시예에서, 방역 로봇(10)은 사람과 유사한 형태를 가질 수 있으며, 이동부(140)는 사람의 이동 방식인 이족 보행을 구현하기 위한 2개의 다리로 구성될 수 있다. 제어부(100)는 인식 정보에 기초하여 이동부(140)를 통해 방역 로봇을 이동시킬 수 있다.
제어부(100)는 카메라(111)에서 제공된 영상 신호에 기초하여 방역 로봇의 주변 환경을 인식하고, 방역 로봇이 이동하게 되는 방역 시설에 대한 지도를 생성할 수 있다. 즉, 방역 시설에 대한 지도가 사전에 제공되지 않더라도 생성된 방역 시설의 지도를 기초로 방역 로봇의 자율 주행이 진행될 수 있다. 여기서, 방역 시설은 방역 로봇(10)이 방역 작업을 진행하게 되는 대상 시설을 의미하며, 병원, 공공기관, 학교 등 많은 사람들이 이용하는 다중 이용 시설일 수 있으나, 이에 한정되는 것은 아니다.
제어부(100)는 방역 시설 내부에서의 방역 로봇(10)의 자율 주행과 방역 로봇(10)의 방역 작업을 함께 제어할 수 있다. 제어부(100)는 방역 로봇(10)이 주변 환경에 대한 방역 작업을 이동하면서 진행하도록 제어할 수 있다. 제어부(100)는 라이더(112)에서 생성된 센싱 신호를 활용하여 주변 환경에 포함된 장애물을 인식하고, 인식된 장애물을 회피하면서 방역 로봇(10)을 이동시킬 수 있다. 또한, 제어부(100)는 센싱 신호를 통해 방역 시설의 벽면을 인식할 수 있으며, 벽면을 따라 방역 로봇(10)을 이동시키되 방역 작업을 위한 공간이 충분히 확보되도록 방역 로봇(10)이 벽과 일정 거리를 유지하면서 이동하도록 한다. 즉, 제어부(100)는 월 팔로잉(wall following) 기능을 적용하여 방역 로봇(10)을 이동시킬 수 있다.
또한, 제어부(100)는 인식 정보를 기초로 주변 환경에 포함된 방역 목표를 식별하고, 식별된 방역 목표에 대한 방역 작업을 제어할 수 있다. 즉, 식별된 방역 목표와 주변 사물에 대해서는 집중적인 방역 작업을 더 진행할 수 있다. 구체적으로, 제어부(100)는 카메라(111)에서 제공된 영상 신호를 분석하여 영상 신호에 포함된 방역 목표를 식별할 수 있다. 방역 목표는 방역 시설 내에 많은 사람들이 함께 이용하는 장치, 도구일 수 있다. 예를 들어, 방역 목표는 많은 사람들이 함께 이용하는 엘리베이터의 버튼, 휴게실 내의 쇼파, 문 손잡이 등일 수 있다. 제어부(100)는 영상 신호에서 방역 목표를 식별하도록 학습된 방역 목표 분석 모델을 포함할 수 있으며, 이러한 방역 목표 분석 모델을 이용하여 방역 목표를 식별할 수 있다. 또한, 제어부(100)는 라이더(112)에서 생성된 센싱 신호를 통해 방역 목표와의 일정 거리를 유지하도록 방역 로봇(10)을 제어할 수 있다. 방역을 위한 거리 또는 공간이 확보된 상태에서 방역 로봇(10)은 방역 작업(직접 방역 및 간접 방역)을 효과적으로 수행할 수 있게 된다.
제어부(100)는 광원부(120) 및 분사부(130) 중 적어도 하나를 제어하여 식별된 방역 목표에 대한 방역을 수행할 수 있다. 제어부(100)는 식별된 방역 목표의 특성을 고려하여, 광원부(120) 또는 분사부(130)를 선택적으로 동작시키거나, 순차적으로 동작시킬 수 있다. 또한, 제어부(100)는 식별된 방역 목표의 특성을 고려하여, 광원부(120)와 분사부(130)를 동시에 동작시킬 수 있다. 즉, 제어부(100)는 광원부(120) 및 분사부(130) 중 적어도 하나를 제어하여 방역 로봇(10)의 주변 환경 및 방역 목표 중 적어도 하나에 대한 방역을 수행할 수 있다. 예를 들어, 제어부(100)는 방역 로봇(10)이 방역 시설 내부를 이동하면서, 광원부(120)에서 빛을 방출하여 방역 시설 내부에 대한 방역 작업을 진행할 수 있다.
광원부(120)는 방역을 위한 일정 범위의 파장의 빛을 방출하는 적어도 하나의 광원을 포함할 수 있다. 예를 들어, 광원부(120)는 박테리아 및 바이러스의 살균 효과가 높은 UV-C 파장 영역의 광을 방출하도록 구성된 UV-C 광원을 포함할 수 있으며, 100 nm ~ 280 nm 파장 영역에 해당하는 광을 방출할 수 있다. 다만, 이에 한정되는 것은 아니며, 광원부(120)는 방역 목표에 대응하여 방출하는 광의 파장 범위를 변경되도록 구성될 수 있다. 즉, 광원부(120)는 방역 목표에 적합한 파장 영역을 출력하는 광원으로 교체가 용이하도록 구성되거나, 하나의 광원에서 여러 파장 영역의 광이 방출하도록 구성되어 제어부(100)의 명령에 따라 특정 파장을 출력하도록 제어될 수 있다.
광원부(120)의 광원에서 방출된 광에 의해 방역 로봇(10)의 주변 환경 및 방역 목표에 대한 방역이 수행될 수 있다 광원부(120)의 광원은 방역 로봇(10)의 정면, 배면, 양 측면, 바닥면, 상면 중 적어도 하나에서 빛이 방출되도록 배치될 수 있다. 예를 들어, 광원은 방역 로봇(10)의 정면, 양측면, 배면에 배치되어 방역 로봇(10)의 주변 환경에 대한 방역 작업을 수행하며, 방역 로봇(10)의 바닥면에도 배치되어 방역 로봇(10)이 이동하는 바닥에 대한 방역 작업을 수행할 수 있다.
분사부(130)는 방역을 위한 유체가 분사될 수 있다. 분사부(130)는 유체를 분사하는 적어도 하나의 분사 노즐을 포함할 수 있으며, 저장된 유체를 제어부(100)의 제어 신호에 따라 분사 노즐을 통해 분사할 수 있다. 분사부(130)를 통해 방역 로봇(10)의 방역 시설의 환경 및 방역 목표에 소독제가 분사될 수 있으며, 이에 따라 주변 환경 및 방역 목표에 대한 방역이 수행될 수 있다. 유체는 방역 목표를 제거하기 위한 소독제일 수 있다. 분사부(130)에서 유체는 액체 상태로 분사될 수 있으나 이에 한정되는 것은 아니며, 유체는 기체 상태로도 분사될 수 있다.
여기서, 방역 로봇(10)이 일 방향을 따라 이동하면서, 유체를 분사하는 경우, 방역 로봇(10)의 이동 방향과 분사부(130)에서 유체를 분사하는 방향은 반대일 수 있다. 방역 로봇(10)이 일 방향을 따라 이동하는 경우, 유체의 분사 방향은 일 방향과 반대 방향인 타 방향일 수 있다. 즉, 방역 로봇(10)에 유체가 직접적으로 분사되지 않으므로, 분사부(130)에서 분사되는 유체가 방역 로봇(10)에 미치는 영향이 최소화될 수 있다.
상태 표시부(150)는 방역 로봇(10)의 동작 상태를 나타낼 수 있다. 상태 표시부(150)는 방역 로봇(10)의 상태 변화를 색상 변화로서 표시하여, 방역 로봇(10)의 주변에 위치하는 사람들의 육안으로 방역 로봇(10)의 상태 변화를 확인할 수 있도록 한다. 상태 표시부(150)는 색상 변화가 가능한 LED로 구성될 수 있으나, 이에 한정되는 것은 아니다. 상태 표시부(150)는 방역 로봇(10)의 이동 상태와 방역 작업 상태(간접 방역 또는 직접 방역)에 표시하는 색상이 상이할 수 있다. 또한, 상태 표시부(150)는 방역 로봇(10)에 이상 상태가 발생한 경우, 이를 상태 표시부(150)를 통해 주변에 알릴 수 있다.
음향 출력부(170)는 상태 표시부(150)와 대응하여 동작하며, 방역 로봇(10)의 상태를 주변 환경에 음향으로 전달할 수 있다. 방역 로봇(10)은 현재 동작 상태에 대응한 안내 스피치를 음향 출력부(170)를 통해 주변에 제공할 수 있다. 예를 들어, 방역 전 알람, 유체(소독제) 분사 시작과 종료, 광원(UV-C) 소독 시작과 종료 등에 대응한 안내 스피치를 음향 출력부(170)는 출력할 수 있다.
여기서, 방역 로봇(10)의 제어부(100)는 인식 정보를 기초로 주변 환경에 포함된 사람을 인식할 수 있다. 방역 로봇(10)은 방역 작업을 수행하는 중 사람이 방역 로봇(10)에 근접하는 경우 음향 출력부(170)를 통해 인식된 사람에 대한 이동을 요청하는 안내 스피치를 제공할 수 있다.
전원부(160)는 방역 로봇(10)의 구성들의 동작에 필요한 전원을 제공할 수 있다. 전원부(160)는 충전이 가능한 배터리팩 형태로 구성될 수 있다.
또한, 제어부(100)는 사용자 단말(미도시)와 통신망을 통하여 데이터를 교환하도록 구성될 수 있다. 사용자 단말을 통해 전달되는 신호에 따라, 제어부(100)는 방역 로봇(10)을 동작시키도록 구성될 수 있다.
상술한 기능을 제공하는 방역 로봇(10)의 구성은 방역 로봇(10)의 외형을 구성하는 하우징에 수납될 수 있으며, 하우징은 각 구성들의 기능이 충분히 제공될 수 있도록 구성될 수 있다. 이하, 도 2 내지 도 11을 참조하여, 하우징을 통해 방역 로봇(10)을 구현한 예시에 대해 설명하도록 한다.
도 2 내지 도 10은 본 발명의 실시예에 따른 방역 로봇의 외형을 도시한다. 도 2는 방역 로봇의 사시도이다. 도 3은 하부 커버부에 수납된 이동부를 도시한다. 도 4 내지 도 7은 연결부의 기능을 설명하기 위한 예시도이다. 도 8은 몸통부 내부에 수납된 광원을 도시하며, 도 9는 광원과 상태 표시부가 동작되는 상태를 예시적으로 도시한다. 도 10은 하부 커버부에 더 포함된 광원이 동작되는 상태를 예시적으로 도시한다.
도 2를 참조하면, 방역 로봇(10)은 자율 주행 및 방역 목표의 인식이 가능한 방역 로봇으로, 방역 로봇(10)의 외형을 구성하는 하우징(200)은 헤드부(201), 몸통부(202), 연결부(203), 하부 커버부(204)를 포함한다. 여기서, 방역 로봇(10)의 하우징(200)은 사람의 신체에 대응하도록 구성되어 방역 로봇(10)의 주요 구성들을 수납할 수 있다. 헤드부(201)는 사람의 얼굴, 몸통부(202)는 사람의 몸, 연결부(203)는 사람의 목, 하부 커버부(204)는 사람의 다리에 각각 대응될 수 있다.
하부 커버부(204)는 방역 로봇(10)의 이동을 위한 이동부(140)를 수납한다. 도 3을 참조하면, 이동부(140)는 평면 바닥에서 전 방향 이동이 용이하도록 옴니 휠(omni wheel)로 구성될 수 있으며, 하부 커버부(204)의 내부에 수납되어 외부에 노출이 최소화되도록 구성될 수 있다.
몸통부(202)는 하부 커버부(204)의 상부에 위치하며, 방역을 위한 일정 파장의 빛을 방출하는 광원(120)을 포함할 수 있다.
연결부(203)는 일단은 몸통부(202)와 연결되고, 타단은 헤드부(201)와 연결되어 몸통부(202)와 헤드부(201)를 연결한다. 헤드부(201)는 방역을 위한 유체를 분사하는 분사부(130)를 포함한다. 분사부(130)는 방역 로봇(10)의 상부에 해당하는 헤드부(201)에 수납되어, 높은 위치에서 유체를 분사할 수 있게 된다. 유체가 높은 위치에서 분사되므로, 방역 로봇(10)의 유체에 의해 방역 범위가 확대될 수 있다.
방역 로봇(10)은 상기 구성들의 제어를 위한 제어부 및 구성들에 동작 전원을 공급하는 전원부를 더 포함할 수 있다. 제어부는 인식 정보에 기초하여 이동부(140)를 통해 방역 로봇(10)을 이동시키고, 인식 정보에서 방역 목표를 식별하며, 광원(120) 및 분사부(130) 중 적어도 하나를 제어하여 방역 로봇(10)의 주변 환경 및 방역 목표 중 적어도 하나에 대한 방역을 수행한다. 제어부 및 전원부는 하부 커버부(204)에 수납될 수 있으나, 이에 한정되는 것은 아니다.
여기서, 연결부(203)는 방역 로봇이 정지된 상태에서 분사부(130)의 분사 방향을 조절되도록 헤드부(201)와 몸통부(202)를 연결할 수 있다. 예시적으로, 연결부(203)는 헤드부(201)와 고정된 상태에서 수평면을 따라 방향 회전이 가능하도록 몸통부(202)와 연결될 수 있다. 도 4 및 도 5를 비교하면, 방역 로봇이 정지된 상태에서 헤드부(201)와 연결부(203)는 고정된 상태로, 수평면을 따라 방향 회전이 가능하도록 몸통부(202)와 연결된 연결부(203)를 축으로 헤드부(201)의 요(yaw) 운동이 수행될 수 있다. 헤드부(201)의 요 운동에 따라 분사부(130)의 분사 방향이 변경될 수 있다. 다만, 연결부(203)의 연결 관계가 이에 한정되는 것은 아니며, 다른 실시예에서, 연결부(203)는 몸통부(202)와 고정된 상태에서 헤드부(201)가 수평면을 따라 방향 회전이 가능하도록 헤드부(201)와 연결될 수도 있다. 제어부는 방역 로봇(10)의 이동 방향 및 식별된 방역 목표 중 적어도 하나를 고려하여 헤드부(201)의 요 운동을 제어하여, 분사부(130)의 분사 방향을 결정할 수 있다. 예시적으로, 제어부는 방역 로봇(10)의 이동 방향과 반대되는 방향으로 유체가 분사되도록 헤드부(201)를 방향을 제어할 수 있다.
또한, 연결부(203)는 방역 로봇이 정지된 상태에서 분사부(130)의 분사 각도가 조절되도록 헤드부(201)와 몸통부(202)를 연결할 수 있다. 예시적으로, 연결부(203)는 헤드부(201)와 고정된 상태에서 헤드부(201)가 수평면과 수직한 수직 평면을 따라 회전하도록 헤드부(201)와 몸통부(202)를 연결할 수 있다. 즉, 헤드부(201)가 상하로 끄덕이는 동작에 해당하는 피치 운동이 가능하도록 연결부(203)는 몸통부(202)와 연결될 수 있다. 도 4 및 도 6을 비교하면, 방역 로봇이 정지된 상태에서 헤드부(201)와 연결부(203)는 고정된 상태로 연결되며 수직 평면을 따라 회전이 가능하도록 몸통부(202)와 연결된 연결부(203)를 축으로 헤드부(201)의 피치 운동이 수행될 수 있다. 헤드부(201)의 피치 운동에 따라 헤드부(201)에 위치하는 분사 각도가 조절될 수 있다. 제어부는 인식된 방역 목표에 대한 집중적인 분사 작업이 필요한 경우 방역 목표와 가까워 지도록 헤드부(201)의 각도를 조절할 수 있다. 예를 들어, 제어부는 방역 목표를 향해 헤드부(201)를 기울여서 방역 목표에 유체를 집중적으로 분사할 수 있다.
인식부는 방역 로봇(10)의 몸통부(202), 헤드부(201), 하부 커버부(204) 중 적어도 하나에 위치하여 방역 로봇의 주변 환경을 인식한 인식 정보를 생성할 수 있다. 인식부는 적어도 하나로 구성될 수 있으며, 방역 로봇(10)의 주변 환경을 촬영하는 적어도 하나의 카메라(111) 및 적어도 하나의 라이더(112, Lidar)를 포함할 수 있다.
도 2를 참조하면, 라이더(112)는 방역 로봇(10)의 이동 경로 상에 위치하는 장애물, 특히, 바닥에 위치하는 장애물을 용이하게 인지하기 위해 방역 로봇(10)의 하부에 위치되도록 구성될 수 있다. 즉, 라이더(112)는 하부 커버부(204)에 수납되어 인식 신호를 더욱 효율적으로 생성할 수 있다.
카메라(111)는 넓은 시야 범위(FoV)를 가지기 위해 방역 로봇(10)의 상부에 위치되도록 구성될 수 있다. 카메라(111)는 복수로 준비될 수 있으며, 헤드부(201) 및 몸통부(202)에 각각 위치할 수 있다. 몸통부(202)에 위치한 카메라(111)는 방역 시설의 지도를 생성하기 위한 영상 신호를 생성할 수 있다. 몸통부(202)의 적어도 전면 및 배면에 카메라(111)가 위치할 수 있다. 다만, 이에 한정되는 것은 아니며, 몸통부(202)의 전면, 배면 및 측면에도 카메라(111)가 위치할 수 있다. 각 카메라(111)에서 생성된 영상 신호에 기초하여 방역 시설의 지도가 생성될 수 있다.
헤드부(201)에 위치한 카메라(111)는 방역 로봇(10)의 주변 환경에 위치한 방역 목표를 식별하기 위한 영상 신호를 생성할 수 있다. 제어부는 카메라(111)의 영상 신호에서 식별된 방역 목표를 더욱 자세히 식별하기 위한 추가적인 영상 신호를 방역 로봇(10)이 제자리에 위치한 상태에서 획득하기 위해 카메라(111)가 설치된 헤드부(201)의 방향 및 각도 중 적어도 하나를 조절할 수 있다.
또한, 방역 로봇(10)은 방역 로봇의 동작 상태를 표시하는 상태 표시부(150)를 더 포함할 수 있으며, 도 7에 도시된 바와 같이, 연결부(203)에 상태 표시부(150)가 포함될 수 있다. 상태 표시부(150)는 방역 로봇의 동작 상태에 따라 표시하는 색상이 상이하도록 구성된 LED로 구성될 수 있다. 도 7에 도시된 상태 표시부(150)는 방역 로봇(10)이 동작하기 이전 상태인 도 4와 비교하여, 방역 로봇(10)의 방역 작업이 시작하는 상태를 나타내기 위해 붉은 색으로 점등된 상태인 것을 알 수 있다.
여기서, 도 8에 도시된 바와 같이, 광원(120)은 몸통부(202)의 연장 방향에 대응하여 몸통부(202) 내부에 배치될 수 있다. 광원(120)은 몸통부(202)의 길이 방향과 대응하는 길이를 가지도록 구성되며, 이에 따라 방역 로봇(10)은 넓은 범위의 발광 면적을 제공하여, 효과적인 방역 작업을 제공할 수 있다. 광원(120)은 몸통부(202)의 정면, 측면 및 배면 중 적어도 하나에 각각 배치될 수 있으며, 방역 로봇(10)의 정면, 측면 및 배면 중 적어도 하나에 해당하는 주변 환경에 대한 방역 작업을 제공할 수 있다.
광원(120)은 박테리아 및 바이러스의 살균 효과가 높은 UV-C 파장 영역의 광을 방출하도록 구성된 UV-C 광원일 수 있으며, UV-C 파장 영역의 광은 인체에도 해로운 영향을 미치는 바, 광원(120)은 동작 시에만 외부로 노출되는 것이 바람직하다. 또한, 광원(120)이 유리 소재로 구성되는 점을 감안할 때, 광원(120)의 외부 노출을 선택적으로 구성하는 것이 방역 로봇(10)의 내구성 향상 및 파손 방지에 바람직할 수 있다. 따라서, 광원(120)에 의한 방역 작업이 진행되는 경우에만, 몸통부(202)가 개방되어 광원(120)이 외부로 노출되게 된다. 즉, 몸통부(202)는 광원(120)이 비동작 상태인 경우, 폐쇄된 상태로 광원(120)을 외부로 노출되지 않도록 한다. 도 9와 같이 광원(120)이 동작 상태인 경우, 몸통부(202)는 개방되어 광원(120)을 외부로 노출시킨다. 이러한, 몸통부(202)의 선택적인 개폐는 제어부에 의해 제어될 수 있다. 몇몇 실시예에서, 제어부는 인식 정보를 기초로 주변 환경에 포함된 사람을 인식할 수 있으며, 광원(120)을 통한 방역 작업을 수행하는 중 사람이 방역 로봇(10)에 근접하는 경우 몸통부(202)를 폐쇄하여 사람이 광원(120)의 빛에 노출되는 것을 방지할 수 있다.
방역 로봇(10)은 하부 커버부(204)에 수납되어 방역 로봇(10)이 이동하는 바닥을 방역하기 위한 광원을 더 포함할 수 있다. 도 9 및 도 10을 참조하면, 광원(120)이 동작 상태인 경우, 몸통부(202)가 개방되어 광원(120)이 외부로 노출될 뿐만 아니라, 바닥을 방역하기 위한 광원에서 방출된 빛이 하부 커버부(204)의 하부를 통해 방출되는 것을 확인할 수 있다. 즉, 방역 로봇(10)은 바닥면을 향해 광을 방출하는 광원을 통해 이동하는 바닥에 대한 방역 작업을 수행할 수 있다.
이상에서는 실시예들을 참조하여 설명하였지만 본 발명은 이러한 실시예들 또는 도면에 의해 한정되는 것으로 해석되어서는 안 되며, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
10: 방역 로봇 100: 제어부
110: 인식부 120: 광원부
130: 분사부 140: 이동부
150: 상태 표시부 160: 전원부
170: 음향 출력부 200: 하우징
201: 헤드부 202: 몸통부
203: 연결부 204: 하부 커버부

Claims (12)

  1. 자율 주행 및 방역 목표의 인식이 가능한 방역 로봇으로,
    상기 방역 로봇의 주변 환경과 상기 주변 환경에 포함된 사람을 인식하여 인식 정보를 생성하는 인식부;
    상기 방역 로봇의 위치 이동을 위한 이동부;
    방역을 위한 일정 파장 영역의 빛을 방출하는 광원부;
    방역을 위한 유체를 분사하는 분사부;
    상기 방역 로봇의 상태를 주변 환경에 음향으로 전달하는 음향 출력부 및
    상기 인식 정보에 기초하여 상기 이동부를 통해 상기 방역 로봇을 이동시키는 제어부를 포함하되,
    상기 제어부는 상기 인식 정보에서 방역 목표를 식별하며, 상기 광원부 및 상기 분사부 중 적어도 하나를 제어하여 상기 방역 로봇의 주변 환경 및 상기 방역 목표 중 적어도 하나에 대한 방역을 수행하고,
    상기 방역을 수행하는 중 상기 인식 정보에 기초하여 사람이 상기 방역 로봇에 근접함을 인식하는 경우, 인식된 사람에 대한 이동을 요청하는 안내 스피치를 제공하는, 방역 로봇.
  2. 제1 항에 있어서,
    상기 적어도 하나의 인식부는,
    상기 방역 로봇의 주변 환경을 촬영하여 영상 신호를 생성하는 적어도 하나의 카메라; 및 상기 방역 로봇의 주변 환경을 감지한 센싱 신호를 생성하는 적어도 하나의 라이더를 포함하며,
    상기 인식 정보는 상기 영상 신호 및 상기 센싱 신호를 포함하는 것을 특징으로 하는 방역 로봇.
  3. 제2 항에 있어서,
    상기 제어부는,
    상기 카메라에서 제공된 영상 신호에 기초하여 상기 방역 로봇이 이동하게 되는 방역 시설에 대한 지도를 생성하며,
    상기 센싱 신호에 기초하여 상기 방역 시설의 벽면을 인식할 수 있으며, 상기 인식된 벽면과 일정 거리를 유지하면서 상기 벽면을 따라 상기 방역 로봇을 이동시키는 것을 특징으로 하는 방역 로봇.
  4. 제1 항에 있어서,
    상기 방역 로봇의 동작 상태를 표시하는 상태 표시부를 더 포함하는 방역 로봇.
  5. 제1 항에 있어서,
    상기 분사부에서 분사되는 유체의 분사 방향은 상기 방역 로봇의 이동 방향과 반대 방향인 것을 특징으로 하는 방역 로봇.
  6. 자율 주행 및 방역 목표의 인식이 가능한 방역 로봇으로,
    상기 방역 로봇의 위치 이동을 위한 이동부를 수납하는 하부 커버부;
    방역을 위한 일정 파장의 빛을 방출하는 광원을 포함하며, 상기 하부 커버부 상에 위치하는 몸통부;
    방역을 위한 유체를 분사하는 분사부를 포함하는 헤드부;
    상기 몸통부와 헤드부를 연결하는 연결부;
    상기 방역 로봇의 상태를 주변 환경에 음향으로 전달하는 음향 출력부 및
    상기 몸통부, 상기 헤드부, 상기 하부 커버부 중 적어도 하나에 위치하여 상기 방역 로봇의 주변 환경과 상기 주변 환경에 포함된 사람을 인식한 인식 정보를 생성하는 적어도 하나의 인식부를 포함하고,
    상기 인식 정보에 기초하여 상기 광원 및 상기 분사부 중 적어도 하나가 제어되어 상기 방역 로봇의 주변 환경 및 상기 방역 목표 중 적어도 하나에 대한 방역이 수행되고
    상기 방역을 수행하는 중 상기 인식 정보에 기초하여 사람이 상기 방역 로봇에 근접함을 인식하는 경우, 인식된 사람에 대한 이동을 요청하는 안내 스피치를 제공하는, 방역 로봇.
  7. 제6 항에 있어서,
    상기 몸통부는 일 방향을 따라 연장된 형태이며, 상기 광원은 상기 몸통부의 연장 방향에 대응하여 상기 몸통부 내부에 배치되고,
    상기 몸통부는 상기 광원이 동작 상태인 경우 개방되어 상기 광원을 외부로 노출시키는 방역 로봇.
  8. 제6 항에 있어서,
    상기 적어도 하나의 인식부는 상기 하부 커버부에 위치하는 적어도 하나의 라이더, 상기 몸통부 및 상기 헤드부에 각각 위치하는 카메라를 포함하고,
    상기 카메라는 상기 방역 로봇의 주변 환경을 촬영하여 영상 신호를 생성하며, 상기 라이더는 상기 방역 로봇의 주변 환경을 감지한 센싱 신호를 생성하고,
    상기 인식 정보는 상기 영상 신호 및 상기 센싱 신호를 포함하는 방역 로봇.
  9. 제6 항에 있어서,
    상기 연결부는 방역 로봇의 동작 상태를 표시하는 상태 표시부를 포함하는 방역 로봇.
  10. 제6 항에 있어서,
    상기 연결부는 상기 방역 로봇이 정지된 상태에서 상기 분사부의 분사 방향이 조절되도록 상기 헤드부와 상기 몸통부를 연결하는 방역 로봇.
  11. 제6 항에 있어서,
    상기 연결부는 상기 방역 로봇이 정지된 상태에서 상기 분사부의 분사 각도가 조절되도록 상기 헤드부와 상기 몸통부를 연결하는 방역 로봇.
  12. 제6 항에 있어서,
    상기 하부 커버부에 수납되어 상기 방역 로봇이 이동하는 바닥을 방역하기 위한 광원을 더 포함하는 방역 로봇.
KR1020210018077A 2021-02-09 2021-02-09 자율 주행 및 방역 목표 자동 인식이 가능한 방역 로봇 KR102482264B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210018077A KR102482264B1 (ko) 2021-02-09 2021-02-09 자율 주행 및 방역 목표 자동 인식이 가능한 방역 로봇
US17/369,466 US20220253067A1 (en) 2021-02-09 2021-07-07 Disinfection robot capable of autonomous driving and automatic recognition of disinfection targets

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210018077A KR102482264B1 (ko) 2021-02-09 2021-02-09 자율 주행 및 방역 목표 자동 인식이 가능한 방역 로봇

Publications (2)

Publication Number Publication Date
KR20220115129A KR20220115129A (ko) 2022-08-17
KR102482264B1 true KR102482264B1 (ko) 2022-12-29

Family

ID=82704560

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210018077A KR102482264B1 (ko) 2021-02-09 2021-02-09 자율 주행 및 방역 목표 자동 인식이 가능한 방역 로봇

Country Status (2)

Country Link
US (1) US20220253067A1 (ko)
KR (1) KR102482264B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100478681B1 (ko) * 2003-07-29 2005-03-25 삼성광주전자 주식회사 바닥살균기능을 구비한 로봇청소기
KR101724481B1 (ko) * 2015-11-13 2017-04-11 주식회사 파나시아 자외선 살균시스템
KR102189255B1 (ko) * 2020-03-18 2020-12-09 주식회사 인아텍 로봇살균장치

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX347687B (es) * 2012-07-19 2017-05-09 Koninklijke Philips Nv Detección de dispositivos en aplicaciones médicas.
US20160271803A1 (en) * 2013-05-03 2016-09-22 Michael Stewart Robotic disinfection system
US9352469B2 (en) * 2013-05-03 2016-05-31 Michael Stewart Robotic disinfection system
KR20170037749A (ko) * 2015-09-25 2017-04-05 (주)시테코 살균장치
US11449061B2 (en) * 2016-02-29 2022-09-20 AI Incorporated Obstacle recognition method for autonomous robots
US11037320B1 (en) * 2016-03-01 2021-06-15 AI Incorporated Method for estimating distance using point measurement and color depth
US20200397936A1 (en) * 2019-05-21 2020-12-24 ATOM, Inc. Systems and Methods For Internet-Of-Things (IOT) Robotic Sterilization Device
KR102286132B1 (ko) * 2019-07-31 2021-08-06 엘지전자 주식회사 인공지능 로봇 청소기
US20220111105A1 (en) * 2020-10-14 2022-04-14 Chenghung Pan Multifunction uv disinfecting fixture

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100478681B1 (ko) * 2003-07-29 2005-03-25 삼성광주전자 주식회사 바닥살균기능을 구비한 로봇청소기
KR101724481B1 (ko) * 2015-11-13 2017-04-11 주식회사 파나시아 자외선 살균시스템
KR102189255B1 (ko) * 2020-03-18 2020-12-09 주식회사 인아텍 로봇살균장치

Also Published As

Publication number Publication date
US20220253067A1 (en) 2022-08-11
KR20220115129A (ko) 2022-08-17

Similar Documents

Publication Publication Date Title
US11717587B2 (en) Ultraviolet cleaning trajectory modeling
WO2021175264A1 (zh) 一种多功能智能移动消毒机器人
US10597156B2 (en) Cleaning drone
Perminov et al. Ultrabot: Autonomous mobile robot for indoor uv-c disinfection
CN106719524B (zh) 一种智能激光灭蚊装置及机器人
US20180126021A1 (en) Sterilization system and method
TWI791996B (zh) 控制移動機器人的方法
Zhao et al. A smart sterilization robot system with chlorine dioxide for spray disinfection
WO2022015318A1 (en) Mobile disinfection apparatuses having visual marker detection systems and methods of their use
Lopez et al. Robotman: A security robot for human-robot interaction
TWI592175B (zh) 智慧型自動偵測消毒機器人
KR102482264B1 (ko) 자율 주행 및 방역 목표 자동 인식이 가능한 방역 로봇
KR20180074486A (ko) 안내 로봇
US20220313855A1 (en) Robotic systems for autonomous targeted disinfection of surfaces in a dynamic environment and methods thereof
US20210290814A1 (en) Methods and systems for sterilizing spaces or surfaces from stand-off distances
CA3126589A1 (en) Automated mobile robot with uvc lights for disinfecting a facility
JP6902777B2 (ja) 行動誘導システム及び行動誘導方法
Vimala et al. Implementation of IOT based automatic disinfectant robot
ES2961527T3 (es) Robot de desinfección de desplazamiento automático para desinfectar superficies
KR102488483B1 (ko) 안전 거리 기반으로 인간과 상호작용하는 소독 로봇
US20220193282A1 (en) System for mobile smart devices that sterilize targets and increase the transparency of the process
KR102487350B1 (ko) 스마트 로봇을 이용한 방역 살균 장치
CN114459610A (zh) 一种测温与消毒一体化机器人
CN113855835B (zh) 一种消毒方法、装置、存储介质及消毒机器人
CN216372207U (zh) 测温机器人和系统、消毒机器人及测温与消毒一体化机器人

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right