KR20170014361A - 이동 로봇 및 그 제어방법 - Google Patents

이동 로봇 및 그 제어방법 Download PDF

Info

Publication number
KR20170014361A
KR20170014361A KR1020150107555A KR20150107555A KR20170014361A KR 20170014361 A KR20170014361 A KR 20170014361A KR 1020150107555 A KR1020150107555 A KR 1020150107555A KR 20150107555 A KR20150107555 A KR 20150107555A KR 20170014361 A KR20170014361 A KR 20170014361A
Authority
KR
South Korea
Prior art keywords
image
obstacle
information related
sensor
information
Prior art date
Application number
KR1020150107555A
Other languages
English (en)
Other versions
KR101772084B1 (ko
Inventor
신용민
이동훈
조동일
이태재
Original Assignee
엘지전자 주식회사
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사, 서울대학교산학협력단 filed Critical 엘지전자 주식회사
Priority to KR1020150107555A priority Critical patent/KR101772084B1/ko
Priority to PCT/KR2016/008335 priority patent/WO2017018848A1/en
Priority to AU2016299576A priority patent/AU2016299576B2/en
Priority to TW105124182A priority patent/TWI603699B/zh
Priority to US15/745,679 priority patent/US11029700B2/en
Priority to EP16830881.5A priority patent/EP3328597A4/en
Publication of KR20170014361A publication Critical patent/KR20170014361A/ko
Application granted granted Critical
Publication of KR101772084B1 publication Critical patent/KR101772084B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/009Carrying-vehicles; Arrangements of trollies or wheels; Means for avoiding mechanical obstacles
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/10Filters; Dust separators; Dust removal; Automatic exchange of filters
    • A47L9/19Means for monitoring filtering operation
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2842Suction motors or blowers
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Abstract

본 발명은 자율 주행을 수행하는 청소기와 관련된 것으로서, 흡입구가 구비된 본체, 상기 본체 내부에 구비되어, 상기 흡입구를 통해 청소 대상물을 흡입시키는 청소부, 상기 본체를 이동시키는 구동부, 상기 본체에 부착되어 제1 영상을 촬영하는 카메라 센서, 상기 본체의 이동과 관련된 정보를 감지하는 동작 감지 센서; 및 상기 촬영된 영상 및 상기 이동과 관련된 정보 중 적어도 하나에 근거하여, 장애물과 관련된 정보를 검출하고, 상기 검출된 장애물과 관련된 정보에 근거하여, 상기 구동부를 제어하는 제어부를 포함하는 것을 특징으로 한다.

Description

이동 로봇 및 그 제어방법{MOVING ROBOT AND CONTROLLING METHOD THEREOF}
본 발명은 자율 주행을 수행하는 로봇 및 그 제어 방법에 관한 것으로서, 보다 상세하게는, 자율 주행 중에 청소 기능을 수행하는 로봇 및 그 제어 방법에 관한 것이다.
일반적으로 로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다.
상기 가정용 로봇의 대표적인 예는 로봇 청소기로서, 일정 영역을 스스로 주행하면서 주변의 먼지 또는 이물질을 흡입하여 청소하는 가전기기의 일종이다. 이러한 로봇 청소기는 일반적으로 충전 가능한 배터리를 구비하고, 주행 중 장애물을 피할 수 있는 장애물 센서를 구비하여 스스로 주행하며 청소할 수 있다.
최근에는, 로봇 청소기가 청소 영역을 단순히 자율적으로 주행하여 청소를 수행하는 것에서 벗어나 로봇 청소기를 헬스 케어, 스마트홈, 원격제어 등 다양한 분야에 활용하기 위한 연구가 활발하게 이루어지고 있다.
본 발명이 해결하고자 하는 기술적 과제는, 단안 카메라 또는 하나의 카메라만을 이용하여 장애물과 관련된 정보를 검출할 수 있는 자율 주행을 수행하는 청소기 및 그의 제어방법을 제공하는 것이다.
또한, 본 발명의 기술적 과제는, 하나의 카메라만을 이용하여 로봇의 본체를 기준으로 전방위에 존재하는 장애물을 감지할 수 있는 자율 주행을 수행하는 청소기 및 그의 제어방법을 제공하는 것이다.
전술한 기술적 과제를 해결하기 위한 수단으로서, 본 발명에 따른 자율 주행을 수행하는 청소기는 흡입구가 구비된 본체, 상기 본체 내부에 구비되어, 상기 흡입구를 통해 청소 대상물을 흡입시키는 청소부, 상기 본체를 이동시키는 구동부, 상기 본체에 부착되어 제1 영상을 촬영하는 카메라 센서, 상기 본체의 이동과 관련된 정보를 감지하는 동작 감지 센서; 및 상기 촬영된 영상 및 상기 이동과 관련된 정보 중 적어도 하나에 근거하여, 장애물과 관련된 정보를 검출하고, 상기 검출된 장애물과 관련된 정보에 근거하여, 상기 구동부를 제어하는 제어부를 포함하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 제어부는, 상기 촬영된 제1 영상을 복수의 이미지 영역으로 분할하고, 상기 분할된 이미지 영역으로부터 각각 장애물과 관련된 제1 정보를 검출하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 카메라는 상기 제1 영상이 촬영된 이후 기 설정된 시간 간격이 경과하면, 제2 영상을 촬영하고, 상기 제어부는 상기 제2 영상을 복수의 이미지 영역으로 분할하고, 상기 제1 영상의 분할된 이미지 영역과 상기 제2 영상의 분할된 이미지 영역을 비교하고, 상기 비교결과에 근거하여 장애물과 관련된 제1 정보를 검출하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 제어부는 상기 제2 영상의 분할된 이미지 영역 중에서, 상기 제1 영상의 각각 분할된 이미지 영역에 대응되는 영역을 매칭시키고, 상기 매칭결과에 근거하여, 장애물과 관련된 제1 정보를 검출하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 카메라는 상기 제1 영상이 촬영된 이후 기 설정된 시간 간격이 경과하면, 제2 영상을 촬영하고, 상기 제어부는 상기 제1 영상을 변환시키고, 상기 변환된 영상을 제2 영상에 투영시켜 제3 영상을 생성시키고, 상기 생성된 제3 영상과 제2 영상을 비교하여, 장애물과 관련된 제2 정보를 검출하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 제어부는 상기 생성된 제3 영상과 상기 제2 영상의 색상 차이에 근거하여, 장애물과 관련된 제2 정보를 검출하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 제어부는 상기 제1 영상으로부터 적어도 하나의 특징점을 추출하고, 상기 추출된 특징점에 근거하여, 장애물과 관련된 제3 정보를 검출하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 제어부는 상기 제1 내지 제3 정보 각각에 대해 가중치와 관련된 정보를 설정하고, 상기 설정된 가중치 및 상기 제1 내지 제3 정보에 근거하여, 상기 장애물과 관련된 제4 정보를 검출하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 제어부는 상기 제1 내지 제3 정보를 이용하여, 상기 장애물과 관련된 맵 정보를 생성하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 카메라 센서의 촬영각은 상기 본체에 대해 전방위인 것을 특징으로 한다.
본 발명에 따르면, 하나의 카메라만으로도 장애물 검출을 수행할 수 있으므로, 로봇 청소기의 제작 비용을 감소시킬 수 있다.
또한, 본 발명에 따른 로봇 청소기는, 단안 카메라를 이용하여 장애물 검출의 성능을 향상시킬 수 있다.
아울러, 본 발명에 따른 로봇 청소기는, 카메라의 설치 상태에 영향을 받지 않고, 정확하게 장애물을 검출할 수 있다.
도 1a는 본 발명의 일 실시예에 따른 이동 로봇의 구성을 나타내는 블록도이다.
도 1b는 본 발명의 일 실시예에 따른 이동 로봇의 센서에 포함된 세부 구성을 나타내는 블록이다.
도 2는 본 발명의 일 실시예에 따른 이동 로봇의 외관을 나타내는 개념도이다.
도 3은 본 발명의 일 실시예에 따른 이동 로봇의 제어방법을 나타내는 흐름도이다.
도 4는 본 발명에 따른 이동 로봇이 촬영된 영상을 분할하여 장애물을 검출하는 일 실시예를 나타내는 개념도이다.
도 5a 내지 도 5f는 본 발명에 따른 이동 로봇이 촬영된 영상을 이용하여 장애물을 검출하는 일 실시예를 나타내는 개념도이다.
도 6은 본 발명의 또 다른 실시예에 따른 이동 로봇의 제어방법을 나타내는 흐름도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 명세서에 개시된 기술의 사상을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 명세서에 개시된 기술의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 명세서에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.
또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
또한, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 기술의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 그 기술의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
이하의 도 1a에서는 본 발명의 일 실시예에 따른 이동 로봇의 구성이 설명된다.
도 1a에 도시한 바와 같이, 본 발명의 일 실시 예에 따른 이동 로봇은, 통신부(110), 입력부(120), 구동부(130), 센서(140), 출력부(150), 전원부(160), 메모리(170), 제어부(180) 및 청소부(190) 중 적어도 하나 또는 이들의 조합을 포함할 수 있다.
이때, 도 1a에 도시한 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 로봇 청소기가 구현될 수 있음은 물론이다. 이하, 각 구성요소들에 대해 살펴보기로 한다.
우선, 전원부(160)는 외부 상용 전원에 의해 충전 가능한 배터리를 구비하여 이동 로봇 내로 전원을 공급한다. 전원부(160)는 이동 로봇에 포함된 각 구성들에 구동 전원을 공급하여, 이동 로봇이 주행하거나 특정 기능을 수행하는데 요구되는 동작 전원을 공급할 수 있다.
이때, 제어부(180)는 배터리의 전원 잔량을 감지하고, 전원 잔량이 부족하면 외부 상용 전원과 연결된 충전대로 이동하도록 제어하여, 충전대로부터 충전 전류를 공급받아 배터리를 충전할 수 있다. 배터리는 배터리 감지부와 연결되어 배터리 잔량 및 충전 상태가 제어부(180)에 전달될 수 있다. 출력부(150)은 제어부에 의해 상기 배터리 잔량을 화면에 표시할 수 있다.
배터리는 로봇 청소기 중앙의 하부에 위치할 수도 있고, 좌, 우측 중 어느 한쪽에 위치할 수도 있다. 후자의 경우, 이동 로봇은 배터리의 무게 편중을 해소하기 위해 균형추를 더 구비할 수 있다.
한편, 구동부(130)는 모터를 구비하여, 상기 모터를 구동함으로써, 좌, 우측 주바퀴를 양 방향으로 회전시켜 본체를 회전 또는 이동시킬 수 있다. 구동부(130)는 이동 로봇의 본체를 전후좌우로 진행시키거나, 곡선주행시키거나, 제자리 회전시킬 수 있다.
한편, 입력부(120)는 사용자로부터 로봇 청소기에 대한 각종 제어 명령을 입력받는다. 입력부(120)는 하나 이상의 버튼을 포함할 수 있고, 예를 들어, 입력부(120)는 확인버튼, 설정버튼 등을 포함할 수 있다. 확인버튼은 감지 정보, 장애물 정보, 위치 정보, 맵 정보를 확인하는 명령을 사용자로부터 입력받기 위한 버튼이고, 설정버튼은 상기 정보들을 설정하는 명령을 사용자로부터 입력받기 위한 버튼이다.
또한, 입력부(120)는 이전 사용자 입력을 취소하고 다시 사용자 입력을 받기 위한 입력재설정버튼, 기 설정된 사용자 입력을 삭제하기 위한 삭제버튼, 작동 모드를 설정하거나 변경하는 버튼, 충전대로 복귀하도록 하는 명령을 입력받는 버튼 등을 포함할 수 있다.
또한, 입력부(120)는 하드 키나 소프트 키, 터치패드 등으로 이동 로봇의 상부에 설치될 수 있다. 또, 입력부(120)는 출력부(150)와 함께 터치 스크린의 형태를 가질 수 있다.
한편, 출력부(150)는, 이동 로봇의 상부에 설치될 수 있다. 물론 설치 위치나 설치 형태는 달라질 수 있다. 예를 들어, 출력부(150)는 배터리 상태 또는 주행 방식 등을 화면에 표시할 수 있다.
또한, 출력부(150)는, 센서(140)가 검출한 이동 로봇 내부의 상태 정보, 예를 들어 이동 로봇에 포함된 각 구성들의 현재 상태를 출력할 수 있다. 또, 출력부(150)는 센서(140)가 검출한 외부의 상태 정보, 장애물 정보, 위치 정보, 지도 정보 등을 화면에 디스플레이할 수 있다. 출력부(150)는 발광 다이오드(Light Emitting Diode; LED), 액정 표시 장치(Liquid Crystal Display; LCD), 플라즈마 표시 패널(Plasma Display Panel), 유기 발광 다이오드(Organic Light Emitting Diode; OLED) 중 어느 하나의 소자로 형성될 수 있다.
출력부(150)는, 제어부(180)에 의해 수행되는 이동 로봇의 동작 과정 또는 동작 결과를 청각적으로 출력하는 음향 출력 수단을 더 포함할 수 있다. 예를 들어, 출력부(150)는 제어부(180)에 의해 생성된 경고 신호에 따라 외부에 경고음을 출력할 수 있다.
이때, 음향 출력 수단은 비퍼(beeper), 스피커 등의 음향을 출력하는 수단일 수 있고, 출력부(150)는 메모리(170)에 저장된 소정의 패턴을 가진 오디오 데이터 또는 메시지 데이터 등을 이용하여 음향 출력 수단을 통해 외부로 출력할 수 있다.
따라서, 본 발명의 일 실시예에 따른 이동 로봇은, 출력부(150)를 통해 주행 영역에 대한 환경 정보를 화면에 출력하거나 음향으로 출력할 수 있다. 또 다른 실시예에 따라, 이동 로봇은 출력부(150)를 통해 출력할 화면이나 음향을 단말 장치가 출력하도록, 지도 정보 또는 환경 정보를 통신부(110)릍 통해 단말 장치에 전송할 수 있다.
한편, 통신부(110)는 단말 장치 및/또는 특정 영역 내 위치한 타 기기(본 명세서에서는 "가전 기기"라는 용어와 혼용하기로 한다)와 유선, 무선, 위성 통신 방식들 중 하나의 통신 방식으로 연결되어 신호와 데이터를 송수신한다.
통신부(110)는 특정 영역 내에 위치한 타 기기와 데이터를 송수신할 수 있다. 이때, 타 기기는 네트워크에 연결하여 데이터를 송수신할 수 있는 장치이면 어느 것이어도 무방하며, 일 예로, 공기 조화 장치, 난방 장치, 공기 정화 장치, 전등, TV, 자동차 등과 같은 장치일 수 있다. 또한, 상기 타 기기는, 문, 창문, 수도 밸브, 가스 밸브 등을 제어하는 장치 등일 수 있다. 또한, 상기 타 기기는, 온도, 습도, 기압, 가스 등을 감지하는 센서 등일 수 있다.
따라서, 제어부(180)는 통신부(110)를 통해 상기 타 기기에 제어 신호를 전송할 수 있고, 이에 따라, 상기 타 기기는 수신한 제어 신호에 따라 동작할 수 있다. 일 예로, 상기 타 기기가 공기 조화 장치인 경우, 전원을 켜거나 제어 신호에 따라 특정 영역에 대하여 냉방 또는 난방을 수행할 수 있고, 창문을 제어하는 장치인 경우, 제어 신호에 따라 창문을 개폐하거나 일정 비율로 개방할 수 있다.
또한, 통신부(110)는 특정 영역 내에 위치한 적어도 하나의 타 기기로부터 각종 상태 정보 등을 수신할 수 있고, 일 예로, 통신부(110)는 공기 조화 장치의 설정 온도, 창문의 개폐 여부 또는 개폐 정도를 나타내는 개폐 정보, 온도 센서에 의해 감지되는 특정 영역의 현재 온도 등을 수신할 수 있다.
이에 따라, 제어부(180)는 상기 상태 정보, 입력부(120)를 통한 사용자 입력, 또는 단말 장치를 통한 사용자 입력에 따라 상기 타 기기에 대한 제어 신호를 생성할 수 있다.
이때, 통신부(110)는 적어도 하나의 타 기기와 통신하기 위해 라디오 주파수(RF) 통신, 블루투스(Bluetooth), 적외선 통신(IrDA), 무선 랜(LAN), 지그비(Zigbee) 등과 같은 무선 통신 방식 중 적어도 하나의 통신 방식을 채용할 수 있고, 이에 따라 상기 타 기기 및 이동 로봇(100)은 적어도 하나의 네트워크를 구성할 수 있다. 이때, 상기 네트워크는, 인터넷(internet)인 것이 바람직하다.
통신부(110)는 단말 장치로부터 제어 신호를 수신할 수 있다. 이에 따라, 제어부(180)는 상기 통신부(110)를 통해 수신한 제어 신호에 따라 다양한 작업과 관련된 제어 명령을 수행할 수 있다. 일 예로, 입력부(120)를 통해 사용자로부터 입력받을 수 있는 제어 명령을 통신부(110)를 통해 단말 장치로부터 수신할 수 있고, 제어부(180)는 수신한 제어 명령을 수행할 수 있다. 또한, 통신부(110)는 상기 단말 장치로 이동 로봇의 상태 정보, 장애물 정보, 위치 정보, 영상 정보, 지도 정보 등을 전송할 수 있다. 일 예로, 출력부(150)를 통해 출력할 수 있는 각종 정보를 통신부(110)를 통해 단말 장치로 전송할 수 있다.
이때, 통신부(110)는, 랩탑(laptop)과 같은 컴퓨터, 디스플레이 장치 및 이동 단말기(일 예로, 스마트폰) 등과 같은 단말 장치와 통신하기 위해 라디오 주파수(RF) 통신, 블루투스(Bluetooth), 적외선 통신(IrDA), 무선 랜(LAN), 지그비(Zigbee) 등과 같은 무선 통신 방식 중 적어도 하나의 통신 방식을 채용할 수 있고, 이에 따라 상기 타 기기 및 이동 로봇(100)은 적어도 하나의 네트워크를 구성할 수 있다. 이때, 상기 네트워크는, 인터넷(internet)인 것이 바람직하다. 예를 들어, 단말 장치가 이동 단말기인 경우에 로봇 청소기(100)는 이동 단말기가 가용한 통신 방식을 사용하는 통신부(110)를 통해 단말 장치와 통신할 수 있다.
한편, 메모리(170)는 로봇 청소기를 제어 또는 구동하는 제어 프로그램 및 그에 따른 데이터를 저장한다. 메모리(170)는 오디오 정보, 영상 정보, 장애물 정보, 위치 정보, 지도 정보 등을 저장할 수 있다. 또, 메모리(170)는 주행 패턴과 관련된 정보를 저장할 수 있다.
상기 메모리(170)는 비휘발성 메모리를 주로 사용한다. 여기서, 상기 비휘발성 메모리(Non-Volatile Memory, NVM, NVRAM)는 전원이 공급되지 않아도 저장된 정보를 계속 유지할 수 있는 저장 장치로서, 일 예로, 롬(ROM), 플래시 메모리(Flash Memory), 마그네틱 컴퓨터 기억 장치(예를 들어, 하드 디스크, 디스켓 드라이브, 마그네틱 테이프), 광디스크 드라이브, 마그네틱 RAM, PRAM 등일 수 있다.
한편, 센서(140)는, 외부 신호 감지 센서, 전방 감지 센서, 낭떠러지 감지 센서 중 적어도 하나를 포함할 수 있다.
외부 신호 감지 센서는 이동 로봇의 외부 신호를 감지할 수 있다. 외부 신호 감지 센서는, 일 예로, 적외선 센서(Infrared Ray Sensor), 초음파 센서(Ultra Sonic Sensor), RF 센서(Radio Frequency Sensor) 등일 수 있다.
이동 로봇은 외부 신호 감지 센서를 이용하여 충전대가 발생하는 안내 신호를 수신하여 충전대의 위치 및 방향을 확인할 수 있다. 이때, 충전대는 이동 로봇이 복귀 가능하도록 방향 및 거리를 지시하는 안내 신호를 발신할 수 있다. 즉, 이동 로봇은 충전대로부터 발신되는 신호를 수신하여 현재의 위치를 판단하고 이동 방향을 설정하여 충전대로 복귀할 수 있다.
또한, 이동 로봇은 외부 신호 감지 센서를 이용하여 리모컨, 단말기 등의 원격 제어 장치가 발생하는 신호를 감지할 수 있다.
외부 신호 감지 센서는 이동 로봇의 내부나 외부의 일 측에 구비될 수 있다. 일 예로, 적외선 센서는 이동 로봇 내부 또는 출력부(150)의 카메라 센서의 주변에 설치될 수 있다.
한편, 전방 감지 센서는, 이동 로봇의 전방, 구체적으로 이동 로봇의 측면 외주면을 따라 일정 간격으로 설치될 수 있다. 전방 감지 센서는 이동 로봇의 적어도 일 측면에 위치하여, 전방의 장애물을 감지하기 위한 것으로서, 전방 감지 센서는 이동 로봇의 이동 방향에 존재하는 물체, 특히 장애물을 감지하여 검출 정보를 제어부(180)에 전달할 수 있다. 즉, 전방 감지 센서는, 이동 로봇의 이동 경로 상에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어부(180)에 전달할 수 있다.
전방 감지 센서는, 일 예로, 적외선 센서, 초음파 센서, RF 센서, 지자기 센서 등일 수 있고, 이동 로봇은 전방 감지 센서로 한 가지 종류의 센서를 사용하거나 필요에 따라 두 가지 종류 이상의 센서를 함께 사용할 수 있다.
일 예로, 초음파 센서는 일반적으로 원거리의 장애물을 감지하는 데에 주로 사용될 수 있다. 초음파 센서는 발신부와 수신부를 구비하여, 제어부(180)는 발신부를 통해 방사된 초음파가 장애물 등에 의해 반사되어 수신부에 수신되는 지의 여부로 장애물의 존부를 판단하고, 초음파 방사 시간과 초음파 수신 시간을 이용하여 장애물과의 거리를 산출할 수 있다.
또한, 제어부(180)는 발신부에서 방사된 초음파와, 수신부에 수신되는 초음파를 비교하여, 장애물의 크기와 관련된 정보를 검출할 수 있다. 예를 들어, 제어부(180)는 수신부에 더 많은 초음파가 수신될수록, 장애물의 크기가 큰 것으로 판단할 수 있다.
일 실시 예에서, 복수(일 예로, 5개)의 초음파 센서가 이동 로봇의 전방 측면에 외주면을 따라 설치될 수 있다. 이때, 바람직하게 초음파 센서는 발신부와 수신부가 교대로 이동 로봇의 전면에 설치될 수 있다.
즉, 발신부는 본체의 전면 중앙으로부터 좌, 우측에 이격되도록 배치될 수 있고, 수신부의 사이에 하나 또는 둘 이상의 발신부가 배치되어 장애물 등으로부터 반사된 초음파 신호의 수신 영역을 형성할 수 있다. 이와 같은 배치로 센서의 수를 줄이면서 수신 영역을 확장할 수 있다. 초음파의 발신 각도는 크로스토크(crosstalk) 현상을 방지하도록 서로 다른 신호에 영향을 미치지 아니하는 범위의 각을 유지할 수 있다. 또한, 수신부들의 수신 감도는 서로 다르게 설정될 수 있다.
또한, 초음파 센서에서 발신되는 초음파가 상향으로 출력되도록 초음파 센서는 일정 각도만큼 상향으로 설치될 수 있고, 이때, 초음파가 하향으로 방사되는 것을 방지하기 위해 소정의 차단 부재를 더 포함할 수 있다.
한편, 전방 감지 센서는, 전술한 바와 같이, 두 가지 종류 이상의 센서를 함께 사용할 수 있고, 이에 따라, 전방 감지 센서는 적외선 센서, 초음파 센서, RF 센서 등 중 어느 한 가지 종류의 센서를 사용할 수 있다.
일 예로, 전방 감지 센서는 초음파 센서 이외에 다른 종류의 센서로 적외선 센서를 포함할 수 있다.
적외선 센서는 초음파 센서와 함께 이동 로봇의 외주면에 설치될 수 있다. 적외선 센서 역시, 전방이나 측면에 존재하는 장애물을 감지하여 장애물 정보를 제어부(180)에 전달할 수 있다. 즉, 적외선 센서는, 이동 로봇의 이동 경로 상에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어부(180)에 전달한다. 따라서, 이동 로봇은 본체가 장애물과의 충돌없이 특정 영역 내에서 이동할 수 있다.
한편, 낭떠러지 감지 센서(또는 클리프 센서(Cliff Sensor))는, 다양한 형태의 광 센서를 주로 이용하여, 이동 로봇의 본체를 지지하는 바닥의 장애물을 감지할 수 있다.
즉, 낭떠러지 감지 센서는, 바닥의 이동 로봇의 배면에 설치되되, 이동 로봇의 종류에 따라 다른 위치에 설치될 수 있음은 물론이다. 낭떠러지 감지 센서는 이동 로봇의 배면에 위치하여, 바닥의 장애물을 감지하기 위한 것으로서, 낭떠러지 감지 센서는 상기 장애물 감지 센서와 같이 발광부와 수광부를 구비한 적외선 센서, 초음파 센서, RF 센서, PSD(Position Sensitive Detector) 센서 등일 수 있다.
일 예로, 낭떠러지 감지 센서 중 어느 하나는 이동 로봇의 전방에 설치되고, 다른 두 개의 낭떠러지 감지 센서는 상대적으로 뒤쪽에 설치될 수 있다.
예를 들어, 낭떠러지 감지 센서는 PSD 센서일 수 있으나, 복수의 서로 다른 종류의 센서로 구성될 수도 있다.
PSD 센서는 반도체 표면저항을 이용해서 1개의 p-n접합으로 입사광의 단장거리 위치를 검출한다. PSD 센서에는 일축 방향만의 광을 검출하는 1차원 PSD 센서와, 평면상의 광위치를 검출할 수 있는 2차원 PSD 센서가 있으며, 모두 pin 포토 다이오드 구조를 가질 수 있다. PSD 센서는 적외선 센서의 일종으로서, 적외선을 이용하여, 적외선을 송신한 후 장애물에서 반사되어 돌아오는 적외선의 각도를 측정하여 거리를 측정한다. 즉, PSD 센서는 삼각측량방식을 이용하여, 장애물과의 거리를 산출한다.
PSD 센서는 장애물에 적외선을 발광하는 발광부와, 장애물로부터 반사되어 돌아오는 적외선을 수광하는 수광부를 구비하되, 일반적으로 모듈 형태로 구성된다. PSD 센서를 이용하여, 장애물을 감지하는 경우, 장애물의 반사율, 색의 차이에 상관없이 안정적인 측정값을 얻을 수 있다.
제어부(180)는 낭떠러지 감지 센서가 지면을 향해 발광한 적외선의 발광신호와 장애물에 의해 반사되어 수신되는 반사신호 간의 적외선 각도를 측정하여, 낭떠러지를 감지하고 그 깊이를 분석할 수 있다.
한편, 제어부(180)는 낭떠러지 감지 센서를 이용하여 감지한 낭떠러지의 지면 상태에 따라 통과 여부를 판단할 수 있고, 판단 결과에 따라 낭떠러지의 통과 여부를 결정할 수 있다. 예를 들어, 제어부(180)은 낭떠러지 감지 센서를 통해 낭떠러지의 존재 여부 및 낭떠러지 깊이를 판단한 다음, 낭떠러지 감지 센서를 통해 반사 신호를 감지한 경우에만 낭떠러지를 통과하도록 한다.
다른 예로, 제어부(180)은 낭떠러지 감지 센서를 이용하여 이동 로봇의 들림 현상을 판단할 수도 있다.
또한, 도 1b를 참조하면, 센서(140)는 자이로 센서(141), 가속도 센서(142), 휠 센서(143) 및 카메라 센서(144) 중 적어도 하나를 포함할 수 있다.
자이로 센서(141)(gyro sensor)는 로봇 청소기가 움직일 때 회전 방향을 감지하고 회전각을 검출한다. 구체적으로, 자이로 센서(141)는 로봇 청소기의 각속도를 검출하여 각속도에 비례하는 전압 혹은 전류 값을 출력하고, 제어부(180)는 자이로 센서로부터 출력되는 전압 혹은 전류 값을 이용하여 회전 방향 및 회전각을 감지할 수 있다.
가속도 센서(142)(acceleration sensor)는, 로봇 청소기의 속도 변화, 예를 들어, 출발, 정지, 방향 전환, 물체와의 충돌 등에 따른 이동 속도의 변화를 감지한다. 가속도 센서(142)는 주 바퀴나 보조 바퀴의 인접한 위치에 부착되어, 바퀴의 미끄러짐이나 공회전을 검출할 수 있다. 또, 가속도 센서(142)는 동작 감지 유닛에 내장되어 로봇 청소기의 속도 변화를 감지할 수 있다. 즉, 가속도 센서(142)는 속도 변화에 따른 충격량을 검출하여 이에 대응하는 전압 혹은 전류 값을 출력한다. 따라서, 가속도 센서는 전자식 범퍼의 기능을 수행할 수 있다.
휠 센서(143)(wheel sensor)는 주 바퀴에 연결되어 주 바퀴의 회전수를 감지한다. 여기서, 휠 센서(143)는 엔코더(encoder)일 수 있다. 엔코더는 좌측 및/또는 우측의 주 바퀴의 회전수를 감지하여 출력한다. 동작 감지 유닛은 회전수를 이용하여 좌, 우측 바퀴의 회전 속도를 연산할 수 있고, 또한, 좌, 우측 바퀴의 회전수 차이를 이용하여 로봇 청소기의 회전각을 연산할 수도 있다.
이상에서 언급된 자이로 센서(141), 가속도 센서(142) 및 휠 센서(143)는 동작 감지 센서로
한편, 카메라 센서(144)는, 이동 로봇의 배면에 구비되어, 이동 중 하방, 즉, 바닥면(또는 피청소면)에 대한 이미지 정보를 획득할 수 있다. 상기 배면에 구비된 카메라 센서는 하부 카메라 센서로 정의될 수 있고, 다른 말로 옵티컬 플로우 센서(Optical Flow Sensor)라 칭하기도 한다.
하부 카메라 센서는, 센서 내에 구비된 이미지 센서로부터 입력되는 하방 영상을 변환하여 소정 형식의 영상 데이터를 생성한다. 생성된 영상 데이터는 메모리(170)에 저장될 수 있다.
하부 카메라 센서는, 렌즈(미도시)와 상기 렌즈를 조절하는 렌즈 조절부(미도시)를 더 구비할 수 있다. 상기 렌즈로는 초점거리가 짧고 심도가 깊은 팬포커스형 렌즈를 사용하는 것이 좋다. 상기 렌즈 조절부는 전후 이동되도록 하는 소정 모터와 이동수단을 구비하여 상기 렌즈를 조절한다.
또한, 하나 이상의 광원이 이미지 센서에 인접하여 설치될 수 있다. 하나 이상의 광원은, 이미지 센서에 의해 촬영되는 바닥면의 소정 영역에 빛을 조사한다. 즉, 이동 로봇이 바닥면을 따라 특정 영역을 이동하는 경우에, 바닥면이 평탄하면 이미지 센서와 바닥면 사이에는 일정한 거리가 유지된다. 반면, 이동 로봇이 불균일한 표면의 바닥면을 이동하는 경우에는 바닥면의 요철 및 장애물에 의해 일정 거리 이상 멀어지게 된다. 이때 하나 이상의 광원은 조사되는 빛의 양을 조절하도록 제어부(180)에 의해 제어될 수 있다. 상기 광원은 광량 조절이 가능한 발광 소자, 예를 들어 LED(Light Emitting Diode) 등일 수 있다.
하부 카메라 센서를 이용하여, 제어부(180)는 이동 로봇의 미끄러짐과 무관하게 이동 로봇의 위치를 검출할 수 있다. 제어부(180)은 하부 카메라 센서에 의해 촬영된 영상 데이터를 시간에 따라 비교 분석하여 이동 거리 및 이동 방향을 산출하고, 이를 근거로 이동 로봇의 위치를 산출할 수 있다. 하부 카메라 센서를 이용하여 이동 로봇의 하방에 대한 이미지 정보를 이용함으로써, 제어부(180)는 다른 수단에 의해 산출한 이동 로봇의 위치에 대하여 미끄러짐에 강인한 보정을 할 수 있다.
한편, 카메라 센서는 이동 로봇의 상방이나 전방을 향하도록 설치되어 이동 로봇 주변을 촬영할 수 있다. 상기 상방이나 전방을 향하도록 설치된 카메라 센서는 상방 카메라 센서로 정의될 수 있다. 이동 로봇이 복수의 상부 카메라 센서들을 구비하는 경우, 카메라 센서들은 일정 거리 또는 일정 각도로 이동 로봇의 상부나 옆면에 형성될 수 있다.
상부 카메라 센서는 피사체의 초점을 맞추는 렌즈와, 카메라 센서를 조절하는 조절부와, 상기 렌즈를 조절하는 렌즈 조절부를 더 포함할 수 있다. 상기 렌즈는 소정의 위치에서도 주변의 모든 영역, 예를 들어 천장의 모든 영역이 촬영될 수 있도록 화각이 넓은 렌즈를 사용한다. 예를 들어 화각이 일정 각, 예를 들어 160도, 이상인 렌즈를 포함한다.
제어부(180)는 상부 카메라 센서가 촬영한 영상 데이터를 이용하여 이동 로봇의 위치를 인식할 수 있고, 특정 영역에 대한 지도 정보를 생성할 수 있다. 제어부(180)은 가속도 센서, 자이로 센서, 휠 센서, 하부 카메라 센서에 의한 영상 데이터와 상부 카메라 센서에 의해 획득한 영상 데이터를 이용하여 정밀하게 위치를 인식할 수 있다.
또한, 제어부(180)는 전방 감지 센서나 장애물 감지 센서 등에 의해 검출된 장애물 정보와 상부 카메라 센서에 의해 인식된 위치를 이용하여, 지도 정보를 생성할 수 있다. 이와 달리, 지도 정보는 제어부(180)에 의해 생성되지 않고, 외부로부터 입력받고, 메모리(170)에 저장할 수 있다.
일 실시예에서, 상부 카메라 센서는 이동 로봇의 전방을 향하도록 설치될 수 있다. 또한, 상부 카메라 센서의 설치 방향은 고정될 수도 있고, 제어부(180)에 의해 변경될 수도 있다.
청소부(190)는 로봇 청소기의 본체 하부에 회전 가능하게 장착되는 회전솔과, 로봇 청소기 본체의 수직 방향의 회전축을 중심으로 회전하면서 벽면 등 청소 영역의 모서리나 구석 등을 청소하는 사이드 브러쉬를 더 포함하여 구성된다.
회전솔은 로봇 청소기 본체의 횡 방향의 축을 중심으로 회전하면서 바닥이나 카페트 등의 먼지를 공기 중으로 부유시킨다. 회전솔의 외주면에는 나선 방향으로 다수개의 블레이드가 구비된다. 나선형의 블레이드 사이에는 브러쉬가 구비될 수 있다. 회전솔과 사이드 브러쉬는 회전하는 축이 서로 다르므로, 로봇 청소기는 일반적으로 회전솔과 사이드 브러쉬를 구동하는 모터를 각각 구비하여야 한다.
사이드 브러쉬는 회전솔의 양측에 배치되고, 회전솔과 사이드 브러쉬 사이에 회전솔의 회전력을 사이드 브러쉬로 전달하는 전동 수단을 구비하여 하나의 브러쉬 모터를 이용하여 회전솔과 사이드 브러쉬를 모두 구동할 수도 있다. 후자의 경우, 전동 수단으로는 웜(Worm)과 웜 기어(Worm Gear)를 사용할 수도 있고, 벨트를 이용할 수도 있다.
청소부(190)는 집진된 먼지가 저장되는 먼지통과, 청소 영역의 먼지를 흡입하는 동력을 제공하는 흡입팬과, 상기 흡입팬을 회전시켜 공기를 흡입하는 흡입 모터를 포함함으로써, 주변의 먼지 또는 이물질을 흡입할 수 있다.
흡입팬은 공기를 유동시키는 복수의 날개와, 복수의 날개의 상류측 외각에 링 형상으로 형성되어 복수의 날개를 연결하고 흡입팬의 중심축 방향으로 유입된 공기가 중심축에 수직한 방향으로 유동되도록 안내하는 부재를 포함한다.
이때, 청소부(190)는 대략 직육면체 형상으로 이루어지고, 공기 중의 오물이나 먼지를 걸러내는 필터를 더 포함할 수 있다.
필터는 필요에 따라 제1 필터와 제2 필터로 구분되어 구성될 수 있고, 필터를 형성하는 몸체에도 바이패스 필터가 형성될 수 있다. 제1 필터와 제2 필터는 메쉬 필터(Mesh Filter) 또는 헤파 필터 (HEPA Filter)일 수 있고, 부직포, 종이 필터 중 하나로 형성되거나 둘 이상을 복합적으로 사용할 수 있다.
제어부(180)는 먼지통의 상태를 감지할 수 있으며, 구체적으로 먼지통 내에 먼지 등이 어느 정도인지 포함되어 있는지의 상태와 먼지통이 로봇 청소기에 장착 또는 탈착되어 있는지 상태를 감지할 수 있다. 전자의 경우에는 먼지통 내에 압전 센서 등을 삽입하여 감지할 수 있다. 후자의 경우, 다양한 형태로 먼지통의 장착 상태를 감지할 수 있다. 예를 들어, 먼지통 장착 여부를 감지하는 센서로는, 먼지통이 장착되는 홈의 하면에 온/오프되도록 설치되는 마이크로 스위치, 마그네트의 자기장을 이용하는 마그네틱 센서, 자석체의 자기장을 이용하는 자기 센서, 발광부와 수광부를 구비하고 빛을 수광하는 광 센서 등을 이용할 수 있다. 마그네틱 센서나 자기 센서의 경우에는 마그네트나 자석체가 접착되는 부분에 합성고무 재질의 실링 부재를 더 포함할 수 있다.
또한, 청소부(190)은 로봇 청소기 본체의 하부에 분리 가능하게 장착되는 걸레판을 더 포함할 수 있다. 걸레판은 분리 가능하게 장착된 걸레를 포함할 수 있고, 사용자는 걸레만을 분리하여 세탁하거나 교체할 수 있다. 걸레는 걸레판에 다양한 방식으로 장착될 수 있으나, 벨크로(Velcro)라고 하는 부착포를 이용하여 걸레판에 부착될 수 있다. 예를 들어, 상기 걸레판은 로봇 청소기 본체에 자력에 의해서 장착된다. 걸레판에는 제1 자석이 구비되고, 청소기 본체에는 제1 자석에 대응되는 금속 부재나 제2 자석이 구비될 수 있다. 걸레판이 청소기 본체의 바닥에 정위치되면, 제1 자석과 금속 부재 또는 제1 자석과 제2 자석에 의해 걸레판이 로봇 청소기 본체에 고정된다.
로봇 청소기는 걸레판의 장착 여부를 감지하는 센서를 더 포함할 수 있다. 예를 들어, 상기 센서는 자력에 의해 작동되는 리드 스위치이거나, 또는 홀 센서 등일 수 있다. 예를 들어, 리드 스위치는 청소기 본체에 구비되고, 걸레판이 청소기 본체에 결합됨에 따라 작동되어 장착 신호를 제어부(180)에 출력할 수 있다.
이하의 도 2에서는, 본 발명에 따른 로봇 청소기의 외관과 관련된 일 실시예가 설명된다.
도 2를 참조하면, 로봇 청소기(100)는 단일 카메라(201)를 구비할 수 있다. 상기 단일 카메라(201)는 카메라 센서(144)와 대응될 수 있다. 또한, 카메라 센서(144)의 촬영각은 상기 본체에 대해 전방위일 수 있다.
한편, 도 2에 도시되지는 않았으나, 로봇 청소기(100)는 카메라 센서(144)와 함께 조명 유닛을 구비할 수 있다. 상기 조명 유닛은 카메라 센서(144)가 지향하는 방향으로 광원을 조사할 수 있다.
아울러, 이하에서는 로봇 청소기(100)와 "자율 주행을 수행하는 청소기"가 동일한 개념으로 정의된다.
이하의 도 3에서는 본 발명의 일 실시예에 따른 로봇 청소기(100)의 제어방법이 설명된다.
카메라 센서(144)는 제1 영상을 촬영할 수 있다(S301).
도 2에 도시된 것과 같이, 상기 카메라 센서(144)는 로봇 청소기(100)의 본체에 고정적으로 설치된 단안 카메라일 수 있다. 즉, 상기 카메라 센서(144)는 본체의 진행방향에 대해 고정적인 방향으로 제1 영상을 촬영할 수 있다.
아울러, 동작 감지 센서(141, 142, 143)는 로봇의 이동 또는 로봇의 본체의 이동과 관련된 정보를 감지할 수 있다(S302).
동작 감지 센서는 자이로 센서(141), 가속도 센서(142) 및 휠 센서(143) 중 적어도 하나를 포함할 수 있다.
제어부(180)는 촬영된 상기 제1 영상과 상기 감지된 이동과 관련된 정보 중 적어도 하나에 근거하여, 장애물과 관련된 정보를 검출할 수 있다(S303).
구체적으로, 제어부(180)는 상기 제1 영상에 대한 특징점 추출을 수행하거나, 상기 제1 영상에 대한 영상 분할을 수행하거나, 상기 제1 영상을 다른 영상으로 투영시킴으로써, 상기 장애물과 관련된 정보를 검출할 수 있다. 이와 같이, 제어부(180)는 제1 영상으로부터 장애물과 관련된 정보를 검출하기 위하여, 다양한 분석을 수행할 수 있으며, 각각의 분석 결과에 대해 서로 다른 가중치를 적용하여 장애물과 관련된 정보를 최종적으로 검출할 수 있다.
제어부(180)는 검출된 장애물과 관련된 정보에 근거하여, 구동부(130)를 제어할 수 있다(S304).
구체적으로 제어부(180)는 상기 검출된 장애물과 관련된 정보를 이용하여, 장애물과 관련된 맵 정보를 생성하거나, 미리 저장된 맵 정보를 업데이트할 수 있다. 아울러, 제어부(180)는 맵 정보에 근거하여, 장애물과 로봇 청소기(100)의 충돌을 회피하도록 상기 구동부(130)를 제어할 수 있다. 이 경우, 제어부(180)는 미리 설정된 회피 운전 알고리즘을 사용할 수도 있고, 장애물과 로봇 청소기(100)의 본체 사이의 거리를 소정의 간격 이상으로 유지하도록 상기 구동부(130)를 제어할 수도 있다.
이하에서는 본 발명에 따른 로봇 청소기(100) 또는 자율 주행을 수행하는 청소기가 카메라 센서(144)에 의해 촬영된 영상으로부터 장애물과 관련된 정보를 검출하는 다양한 실시예가 설명된다.
일 실시예에서, 제어부(180)는 카메라 센서(144)에 의해 촬영된 영상에 대해 영상 분할을 수행함으로써, 장애물과 관련된 제1 정보를 검출할 수 있다.
제어부(180)는, 상기 촬영된 제1 영상을 복수의 이미지 영역으로 분할할 수 있다. 아울러, 제어부(180)는 상기 분할된 이미지 영역으로부터 각각 장애물과 관련된 제1 정보를 검출할 수 있다. 예를 들어, 제어부(180)는 상기 제1 영상에 대해 슈퍼픽셀 알고리즘을 이용하여, 상기 제1 영상에 포함된 복수의 이미지 영역과 관련된 정보를 설정할 수 있다.
도 4를 참조하면, 제1 영상에 대해 영상 분할을 수행하여, 복수의 이미지 영역과 관련된 정보가 설정된 일 실시예가 도시된다.
또한, 카메라 센서(144)는 상기 제1 영상이 촬영된 이후 기 설정된 시간 간격이 경과하면, 제2 영상을 촬영할 수 있다. 즉, 카메라 센서(144)는 제1 시점에서 제1 영상을 촬영하고, 상기 제1 시점 이후에 제2 시점에서 제2 영상을 촬영할 수 있다.
제어부(180)는, 상기 제2 영상을 복수의 이미지 영역으로 분할할 수 있다. 아울러, 제어부(180)는 상기 제1 영상의 분할된 이미지 영역과 상기 제2 영상의 분할된 이미지 영역을 비교할 수 있다. 제어부(180)는 상기 비교결과에 근거하여 장애물과 관련된 제1 정보를 검출할 수 있다.
제어부(180)는, 상기 제2 영상의 분할된 이미지 영역 중에서, 상기 제1 영상의 각각 분할된 이미지 영역에 대응되는 영역을 매칭시킬 수 있다. 즉, 제어부(180)는 제1 시점에서 촬영된 제1 영상에 포함된 복수의 이미지 영역과, 제2 시점에서 촬영된 제2 영상에 포함된 복수의 이미지 영역을 비교하여, 제2 영상에 포함된 복수의 이미지 영역을 각각 제1 영상에 포함된 복수의 이미지 영역 중 대응되는 영역과 매칭시킬 수 있다.
이로써, 제어부(180)는 상기 매칭결과에 근거하여, 장애물과 관련된 제1 정보를 검출할 수 있다.
한편, 카메라 센서(144)는 상기 제1 영상이 촬영된 제1 시점 이후에 수행된 상기 로봇 청소기(100)의 주행이 특정 조건을 만족하는 경우, 제2 영상을 촬영할 수도 있다. 예를 들어, 상기 특정 조건은, 주행 시간, 주행 거리, 주행 방향 중 적어도 하나와 관련된 조건을 포함할 수 있다.
이하의 도 5a 내지 5e에서는 본 발명에 따른 이동 로봇이 촬영된 복수의 영상을 이용하여 장애물을 검출하는 일 실시예가 설명된다.
도 5a에서는 제1 영상이 도시되어 있고, 도 5b에서는 제2 영상이 도시되어 있다. 위에서 설명한 바와 같이, 상기 제1 영상은 제1 시점에서 카메라 센서(144)에 의해 촬영될 수 있고, 상기 제2 영상은 상기 제1 시점 이후 제2 시점에서 카메라 센서(144)에 의해 촬영될 수 있다.
제어부(180)는 제1 영상을 로봇 청소기(100)의 구동부(130)와 접하는 바닥과 관련된 정보에 근거하여 변환시킬 수 있다. 이 경우, 상기 바닥과 관련된 정보는 사용자에 의해 미리 설정될 수 있다. 도 5c를 참조하면, 변환된 제1 영상이 도시된다. 즉, 제어부(180)는 제1 영상에 대해 역원근투영(Inverse Perspective Mapping)을 수행함으로써, 상기 제1 영상을 변환시킬 수 있다.
예를 들어, 제어부(180)는 상기 제1 영상에 대응되는 바닥과 관련된 기준 영상으로, 상기 제1 영상을 투영시킴으로써, 상기 제1 영상을 변환시킬 수 있다. 이 경우, 제어부(180)는 상기 제1 영상에 대응되는 바닥에 장애물이 존재하지 않는다고 가정한 상태에서, 상기 제1 영상을 변환시킬 수 있다.
아울러, 제어부(180)는 상기 변환된 영상을 제2 영상에 투영시켜 제3 영상을 생성시킬 수 있다.
구체적으로, 제어부(180)는 상기 변환된 제1 영상을 제2 영상에 대해 배경투사(Back Projection)를 수행할 수 있다. 도 5d를 참조하면, 상기 변환된 제1 영상이 상기 제2 영상에 배경투사되어 생성된 제3 영상이 도시된다.
또한, 제어부(180)는 상기 생성된 제3 영상과 제2 영상을 비교하여, 장애물과 관련된 제2 정보를 검출할 수 있다. 제어부(180)는, 상기 생성된 제3 영상과 상기 제2 영상의 색상 차이에 근거하여, 장애물과 관련된 제2 정보를 검출할 수 있다.
도 5e를 참조하면, 상기 검출된 제2 정보가 상기 제2 영상에 표시되는 일 실시예가 도시된다. 도 5e에서 도시된 붉은 점은 검출된 제2 정보를 나타낸다.
위와 같이 설명된 역원근투영(Inverse Perspective Mapping) 알고리즘은 촬영된 영상의 분할된 이미지 영역에 대해서도 수행될 수 있다. 즉, 제어부(180)는 위에서 설명한 것과 같이, 제1 및 제2 영상에 각각 포함된 복수의 이미지 영역 중 매칭된 복수의 이미지 영역에 대해, 상기 역원근투영 알고리즘을 수행할 수 있다. 즉, 제어부(180)는 제1 영상에 포함된 복수의 이미지 영역 중 하나와, 상기 하나의 이미지 영역과 매칭되고, 상기 제2 영상에 포함된 이미지 영역에 대해 상기 역원근투영 알고리즘을 수행하여, 장애물과 관련된 정보를 검출할 수 있다.
또 다른 실시예에서, 제어부(180)는 제1 및 제2 영상에 대해 적어도 하나의 특징점을 추출할 수 있다. 아울러, 제어부(180)는 추출된 특징점에 근거하여, 장애물과 관련된 제3 정보를 검출할 수 있다.
구체적으로, 제어부(180)는 연속적으로 촬영되는 제1 및 제2 영상의 옵티컬 플로우(Optical Flow)와 관련된 정보를 추정할 수 있다. 제어부(180)는 상기 추정된 옵티컬 플로우와 관련된 정보에 근거하여, 로봇 청소기(100)가 주행중인 바닥면에 대한 호모그래피(Homography)와 관련된 정보를 추출할 수 있다. 이로써, 제어부(180)는 호모그래피와 관련된 정보를 이용하여, 장애물과 관련된 제3 정보를 검출할 수 있다. 예를 들어, 제어부(180)는 추출된 특징점들에 대응되는 호모그래피의 에러 값을 산출하여, 상기 장애물과 관련된 제3 정보를 검출할 수 있다.
또 다른 예에서, 제어부(180)는 제1 및 제2 영상에 포함된 코너 또는 선분에 근거하여 특징점을 추출할 수 있다.
도 5f를 참조하면, 제1 영상에 대해 특징점 추출을 수행한 일 실시예가 도시된다. 도 5f에 도시된 붉은 점은 검출된 제3 정보를 나타낸다.
한편, 제어부(180)는, 상기 제1 내지 제3 정보 각각에 대해 가중치와 관련된 정보를 설정할 수 있다. 아울러, 제어부(180)는 상기 설정된 가중치 및 상기 제1 내지 제3 정보에 근거하여, 상기 장애물과 관련된 제4 정보를 검출할 수 있다.
구체적으로 제어부(180)는 그래프 컷(Graph-Cut) 알고리즘을 이용하여, 상기 제1 내지 제3 정보에 각각 대응되는 가중치와 관련된 정보를 설정할 수 있다. 또한, 제어부(180)는 사용자의 입력에 근거하여, 상기 가중치와 관련된 정보를 설정할 수 있다. 이로써, 제어부(180)는 위에서 설명된 장애물 검출 방법들을 융합하여, 장애물과 관련된 제4 정보를 최종적으로 검출할 수 있다.
또한, 제어부(180)는, 상기 제1 내지 제4 정보를 이용하여, 상기 장애물과 관련된 맵 정보를 생성할 수 있다.
이하의 도 6에서는 본 발명의 로봇 청소기의 제어방법과 관련된 또 다른 실시예가 설명된다.
카메라 센서(144)는 제1 영상을 촬영할 수 있고(S601), 상기 제1 영상이 촬영된 이후에 제2 영상을 촬영할 수 있다(S602).
제어부(180)는 상기 제1 및 제2 영상을 각각 복수의 이미지 영역으로 분할할 수 있다(S603).
제어부(180)는 제2 영상의 분할된 이미지 영역과, 제1 영상의 분할된 이미지 영역을 서로 매칭시킬 수 있다(S604).
제어부(180)는 매칭된 각 영역 중 어느 하나의 영역을 다른 하나의 영역으로 역원근투영시킬 수 있다(S605).
제어부(180)는 상기 역원근투영시킨 결과에 근거하여, 장애물 검출을 수행할 수 있다(S606).
본 발명에 따르면, 하나의 카메라만으로도 장애물 검출을 수행할 수 있으므로, 로봇 청소기의 제작 비용을 감소시킬 수 있다.
또한, 본 발명에 따른 로봇 청소기는, 단안 카메라를 이용하여 장애물 검출의 성능을 향상시킬 수 있다.
아울러, 본 발명에 따른 로봇 청소기는, 카메라의 설치 상태에 영향을 받지 않고, 정확하게 장애물을 검출할 수 있다.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (10)

  1. 흡입구가 구비된 본체;
    상기 본체 내부에 구비되어, 상기 흡입구를 통해 청소 대상물을 흡입시키는 청소부;
    상기 본체를 이동시키는 구동부;
    상기 본체에 부착되어 제1 영상을 촬영하는 카메라 센서;
    상기 본체의 이동과 관련된 정보를 감지하는 동작 감지 센서; 및
    상기 촬영된 영상 및 상기 이동과 관련된 정보 중 적어도 하나에 근거하여, 장애물과 관련된 정보를 검출하고,
    상기 검출된 장애물과 관련된 정보에 근거하여, 상기 구동부를 제어하는 제어부를 포함하는 것을 특징으로 하는 자율 주행을 수행하는 청소기.
  2. 제1항에 있어서,
    상기 제어부는,
    상기 촬영된 제1 영상을 복수의 이미지 영역으로 분할하고,
    상기 분할된 이미지 영역으로부터 각각 장애물과 관련된 제1 정보를 검출하는 것을 특징으로 하는 자율 주행을 수행하는 청소기.
  3. 제2항에 있어서,
    상기 카메라는 상기 제1 영상이 촬영된 이후 기 설정된 시간 간격이 경과하면, 제2 영상을 촬영하고,
    상기 제어부는,
    상기 제2 영상을 복수의 이미지 영역으로 분할하고,
    상기 제1 영상의 분할된 이미지 영역과 상기 제2 영상의 분할된 이미지 영역을 비교하고,
    상기 비교결과에 근거하여 장애물과 관련된 제1 정보를 검출하는 것을 특징으로 하는 자율 주행을 수행하는 청소기.
  4. 제3항에 있어서,
    상기 제어부는,
    상기 제2 영상의 분할된 이미지 영역 중에서, 상기 제1 영상의 각각 분할된 이미지 영역에 대응되는 영역을 매칭시키고,
    상기 매칭결과에 근거하여, 장애물과 관련된 제1 정보를 검출하는 것을 특징으로 하는 자율 주행을 수행하는 청소기.
  5. 제2항에 있어서,
    상기 카메라는 상기 제1 영상이 촬영된 이후 기 설정된 시간 간격이 경과하면, 제2 영상을 촬영하고,
    상기 제어부는,
    상기 제1 영상을 변환시키고,
    상기 변환된 영상을 제2 영상에 투영시켜 제3 영상을 생성시키고,
    상기 생성된 제3 영상과 제2 영상을 비교하여, 장애물과 관련된 제2 정보를 검출하는 것을 특징으로 하는 자율 주행을 수행하는 청소기.
  6. 제5항에 있어서,
    상기 제어부는,
    상기 생성된 제3 영상과 상기 제2 영상의 색상 차이에 근거하여, 장애물과 관련된 제2 정보를 검출하는 것을 특징으로 하는 자율 주행을 수행하는 청소기.
  7. 제5항에 있어서,
    상기 제어부는,
    상기 제1 영상으로부터 적어도 하나의 특징점을 추출하고,
    상기 추출된 특징점에 근거하여, 장애물과 관련된 제3 정보를 검출하는 것을 특징으로 하는 자율 주행을 수행하는 청소기.
  8. 제7항에 있어서,
    상기 제어부는,
    상기 제1 내지 제3 정보 각각에 대해 가중치와 관련된 정보를 설정하고,
    상기 설정된 가중치 및 상기 제1 내지 제3 정보에 근거하여, 상기 장애물과 관련된 제4 정보를 검출하는 것을 특징으로 하는 자율 주행을 수행하는 청소기.
  9. 제7항에 있어서,
    상기 제어부는,
    상기 제1 내지 제3 정보를 이용하여, 상기 장애물과 관련된 맵 정보를 생성하는 것을 특징으로 하는 자율 주행을 수행하는 청소기.
  10. 제1항에 있어서,
    상기 카메라 센서의 촬영각은 상기 본체에 대해 전방위인 것을 특징으로 하는 자율 주행을 수행하는 청소기.
KR1020150107555A 2015-07-29 2015-07-29 이동 로봇 및 그 제어방법 KR101772084B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020150107555A KR101772084B1 (ko) 2015-07-29 2015-07-29 이동 로봇 및 그 제어방법
PCT/KR2016/008335 WO2017018848A1 (en) 2015-07-29 2016-07-29 Mobile robot and control method thereof
AU2016299576A AU2016299576B2 (en) 2015-07-29 2016-07-29 Mobile robot and control method thereof
TW105124182A TWI603699B (zh) 2015-07-29 2016-07-29 行動機器人及其控制方法
US15/745,679 US11029700B2 (en) 2015-07-29 2016-07-29 Mobile robot and control method thereof
EP16830881.5A EP3328597A4 (en) 2015-07-29 2016-07-29 MOBILE ROBOT AND METHOD OF CONTROLLING THE SAME

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150107555A KR101772084B1 (ko) 2015-07-29 2015-07-29 이동 로봇 및 그 제어방법

Publications (2)

Publication Number Publication Date
KR20170014361A true KR20170014361A (ko) 2017-02-08
KR101772084B1 KR101772084B1 (ko) 2017-08-28

Family

ID=57884953

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150107555A KR101772084B1 (ko) 2015-07-29 2015-07-29 이동 로봇 및 그 제어방법

Country Status (6)

Country Link
US (1) US11029700B2 (ko)
EP (1) EP3328597A4 (ko)
KR (1) KR101772084B1 (ko)
AU (1) AU2016299576B2 (ko)
TW (1) TWI603699B (ko)
WO (1) WO2017018848A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180101081A (ko) * 2017-03-03 2018-09-12 엘지전자 주식회사 이동 로봇 및 그 제어방법
WO2018199515A1 (en) * 2017-04-28 2018-11-01 Lg Electronics Inc. Moving robot and control method thereof
KR20190010303A (ko) * 2017-07-21 2019-01-30 엘지전자 주식회사 인공지능 청소기 및 그 제어방법
WO2021177540A1 (ko) * 2020-03-04 2021-09-10 엘지전자 주식회사 이동 로봇 및 이의 제어 방법

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180082264A (ko) * 2017-01-10 2018-07-18 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102235271B1 (ko) * 2017-02-27 2021-04-01 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102024092B1 (ko) * 2017-07-12 2019-09-23 엘지전자 주식회사 이동 로봇 시스템 및 그 제어방법
AU2018356126B2 (en) * 2017-10-25 2021-07-29 Lg Electronics Inc. Artificial intelligence moving robot which learns obstacles, and control method therefor
KR102330607B1 (ko) * 2018-02-12 2021-11-23 엘지전자 주식회사 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법
US11703334B2 (en) 2017-10-31 2023-07-18 Hewlett-Packard Development Company. L.P. Mobile robots to generate reference maps for localization
CN108247647B (zh) 2018-01-24 2021-06-22 速感科技(北京)有限公司 一种清洁机器人
CN108335302B (zh) * 2018-01-26 2021-10-08 上海思岚科技有限公司 一种区域分割方法及装置
KR102188798B1 (ko) * 2018-03-26 2020-12-11 에브리봇 주식회사 로봇 청소기 및 그 제어 방법
TWI689275B (zh) * 2018-06-15 2020-04-01 大陸商深圳洛克時代科技有限公司 智慧清潔設備
CN110838144B (zh) * 2018-08-15 2022-09-30 杭州萤石软件有限公司 一种充电设备识别方法、移动机器人和充电设备识别系统
CN109330501B (zh) * 2018-11-30 2021-11-12 深圳乐动机器人有限公司 一种清洁地面的方法及扫地机器人
KR20200075140A (ko) * 2018-12-12 2020-06-26 엘지전자 주식회사 인공지능 이동 로봇 및 이의 제어 방법
US20210137338A1 (en) 2019-11-13 2021-05-13 Emerson Electric Co. Vacuum cleaner motor assemblies and methods of operating same
CN110825088B (zh) * 2019-11-29 2021-10-01 燕山大学 一种多目视觉导引船体清洁机器人系统及清洁方法
KR20210084129A (ko) 2019-12-27 2021-07-07 삼성전자주식회사 로봇 청소기 및 그 제어 방법
KR102318756B1 (ko) * 2020-01-21 2021-10-29 엘지전자 주식회사 로봇 청소기 및 그의 제어방법
CN112890683A (zh) * 2021-01-13 2021-06-04 美智纵横科技有限责任公司 一种清洁方法、装置、设备及计算机可读存储介质
CN113063909B (zh) * 2021-03-19 2023-05-26 南昌市湾里自来水有限责任公司 一种水质安全保障监测系统
GB2620092A (en) * 2021-04-23 2023-12-27 Sharkninja Operating Llc Determining state of charge for battery powered devices including battery powered surface treatment apparatuses
KR20240020880A (ko) * 2022-08-09 2024-02-16 삼성전자주식회사 마스크 맵을 이용하여 주행을 수행하는 로봇 및 그의 주행 방법

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002354139A (ja) 2001-05-23 2002-12-06 Toshiba Tec Corp ロボットの制御システム及びこのシステムに使用するロボット
AU2003256435A1 (en) 2002-08-16 2004-03-03 Evolution Robotics, Inc. Systems and methods for the automated sensing of motion in a mobile robot using visual data
US20060088188A1 (en) * 2004-10-11 2006-04-27 Alexander Ioffe Method for the detection of an obstacle
US20100222925A1 (en) * 2004-12-03 2010-09-02 Takashi Anezaki Robot control apparatus
JP2007037713A (ja) * 2005-08-02 2007-02-15 Funai Electric Co Ltd 監視装置及び自走式掃除機
US9002511B1 (en) * 2005-10-21 2015-04-07 Irobot Corporation Methods and systems for obstacle detection using structured light
EP2040220B1 (de) * 2007-09-24 2014-07-02 Delphi Technologies, Inc. Verfahren zur Hinderniserkennung
JP5067632B2 (ja) * 2008-11-28 2012-11-07 アイシン精機株式会社 鳥瞰画像生成装置
EP2209091B1 (en) * 2009-01-16 2012-08-08 Honda Research Institute Europe GmbH System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system
KR101524020B1 (ko) * 2009-03-06 2015-05-29 엘지전자 주식회사 로봇 청소기의 점진적 지도 작성 및 위치 보정 방법
KR101570377B1 (ko) * 2009-03-31 2015-11-20 엘지전자 주식회사 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법
JP4788798B2 (ja) * 2009-04-23 2011-10-05 トヨタ自動車株式会社 物体検出装置
EP2430615A2 (en) * 2009-05-08 2012-03-21 Scientific Systems Company Inc. Method and system for visual collision detection and estimation
US8564657B2 (en) * 2009-05-29 2013-10-22 Honda Research Institute Europe Gmbh Object motion detection system based on combining 3D warping techniques and a proper object motion detection
KR101641244B1 (ko) * 2010-02-02 2016-07-20 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
US8800101B2 (en) * 2011-07-25 2014-08-12 Lg Electronics Inc. Robot cleaner and self testing method of the same
US9928459B2 (en) * 2011-07-25 2018-03-27 Lg Electronics Inc. Robotic cleaner and self testing method of the same
US8611598B2 (en) * 2011-07-26 2013-12-17 Harman International (China) Holdings Co., Ltd. Vehicle obstacle detection system
US8848978B2 (en) * 2011-09-16 2014-09-30 Harman International (China) Holdings Co., Ltd. Fast obstacle detection
KR101949277B1 (ko) 2012-06-18 2019-04-25 엘지전자 주식회사 이동 로봇
US9798936B2 (en) * 2012-07-31 2017-10-24 Harman International Industries, Incorporated System and method for detecting obstacles using a single camera
US8972061B2 (en) * 2012-11-02 2015-03-03 Irobot Corporation Autonomous coverage robot
US9037396B2 (en) * 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US10061324B2 (en) * 2014-07-30 2018-08-28 Hitachi, Ltd. Autonomous moving device and self position estimation method
US9751210B2 (en) * 2014-11-26 2017-09-05 Irobot Corporation Systems and methods for performing occlusion detection
US9519289B2 (en) * 2014-11-26 2016-12-13 Irobot Corporation Systems and methods for performing simultaneous localization and mapping using machine vision systems
US9704043B2 (en) * 2014-12-16 2017-07-11 Irobot Corporation Systems and methods for capturing images and annotating the captured images with information

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180101081A (ko) * 2017-03-03 2018-09-12 엘지전자 주식회사 이동 로봇 및 그 제어방법
US11269343B2 (en) 2017-03-03 2022-03-08 Lg Electronics Inc. Mobile robot and control method thereof
US11846950B2 (en) 2017-03-03 2023-12-19 Lg Electronics Inc. Mobile robot and control method thereof
WO2018199515A1 (en) * 2017-04-28 2018-11-01 Lg Electronics Inc. Moving robot and control method thereof
JP2020518062A (ja) * 2017-04-28 2020-06-18 エルジー エレクトロニクス インコーポレイティド 移動ロボット及びその制御方法
AU2018257677B2 (en) * 2017-04-28 2021-01-28 Lg Electronics Inc. Moving robot and control method thereof
KR20190010303A (ko) * 2017-07-21 2019-01-30 엘지전자 주식회사 인공지능 청소기 및 그 제어방법
WO2021177540A1 (ko) * 2020-03-04 2021-09-10 엘지전자 주식회사 이동 로봇 및 이의 제어 방법

Also Published As

Publication number Publication date
US11029700B2 (en) 2021-06-08
EP3328597A1 (en) 2018-06-06
AU2016299576B2 (en) 2019-06-06
WO2017018848A1 (en) 2017-02-02
KR101772084B1 (ko) 2017-08-28
US20180210452A1 (en) 2018-07-26
TWI603699B (zh) 2017-11-01
EP3328597A4 (en) 2019-04-17
AU2016299576A1 (en) 2018-02-15
TW201705897A (zh) 2017-02-16

Similar Documents

Publication Publication Date Title
KR101772084B1 (ko) 이동 로봇 및 그 제어방법
JP6891289B2 (ja) 掃除機及びその制御方法
KR101649665B1 (ko) 이동 로봇 및 그 제어방법
US10085608B2 (en) Robot cleaner
KR101952414B1 (ko) 청소기 및 그 제어방법
KR101930870B1 (ko) 이동 로봇 및 그 제어방법
KR102032516B1 (ko) 이동 로봇 및 그 제어방법
KR102398330B1 (ko) 이동 로봇 및 그 제어방법
KR101822942B1 (ko) 로봇 청소기 및 이의 제어 방법
KR101974870B1 (ko) 인공지능 로봇 청소기 및 이를 구비하는 로봇 청소 시스템
KR101938668B1 (ko) 청소기 및 그 제어방법
KR101324166B1 (ko) 로봇 청소기 및 이의 자가 진단 방법
KR20190134872A (ko) 인공지능 청소기 및 그 제어방법
KR101303159B1 (ko) 로봇 청소기 및 이의 자가 진단 방법
KR101303158B1 (ko) 로봇 청소기 및 이의 자가 진단 방법
KR102067600B1 (ko) 청소기 및 그 제어방법
KR102122237B1 (ko) 청소기 및 그 제어방법
KR20180121244A (ko) 이동 로봇 및 그 제어방법
KR102388583B1 (ko) 청소기 및 그 제어방법

Legal Events

Date Code Title Description
A201 Request for examination
GRNT Written decision to grant