KR101629649B1 - 로봇 청소기 및 로봇 청소기의 제어방법 - Google Patents

로봇 청소기 및 로봇 청소기의 제어방법 Download PDF

Info

Publication number
KR101629649B1
KR101629649B1 KR1020140131526A KR20140131526A KR101629649B1 KR 101629649 B1 KR101629649 B1 KR 101629649B1 KR 1020140131526 A KR1020140131526 A KR 1020140131526A KR 20140131526 A KR20140131526 A KR 20140131526A KR 101629649 B1 KR101629649 B1 KR 101629649B1
Authority
KR
South Korea
Prior art keywords
room
robot cleaner
images
distribution
feature
Prior art date
Application number
KR1020140131526A
Other languages
English (en)
Other versions
KR20160038437A (ko
Inventor
노동기
임승욱
이태경
심인보
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140131526A priority Critical patent/KR101629649B1/ko
Priority to CN201510626586.7A priority patent/CN105455743B/zh
Priority to US14/868,828 priority patent/US9798957B2/en
Priority to EP15187658.8A priority patent/EP3002656B1/en
Publication of KR20160038437A publication Critical patent/KR20160038437A/ko
Application granted granted Critical
Publication of KR101629649B1 publication Critical patent/KR101629649B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/24765Rule-based classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Electromagnetism (AREA)
  • Robotics (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Electric Vacuum Cleaner (AREA)

Abstract

본 발명의 로봇 청소기의 제어방법은 청소구역을 주행하는 중에 주변의 영상들을 획득하는 (a)단계; 상기 (a)단계에서 획득된 영상들을 바탕으로, 방별로 정해진 규칙에 따라 각 방별 특징분포들을 구하는 (b)단계; 현재 위치에서 주변의 영상을 획득하는 (c)단계; 상기 (c)단계에서 구해진 영상에 대해, 상기 (b)단계에서 적용된 상기 방별로 규칙들을 적용하여 특징분포들로 구성된 비교군을 구하는 (d)단계; 및 상기 (d)단계에서 구한 비교군과, 상기 (b)단계에서 구한 각 방별 특징분포들을 비교하여, 로봇 청소기가 현재 위치하는 방을 결정하는 (e)단계를 포함한다.

Description

로봇 청소기 및 로봇 청소기의 제어방법{A ROBOT CLEANER AND CONTROL METHOD THEREOF}
본 발명은 로봇 청소기 및 로봇 청소기의 제어방법에 관한 것이다.
로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다. 이러한 로봇 중에서 자력으로 주행이 가능한 것을 이동 로봇이라고 한다.
가정에서 사용되는 이동 로봇의 대표적인 예는 로봇 청소기로써, 청소하고자 하는 구역을 주행하면서 먼지 또는 이물질을 흡입하여 청소하는 가전기기의 일종이다. 로봇 청소기는 충전 가능한 배터리를 구비하여 스스로 주행이 가능하며, 배터리의 잔량이 부족한 경우나 청소가 완료된 이후에는, 충전대를 찾아 스스로 이동하여 배터리를 충전한다.
종래, 로봇 청소기는 적외선 센서를 통해 충전대로부터 송출된 적외선(IR: InfraRed)신호를 감지하여 충전대를 탐색하였다. 더 나아가, 로봇 청소기가 주행중에 탐색된 주변 정보를 바탕으로, 스스로 청소구역의 지도를 생성하는 다양한 방법이 이미 알려져 있는데, 이렇게 생성된 지도는 충전대의 위치에 대한 정보를 담고 있다.
그런데, 충전이 필요한 경우에 있어서, 로봇 청소기가 충전대로 정확하게 복귀할 수 있기 위해서는, 로봇 청소기 스스로가 지도 상에서 자신의 위치가 어디인지를 정확하게 파악하고 있어야 함이 전제가 되어야한다. 따라서, 외부적인 요인에 의해 주행 중인 로봇 청소기의 위치가 강제로 변경된 경우(예를들어, 사용자가 주행 중인 로봇 청소기를 다른 방으로 옮겨버린 경우), 로봇 청소기는 현재 생성 중인 지도 또는 기 생성된 지도 상에서 자신이 어느 위치에 있는지를 파악할 수 없게 되고, 그 결과 충전대로의 복귀가 불가능한 사정에 이르게 된다. 이 경우, 로봇 청소기는 현 위치에서 충전대로부터 송출된 적외선 신호를 다시 탐색하게 되나, 이렇게 자신의 위치를 모르는 상태에서 실시되는 충전대 탐색은 우연히 신호를 감지하는 경우가 있을지는 몰라도, 대부분의 경우는 신호를 찾아 배회하다 배터리가 방전되는 불상사에 이르게 된다. 이러한 문제는 로봇 청소기가 이동된 위치에서 그 주변의 지도를 다시 생성하는 경우에도 마찬가이다. 청소구역 내 전체 지도 상에서 자신의 위치를 파악하지 못하는 이상, 충전대로의 복귀는, 변동된 위치에서 충전대로부터 송출된 신호가 탐지될 수 있느냐의 문제를 수반하는 것으로 여전히 시행착오에 의존하기 때문이다. 따라서, 로봇 청소기가 스스로 전체 지도 상에서 현위치를 파악할 수 있는 전역위치인식(Global Localization)방법을 강구할 필요가 있다.
한편, 이상에서 설명한 충전대로의 복기 실패 문제는, 전역위치인식 기능이 탑재되지 않은 로봇 청소기로부터 발생될 수 있는 여러 문제들 중 한가지를 예로 든것으로, 그 밖에도 다양한 문제들이 발생될 수 있다. 예를들어, 최근에는 무선 네트워크를 통해 로봇 청소기와 통신하는 단말기(예를들어, 리모콘, 스마트 폰 등)를 이용하여 청소범위를 설정하는 기술이 활성화되고 있는 추세인데, 이 경우에도 상기 단말기를 통한 청소범위의 설정은 전역위치인식이 기반이 되어야 정확하게 이루어질 수 있을 것이다.
본 발명이 해결하고자 하는 과제는 첫째, 전역위치인식을 기반으로 주행을 하는 로봇 청소기와 이의 제어방법을 제공하는 것이다.
둘째, 충전대로의 복귀 동작을 정확하게 수행하는 로봇 청소기 및 로봇 청소기의 제어방법을 제공하는 것이다.
셋째, 주행 중에 사용자에 의해 임으로 다른 위치로 이동되더라도, 자신의 위치를 신속하게 인식할 수 있는 로봇 청소기 및 로봇 청소기의 제어방법을 제공하는 것이다.
넷째, 지도 상에서의 자신의 위치를 잃은 상황에서도 현재 위치에서 구해진 영상을 바탕으로 현재의 위치를 신속하게 재인식할 수 있는 로봇 청소기 및 로봇 청소기의 제어방법을 제공하는 것이다.
본 발명의 로봇 청소기의 제어방법은 청소구역을 주행하는 중에 주변의 영상들을 획득하는 (a)단계; 상기 (a)단계에서 획득된 영상들을 바탕으로, 방별로 정해진 규칙에 따라 각 방별 특징분포들을 구하는 (b)단계; 현재 위치에서 주변의 영상을 획득하는 (c)단계; 상기 (c)단계에서 구해진 영상에 대해, 상기 (b)단계에서 적용된 상기 방별로 규칙들을 적용하여 특징분포들로 구성된 비교군을 구하는 (d)단계; 및 상기 (d)단계에서 구한 비교군과, 상기 (b)단계에서 구한 각 방별 특징분포들을 비교하여, 로봇 청소기가 현재 위치하는 방을 결정하는 (e)단계를 포함한다.
다른 측면으로, 본 발명의 로봇 청소기의 제어방법은 청소구역 내를 이동하며 주변의 영상들을 획득하고; 각 방별로 정해진 규칙에 따라, i) 방별로 획득된 영상들에서 특징을 검출하고, ii) 검출된 특징들에 대한 라벨을 생성하고, iii) 각각의 라벨들에 점수를 부여하고, iv) 각 방별로 라벨별 점수분포를 구하여 저장하고; 상기 각 방별로 라벨별 점수분포가 저장된 이후에, 주변의 영상을 획득하고, 획득된 영상에 대해, 상기 i), ii), iii) 및 iv)에서 적용된 방별로 정해진 규칙에 따라 특징들에 대한 라벨을 생성하고, 생성된 라벨들에 점수를 부여하여, 각 방별로 정해진 규칙에 따른 라벨별 점수분포들로 구성된 비교군을 구하고, 상기 비교군과 상기 iv)단계에서 각 방별로 구한 라벨별 점수분포를 바탕으로, 로봇 청소기가 현재 위치하는 방을 결정하는 것을 포함한다.
본 발명의 로봇 청소기는 주변의 영상들을 획득하는 영상획득부; 상기 영상획득부를 통해 획득된 영상들을 바탕으로, 방별로 정해진 규칙에 따라 각 방별 특징분포들을 구하는 특징분포학습모듈; 및 로봇 청소기의 현재 위치에서 상기 영상획득부를 통해 획득된 영상에 대해 상기 방별로 적용된 규칙들을 적용하여 특징분포들로 구성된 비교군을 구하고, 상기 비교군과 상기 특징분포학습모듈을 통해 구해진 방별 특징분포들을 비교하여 로봇 청소기가 현재 위치하는 방을 결정하는 위치인식모듈을 포함한다.
본 발명의 로봇 청소기 및 로봇 청소기의 제어방법은 첫째, 전역위치인식을 기반으로 자신의 위치를 정확하게 파악할 수 있는 효과가 있다.
둘째, 충전대로의 복귀 동작을 정확하게 수행할 수 있는 효과가 있다.
셋째, 주행 중에 사용자에 의해 임으로 다른 위치로 이동되더라도, 이동된 위치에서 자신의 위치를 다시 인식할 수 있어, 종래 자신의 위치를 파악하지 못하고 배회하던 현상을 방지할 수 있다.
넷째, 지도 상에서의 자신의 위치를 잃은 상황에서도 현재 위치에서 구해진 영상을 바탕으로 현재의 위치를 신속하게 재인식할 수 있는 효과가 있다.
다섯째, 로봇 청소기가 현재 자신의 위치에서 획득된 영상을 특징분포 학습과정에서 구해진 모든 영상들의 특징들과 비교하지 않고, 각 방별로 구해진 영상들에서 구해진 특징분포를 취합한 각 방별 특징분포와 비교하여 현재 청소기가 위치하는 방을 식별하기 때문에, 특징 매칭에 필요한 데이터량과 소요되는 시간을 줄일 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 로봇 청소기와, 로봇 청소기를 충전시키는 충전대를 도시한 사시도이다.
도 2는 도 1에 도시된 로봇 청소기의 상면부를 도시한 것이다.
도 3은 도 1에 도시된 로봇 청소기를 정면부를 도시한 것이다.
도 4는 도 1에 도시된 로봇 청소기의 저면부를 도시한 것이다.
도 5는 로봇 청소기를 구성하는 주요부들 간의 제어관계를 도시한 블록도이다.
도 6은 청소구역 내의 어떤 방에서 촬영된 영상이다.
도 7은 특징분포학습모듈에 의해 지도가 학습되는 과정을 도시한 개요도이다.
도 8은 특징 검출을 위해 SIFT(Scale Invariant Feature Transform) 기법을 이용하여 특징벡터들을 추출한 것을 보이는 도면이다.
도 9는 청소구역 내에 N개의 방이 존재하는 경우에, 획득영상들을 방별로 분류한 것을 보여주고 있다.
도 10은 방별로 분류된 영상들에서 검출된 특징들에 부여된 라벨들을 획득영상에 표시한 것이다.
도 11은 N개의 방 모두에서 획득된 영상들로부터 각각 구해진 영상별 히스토그램들로부터 각 방별 특징분포를 구하는 과정을 도시한 것이다.
도 12는 위치인식모듈에 의해 로봇 청소기의 위치를 인식하는 과정을 도시한 개요도이다.
도 13은 로봇 청소기의 현재의 위치에서 획득한 영상에 대해 병별로 정해진 규칙(특징분포 학습과정에서 적용된 규칙)을 적용하여 라벨을 생성하고, 라벨에 점수를 부여하여 N개의 비교 히스토그램을 생성하는 것을 보여준다.
도 14는 N개의 방별 히스토그램(방(1) 히스토그램 내지 방(N) 히스토그램)과 N개의 비교 히스토그램(비교 히스토그램(1) 내지 비교 히스토그램(N))을 매칭하는 것을 보여준다.
도 15는 현재의 위치에서 획득된 영상으로부터 구해진 비교 히스토그램(K)와 특징분포학습과정에서 방(K) 내에서 획득된 영상들로부터 구해진 히스토그램을 비교하는 것을 보여준다.
본발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본발명의 개시가 완전하도록 하고, 본발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
도 1은 본 발명의 일 실시예에 따른 로봇 청소기(100)와, 로봇 청소기를 충전시키는 충전대(200)를 도시한 사시도이다. 도 2는 도 1에 도시된 로봇 청소기의 상면부를 도시한 것이다. 도 3은 도 1에 도시된 로봇 청소기를 정면부를 도시한 것이다. 도 4는 도 1에 도시된 로봇 청소기의 저면부를 도시한 것이다. 도 5는 로봇 청소기를 구성하는 주요부들 간의 제어관계를 도시한 블록도이다.
도 1 내지 도 4를 참조하면, 로봇 청소기(100)는 본체(110)와, 본체(110) 주변의 영상을 획득하는 영상획득부(120)를 포함할 수 있다. 이하, 본체(110)의 각부분을 정의함에 있어서, 청소구역 내의 천장을 향하는 부분을 상면부(도 2 참조.)로 정의하고, 청소구역 내의 바닥을 향하는 부분을 저면부(도 4 참조.)로 정의하고, 상기 상면부와 저면부 사이에서 본체(110)의 둘레를 이루는 부분 중 주행방향을 향하는 부분을 전면부(도 3 참조.)라고 정의한다.
본체(110)를 이동시키는 적어도 하나의 구동 바퀴(136)가 구비되며, 구동 바퀴(136)는 구동 모터(139)에 의해 구동된다. 구동 바퀴(136)는 본체(110)의 좌, 우 측에 각각 구비될 수 있으며, 이하, 각각 좌륜(136(L))과 우륜(136(R))이라고 한다.
좌륜(136(L))과 우륜(136(R))은 하나의 구동 모터에 의해 구동될 수도 있으나, 필요에 따라 좌륜(136(L))을 구동시키는 좌륜 구동 모터와 우륜(136(R))을 구동시키는 우륜 구동 모터가 각각 구비될 수도 있다. 좌륜(136(L))과 우륜(136(R))의 회전 속도에 차이를 두어 좌측 또는 우측으로 본체(110)의 주행방향을 전환할 수 있다.
본체(110)의 저면부에는 공기의 흡입이 이루어지는 흡입구(110h)가 형성될 수 있으며, 본체(110) 내에는 흡입구(110h)를 통해 공기가 흡입될 수 있도록 흡입력을 제공하는 흡입장치(미도시)와, 흡입구(110h)를 통해 공기와 함께 흡입된 먼지를 집진하는 먼지통(미도시)이 구비될 수 있다.
본체(110)는 로봇 청소기(100)를 구성하는 각종 부품들이 수용되는 공간을 형성하는 케이스(111)를 포함할 수 있다. 케이스(111)에는 상기 먼지통의 삽입과 탈거를 위한 개구부가 형성될 수 있고, 상기 개구부를 여닫는 먼지통 커버(112)가 케이스(111)에 대해 회전 가능하게 구비될 수 있다.
흡입구(110h)를 통해 노출되는 솔들을 갖는 롤형의 메인 브러시(134)와, 본체(110)의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 보조 브러시(135)가 구비될 수 있다. 이들 브러시(134, 135)들의 회전에 의해 청소구역내 바닥으로부터 먼지들이 제거되며, 이렇게 바닥으로부터 분리된 먼지들은 흡입구(110h)를 통해 흡입되어 먼지통에 모인다.
배터리(138)는 상기 구동 모터 뿐만 아니라, 로봇 청소기(100)의 작동 전반에 필요한 전원을 공급하는 것이다. 배터리(138)가 방전될 시, 로봇 청소기(100)는 충전을 위해 충전대(200)로 복귀하는 주행을 실시할 수 있으며, 이러한 복귀 주행 중, 로봇 청소기(100)는 스스로 충전대(200)의 위치를 탐지할 수 있다.
충전대(200)는 소정의 복귀 신호를 송출하는 신호 송출부(미도시)를 포함할 수 있다. 상기 복귀 신호는 초음파 신호 또는 적외선 신호일 수 있으나, 반드시 이에 한정되어야하는 것은 아니다.
로봇 청소기(100)는 상기 복귀 신호를 수신하는 신호 감지부(미도시)를 포함할 수 있다. 충전대(200)는 신호 송출부를 통해 적외선 신호를 송출하고, 상기 신호 감지부는 상기 적외선 신호를 감지하는 적외선 센서를 포함할 수 있다. 로봇 청소기(100)는 충전대(200)로부터 송출된 적외선 신호에 따라 충전대(200)의 위치로 이동하여 충전대(200)와 도킹(docking)한다. 이러한 도킹에 의해 로봇 청소기(100)의 충전 단자(133)와 충전대(200)의 충전 단자(210) 간에 충전에 이루어진다.
영상획득부(120)는 청소구역을 촬영하는 것으로, 디지털 카메라를 포함할 수 있다. 상기 디지털 카메라는 적어도 하나의 광학렌즈와, 상기 광학렌즈를 통과한 광에 의해 상이 맺히는 다수개의 광다이오드(photodiode, 예를들어, pixel)를 포함하여 구성된 이미지센서(예를들어, CMOS image sensor)와, 상기 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 상기 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.
바람직하게, 영상획득부(120)는 본체(110)의 상면부에 구비되어, 청소구역 내의 천장에 대한 영상을 획득하나, 영상획득부(120)의 위치와 촬영범위가 반드시 이에 한정되어야 하는 것은 아니다. 예를들어, 영상획득부(120)는 본체(110) 전방의 영상을 획득하도록 구비될 수도 있다.
한편, 로봇 청소기(100)는 청소구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 낭떠러지 감지센서(132)와, 바닥의 영상을 획득하는 하부 카메라 센서(139)를 더 포함할 수 있다.
도 5를 참조하면, 로봇 청소기(100)는 제어부(140)와 저장부(150)를 포함할 수 있다. 제어부(140)는 로봇 청소기(100)를 구성하는 각종 구성들(예를들어, 영상획득부(120), 조작부(137), 구동 모터(139) 등)의 제어를 통해, 로봇 청소기(100)의 동작 전반을 제어하며, 특히, 주행제어모듈(141), 특징검출모듈(142), 특징분포학습모듈(143) 및 위치인식모듈(144)을 포함할 수 있다.
저장부(150)는 로봇 청소기(100)의 제어에 필요한 각종 정보들을 기록하는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 상기 기록 매체는 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장한 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등을 포함할 수 있다.
한편, 저장부(150)에는 청소구역에 대한 지도가 저장될 수 있다. 상기 지도는 로봇 청소기(100)와 유선 또는 무선 통신을 통해 정보를 교환할 수 있는 외부 단말기에 의해 입력된 것일 수도 있고, 다르게는, 로봇 청소기(100)가 스스로 학습을 하여 생성한 것일 수도 있다. 전자의 경우, 외부 단말기로는 지도 설정을 위한 어플리케이션(application)이 탑재된 리모콘, PDA, 랩탑(laptop), 스마트 폰, 태블렛 등을 예로들 수 있다.
상기 지도에는 청소구역 내의 방들의 위치가 표시될 수 있다. 또한, 로봇 청소기(100)의 현재 위치가 상기 지도 상에 표시될 수 있으며, 상기 지도 상에서의 로봇 청소기(100)의 현재의 위치는 주행 과정에서 갱신될 수 있다.
주행제어모듈(141)은 로봇 청소기(100)의 주행을 제어하는 것으로, 주행 설정에 따라 구동 모터(139)의 구동을 제어한다. 또한, 주행제어모듈(141)은 구동 모터(139)의 동작을 바탕으로 로봇 청소기(100)의 이동 경로를 파악할 수 있다. 예를들어, 주행제어모듈(141)은 구동 바퀴(136)의 회전속도를 바탕으로 로봇 청소기(100)의 현재 또는 과거의 이동속도, 주행한 거리 등을 파악할 수 있으며, 각 구동 바퀴(136(L), 136(R))의 회전 방향에 따라 현재 또는 과거의 방향 전환 과정 또한 파악할 수 있다. 이렇게 파악된 로봇 청소기(100)의 주행 정보를 바탕으로, 지도 상에서 로봇 청소기(100)의 위치가 갱신될 수 있다.
로봇 청소기(100)가 주행하는 중에, 영상획득부(120)는 로봇 청소기(100) 주변의 영상들을 획득한다. 이하, 영상획득부(120)에 의해 획득된 영상을 '획득영상'이라고 병칭하기로 한다. 바람직하게는, 영상획득부(120)는 지도 상의 각 방들에서마다 적어도 하나의 획득영상을 획득한다. 도 6은 청소구역 내의 어떤 방에서 촬영된 영상으로, 영상을 통해 천장에 위치하는 조명들(11), 벽체의 코너(12) 등의 여러가지 특징(feature)들이 확인된다.
특징검출모듈(142)은 획득영상들 각각으로부터 특징(feature)을 검출한다. 컴퓨터 비전(Computer Vision) 기술 분야에서 영상으로부터 특징을 검출하는 다양한 방법(Feature Detection)이 잘 알려져 있다. 상기 특징들로는 경계(edge), 코너(corner), 얼룩(blob), 굴곡(ridge) 등이 있으며, 이들 특징들의 검출에 적합한 여러 특징검출기(feature detector)들이 알려져 있다. 예를들어, Canny, Sobel, Harris&Stephens/Plessey, SUSAN, Shi&Tomasi, Level curve curvature, FAST, Laplacian of Gaussian, Difference of Gaussians, Determinant of Hessian, MSER, PCBR, Grey-level blobs 검출기 등이 있다.
도 8은 특징 검출을 위해 SIFT(Scale Invariant Feature Transform) 기법을 이용하여 특징벡터들을 추출한 것을 보이는 도면이다. SIFT는 영상에서 코너점 등 식별이 용이한 특징점(keypoint)을 선택한 후, 각 특징점 주변의 일정한 구역에 속한 픽셀들의 밝기 구배(gradient)의 분포 특성(밝기 변화의 방향 및 변화의 급격한 정도)에 대한 히스토그램을 구한 후, 상기 히스토그램의 빈(bin)값들로부터 128차원의 벡터를 구하는 영상인식기법이다.
SIFT는 촬영 대상의 스케일(scale), 회전, 밝기변화에 대해서 불변하는 특징을 검출할 수 있어, 같은 영역을 로봇 청소기(100)의 자세를 달리하며 촬영하더라도 불변하는(즉, 회전 불변한(Rotation-invariant)) 특징을 검출할 수 있다. 물론, 이에 한정되지 않고 다른 다양한 기법(예를들어, HOG: Histogram of Oriented Gradient, Haar feature, Fems, LBP:Local Binary Pattern, MCT:Modified Census Transform)들이 적용될 수도 있다.
특징분포학습모듈(143)은 특징검출모듈(142)을 통해 검출된 특징들을 바탕으로 특징들에 대한 라벨을 생성하고, 라벨들에 점수를 부여하여, 각 영상들에 대한 라벨별 점수분포(이하, 영상별 라벨-점수분포라고 함.)와, 이렇게 구해진 영상별 라벨-점수분포들을 바탕으로 각각의 방에 대한 라벨별 점수분포(이하, 방별 라벨-점수분포라고 함.)를 구한다. 보다 상세하게 후술하겠지만, 영상별 라벨-점수분포와 방별 라벨-점수분포는, 로봇 청소기(100)가 지도 상에서 자신의 위치를 파악하지 못하는 상황이 발생한 경우(예를들어, 지도를 바탕으로 주행하는 중에, 로봇 청소기(100)의 위치가 갑자기 옮겨진 경우)에, 그 위치에서 획득된 영상과의 비교를 통해 현재의 위치를 결정하는데 이용된다. 이하, 방별 라벨-점수분포를 구하기까지의 일련의 과정을 특징분포학습과정이라고 부르고, 방별 라벨-점수분포와 영상별 라벨-점수분포를 바탕으로, 현재의 로봇 청소기(100)의 위치를 인식하는 과정을 위치인식과정이라고 부르기로 한다. 특징분포학습과정과 위치인식과정을 통해서, 청소구역의 전범위를 대상으로 하여 로봇 청소기(100)의 현재의 위치가 결정될 수 있다. (전역위치인식:Global Localization)
도 7은 특징분포학습모듈에 의해 지도가 학습되는 과정을 도시한 개요도이다. 도 7을 참조하면, 전술한 바와 같이, 특징검출모듈(142)은 청소구역 내 다양한 위치들에서 획득된 영상들에 대해 특징검출(feature detection)을 실시한다. 이렇게 획득된 영상들은 병별로 분류된 데이터베이스로 저장부(150)에 기록된다. 청소구역 내에 N개의 방이 있는 경우, 각 방들에서 적어도 하나의 영상이 획득되되는 것이 바람직하며, 이렇게 획득된 영상들로부터 각각 특징이 검출된다. 이때, 각 방에서 획득된 영상들은 방 내에서 로봇 청소기(100)의 자세를 변화시켜 가면서 촬영된 영상(예를들어, 로봇 청소기(100)가 제자리에서 회전하면서 영상을 획득)들 또는 위치를 변화시켜가면서 촬영한 영상들로 구성될 수 있다. 로봇 청소기(100)는 방 내에서 임의로 자세 또는 위치를 변화시켜가며 영상을 획득할 수 있으며, 이를 특징탐지동작이라고 한다. 특징탐지동작은 청소구역 내 모든 방들에서 실시될 수 있으며, 특징탐지동작을 실시하며 청소구역의 전범위를 탐지하는 과정을 이하, 특징탐지운전이라고 하기로 한다. 특징탐지운전은 조작부(137)를 통해 입력된 소정의 명령에 따라 실시될 수 있으며, 다르게는, 로봇 청소기(100)가 충전을 위해 충전대(200)로 복귀할 시 실시될 수도 있다. 특히, 후자의 경우, 특징탐지운전이 이미 실시되어, 청소구역 전범위에서 영상들이 획득되고, 저장부(150)에 기록된 이후에는, 다시 충전대로의 복귀가 실시된다고 하더라도 더 이상 특징탐지운전이 실시될 필요는 없다.
획득영상들로부터 검출된 특징들에 대해서는 라벨이 생성되고(721), 점수가 부여된다(722). 이때, 라벨의 생성과 점수의 부여는 방별로 정해진 규칙에 따라 이루어지며, 상기 규칙은 방별로 다른 것이 바람직하다.
예를들어, 도 9는 청소구역 내에 N개의 방이 존재하는 경우에, 획득영상들을 방별로 분류한 것을 보여주고 있다. 각 영상에 표시된 8방향의 화살표들은 SIFT 기법을 적용하여 획득영상에서 특징들을 표현한 서술자(descriptor)들이다. 특징분포학습모듈(143)은 각 방별로 정해진 규칙에 따라 서술자들을 분류하여 유사한 특징들에 대해서는 동일한 라벨을 생성한다. 이때, 라벨들은 각 방별로 정해진 규칙에 따라 정의된다.
도 10은 방별로 분류된 영상들에서 검출된 특징들에 부여된 라벨들을 획득영상에 표시한 것이다. 실시예에서는 각 방별로 정해진 규칙에 따라 5개의 라벨로 특징들을 분류하였으나, 라벨의 개수가 이에 한정되어야 하는 것은 아니다.
방 1에서 획득된 영상에서는 검출된 특징들에 대해 방 1의 규칙에 따른 P11, P12, P13, P14, P15의 라벨을 생성하였다. 그리고, 방 N에서 획득된 영상에서는 검출된 특징들에 대해 방 N의 규칙에 따른 PN1, PN2, PN3, PN4, PN5을 생성하였다. 이러한 방식으로 N개의 방 모두에 대해 각 방별로 정해진 규칙에 따라 라벨이 생성된다. 라벨의 생성은 특징분포학습모듈(143)에 의해 실시된다.
또한, 특징분포학습모듈(143)은 라벨들에 대해 방별로 정해진 규칙에 따라 점수를 부여한다. 예를들어, 도 10에서 보이는 바와 같이, 방 1에서 획득된 획득영상들을 바탕으로 생성된 라벨들 P11, P12, P13, P14, P15에 대해서는 각각 1.5, 2.1, 1.0, 2.3, 1.5 점을 부여하고, 다른 방(예를들어, 방 N)의 획득영상들로부터 생성된 라벨들 PN1, PN2, PN3, PN4, PN5에 대해서는 방 1과는 다른 기준에 따라 점수를 부여한다. 실시예에서는 PN1, PN2, PN3, PN4, PN5에 대해 각각 0.8, 1.1, 1.2, 2.5, 1.3점이 부여되었다.
이제 각 획득영상들에 대해 라벨이 생성되고, 생성된 라벨에 점수가 부여되었으므로 영상별 특징분포가 구해질 수 있다. 이하, 상기 영상별 특징분포는 각각의 라벨들에 대해, 획득영상에서의 출현빈도에 점수를 곱한 것을 바(bar)의 길이로 하는 영상별 히스토그램으로 표현한다.
특징분포학습모듈(143)은 영상별 특징분포(예를들어, 영상별 라벨-점수분포)로부터 방별 특징분포(예를들어, 방별 라벨-점수분포)를 구할 수 있다. 도 11은 N개의 방 모두에서 획득된 영상들로부터 각각 구해진 영상별 히스토그램들(1110)로부터 각 방별 특징분포를 구하는 과정을 도시한 것이다. 이하, 방별 특징분포는 히스토그램(1120)으로 표현하기로 하고, 이를 방별 히스토그램이라고 한다.
방별 히스토그램(1120)은 각 방별로 구해진 영상별 히스토그램들에서 라벨별로 점수들을 평균한 것이다. 즉, 도 11에 도시된 바와 같이, 방 1에서 획득된 M개의 영상들로부터 구해진 각각의 영상별 히스토그램들(방(1) 영상(1) 히스토그램 ~ 방(1) 영상(M) 히스토그램)로부터 각각의 라벨들(P11 내지 P15)별로 점수를 평균하여 방 1에 대한 히스토그램(방(1) 히스토그램)이 구해질 수 있다. 특징분포학습모듈(143)은 상기한 과정을 모든 방들에 대해 실시함으로써, N개의 방별 히스토그램을 구할 수 있고, 이렇게 구해진 방별 히스토그램들은 저장부(150)에 저장된다.
방별 특징분포(방별 히스토그램)는 해당 방에서의 특징들의 분포를 반영하는 것이기 때문에, 그 방을 식별하는 지표가 될 수 있으며, 영상별 특징분포는 다시 방 내에서의 영상이 획득된 위치를 보다 구체적으로 식별하는 지표가 될 수 있다. 특히, 정상적으로 지도를 따라 로봇 청소기(100)의 주행이 제어되고 있는 중에는, 주행제어모듈(141)에 의해 지도 상에서의 로봇 청소기(100)의 위치가 계속적으로 감지되기 때문에, 영상획득부(120)에 의해 영상이 획득될 시 로봇 청소기(100)가 방 내에서 어느 위치에 있었는지가 파악될 수 있다. 따라서, 이렇게 지도를 바탕으로 인식된 로봇 청소기(100)의 위치정보를 함께 고려하면, 영상별 특징분포는 특정한 방 내에서 영상이 구해진 위치를 식별하는 지표가 될 수 있다.
이제, 방을 식별하는 지표(방별 특징분포)와, 방 내에서의 위치를 식별하는 지표(영상별 특징분포)가 구해졌는바, 이하, 이를 이용한 위치인식과정을 살펴보기로 한다.
도 12는 위치인식모듈에 의해 로봇 청소기의 위치를 인식하는 과정을 도시한 개요도이다. 도 12를 참조하면, 위치인식과정은 로봇 청소기(100)가 현재의 위치에서 주변영상(예를들어, 천장)을 획득하는 단계와, 이렇게 획득된 영상에서 특징들을 검출하는 단계와, 검출된 특징들에 방별로 정해진 규칙(특징분포학습과정에서 방별로 적용된 규칙)을 적용하여 N개의 특징분포를 구하는 단계를 포함한다.
이때, 획득영상으로부터의 특징들의 검출과, 라벨의 생성 및 라벨에 점수를 부여하는 과정은, 특징분포학습과정에서 적용된 방별로 정해진 규칙에 따라 실시될 수 있다. 상기 방별로 정해진 규칙은 방의 개수(N개)에 대응하는 수 만큼 존재할 수 있으며, 따라서, 이들 규칙들을 적용하여 획득영상으로부터 구해지는 N개의 특징분포(이하, 히스토그램인 것으로 예를듦.)들은 로봇 청소기(100)가 현재위치하는 방을 식별하는데 사용되는 비교군을 형성한다. 위치인식모듈(144)은 상기 비교군을 구성하는 특징분포(이하, 비교군으로써의 특징분포라고 함.)들을 특징분포학습과정에서 구한 방별 특징분포들과 비교함으로써, 현재 위치에서 획득된 영상이 어느 방 내에서 구해진 것인지를 결정할 수 있다.
방별 특징분포는, 그 방에서 획득한 여러 개의 영상들에 대해서 라벨별로 점수를 평균한 것이기 때문에, 비교군으로써의 특징분포들 중 어느 것과 정확하게 일치하지 않을 수 있다. 따라서, 위치인식모듈(144)은 비교군으로써의 특징분포들 중 어느 것과 가장 근사하게 매칭되는 방별 특징분포를 구함으로써, 현재 위치에서 획득한 영상이 어느 방에서 구해진 것인지를 결정할 수 있다.
이하, 위치인식과정을 도 13 내지 도 15를 통해 보다 상세하게 설명한다. 도 13은 로봇 청소기의 현재의 위치에서 획득한 영상에 대해 병별로 정해진 규칙(특징분포 학습과정에서 적용된 규칙)을 적용하여 라벨을 생성하고, 라벨에 점수를 부여하여 N개의 비교 히스토그램을 생성하는 것을 보여준다. N개의 비교 히스토그램은 동일한 영상으로부터 구해진 것이지만, 각각의 비교 히스토그램들은 각 방별로 정해진 규칙을 적용함으로써 구해진 것들이기 때문에, 라벨의 생성 기준과 점수의 부여 기준이 달라, 바람직하게는, N개의 서로 다른 비교 히스토그램들이 구해질 수 있다. 이제, 위치인식모듈(144)은 이들 N개의 비교 히스토그램들을 각각 특징분포학습과정에서 구한 N개의 방별 히스토그램들과 비교한다.
도 14는 N개의 방별 히스토그램(방(1) 히스토그램 내지 방(N) 히스토그램)과 N개의 비교 히스토그램(비교 히스토그램(1) 내지 비교 히스토그램(N))을 매칭하는 것을 보여준다. 도면에서 보이는 바와 같이, 방별 히스토그램들과 비교 히스토그램들을 서로 비교한 결과, 현재의 위치에서 획득한 영상에 K번째 방의 규칙을 적용하여 구한 비교 히스토그램(K)가, 특징분포학습과정에서 구한 K번째 방의 히스토그램(방(K) 히스토그램)과 가장 근사하였다. 따라서, 이 경우, 위치인식모듈(144)은 로봇 청소기(100)가 현재 K방 내에 위치하는 것으로 결정한다.
이렇게 로봇 청소기(100)가 현재 자신의 위치에서 획득한 영상을 바탕으로, 자신의 위치를 결정하는 방식은, 지도 상에서 로봇 청소기(100)의 위치가 불연속적으로 변경된 경우, 예를들어, 주행제어모듈(141)에 의해 주행 경과가 파악되지 못하고 이동이 이루어져, 주행제어모듈(141)로부터 얻은 주행 정보를 가지고는 지도 상에서 자신의 위치를 파악할 수 없는 경우에도, 현재의 위치를 파악할 수 있다.
또 다른 예로, 로봇 청소기(100)가 저장부(150)에 기 저장된 지도를 따라 스스로 주행을 하며 거실을 청소를 실시하는 중에, 사용자에 의해 임의로 경로를 이탈하여 거실 밖의 방으로 이동되어, 이동된 방에서 다시 주행을 하는 경우, 주행제어모듈(141)로부터 얻은 주행 기록에 따라 지도에만 의존하여 자신의 위치를 파악하는 기존의 방식에서는, 제어부(140)로써는 로봇 청소기(100)가 아직도 거실에 있는 것으로 파악할 수 밖에 없다. 그러나, 본 발명과 같이, 새로운 방에서 획득한 영상을 바탕으로 위치인식과정을 실시하는 경우에는, 현재 로봇 청소기(100)가 어느 방에 속하는지를 알 수가 있다. 따라서, 지도 상에서 로봇 청소기(100)가 어느 방에 위치하는지를 다시 파악하여, 지도를 바탕으로 주행을 제어하는 전역위치인식 기반의 제어가 가능하다.
도 15는 현재의 위치에서 획득된 영상으로부터 구해진 비교 히스토그램(K)와 특징분포학습과정에서 방(K) 내에서 획득된 영상들로부터 구해진 히스토그램을 비교하는 것을 보여준다.
방(K)는 위치인식모듈(144)에 의해 파악된 로봇 청소기(100)가 현재 위치하는 방이며, 특징분포학습과정에서 방(K) 내에서 획득된 M개의 영상들로부터 구한 M개의 히스토그램은 방(K) 영상(1) 히스토그램 내지 방(K) 영상(M) 히스토그램으로 표시되었다. 비교 히스토그램(K)이 방(K) 영상(L)과 가장 근사하며, 위치인식모듈(144)은 로봇 청소기(100)가 현재 방(K)내에 위치하되, M개의 영상 중 영상(L)이 구해진 곳에 위치하는 것으로 결정할 수 있다. 여기서, 영상(L)이 구해진 장소는 특징분포학습과정에서 주행제어모듈(141)에 의해 구해진 주행기록에 따라 지도 상에서 특정될 수 있다.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (24)

  1. 청소구역을 주행하는 중에 주변의 영상들을 획득하는 (a)단계;
    상기 (a)단계에서 획득된 영상들을 바탕으로, N개의 방에 대하여 각각의 방별로 정해진 규칙에 따라 각 방별 특징분포들을 구하는 (b)단계;
    현재 위치에서 주변의 영상을 획득하는 (c)단계;
    상기 (c)단계에서 구해진 영상에 대해, 상기 (b)단계에서 N개의 방에 대하여 적용된 상기 방별로 정해진 규칙들을 적용하여, 상기 적용된 각각의 규칙들에 대응하는 N개의 특징분포들로 구성된 비교군을 구하는 (d)단계; 및
    상기 (d)단계에서 구한 비교군과, 상기 (b)단계에서 구한 각 방별 특징분포들을 비교하여, 로봇 청소기가 현재 위치하는 방을 결정하는 (e)단계를 포함하는 로봇 청소기의 제어방법.
  2. 제 1 항에 있어서,
    상기 (b)단계는,
    상기 (a)단계에서 획득된 영상들에 대한 특징분포들을 구하는 (b-1)단계; 및
    상기 (b-1)단계에서 구해진 상기 영상들에 대한 특징분포들을 바탕으로 상기 영상들이 획득된 방별로 상기 방별 특징분포들을 구하는 (b-2)단계를 포함하는 로봇 청소기의 제어방법.
  3. 제 2 항에 있어서,
    상기 (b-1)단계는,
    상기 (a)단계에서 획득된 영상들로부터 특징들을 검출하는 단계;
    방별로 정해진 규칙에 따라 상기 검출된 특징들에 대한 라벨들을 생성하는 단계; 및
    상기 라벨들에 점수를 부여하여, 각 영상들에 대한 라벨별 점수분포를 구하는 단계를 포함하고,
    상기 (b-2)단계는,
    상기 각 영상들에 대한 라벨별 점수분포를 바탕으로, 각 방별로 라벨별 점수분포를 구하는 로봇 청소기의 제어방법.
  4. 제 3 항에 있어서,
    상기 (b-1)단계에서 상기 라벨들에 점수를 부여하는 것은,
    방별로 정해진 규칙에 따라 실시되는 로봇 청소기의 제어방법.
  5. 제 3 항에 있어서,
    상기 (b-2)단계에서 상기 각 방별로 구해진 라벨별 점수분포는,
    상기 각 영상들에 대한 라벨별 점수분포들을 방별로 평균한 것인 로봇 청소기의 제어방법.
  6. 제 2 항에 있어서,
    상기 (d)단계에서 구한 상기 비교군들 중, 상기 (e)단계에서 로봇 청소기가 현재 위치하는 것으로 결정된 방의 규칙이 적용된 특징분포와 상기 (b)단계에서 구해진 상기 영상들에 대한 특징분포를 비교하여, 로봇 청소기가 방 내에서 어느 영역에 위치하는지를 결정하는 단계를 더 포함하는 로봇 청소기의 제어방법.
  7. 제 1 항에 있어서,
    기 저장된 청소구역의 지도를 바탕으로 로봇 청소기의 위치를 파악하는 단계를 더 포함하고,
    상기 (c)단계 내지 (e)단계는,
    상기 지도 상에서의 로봇 청소기의 위치가 파악되지 않을 시에 실시되는 로봇 청소기의 제어방법.
  8. 제 7 항에 있어서,
    상기 지도는,
    상기 로봇 청소기와 무선으로 통신하는 외부 단말기로부터 입력된 것인 로봇 청소기의 제어방법.
  9. 제 1 항에 있어서,
    상기 주변영상은 청소구역 내의 천장을 촬영한 것인 로봇 청소기의 제어방법.
  10. 제 1 항에 있어서,
    상기 각 방별로 정해진 규칙들은 서로 다른 것들인 로봇 청소기의 제어방법.
  11. 주변의 영상들을 획득하는 영상획득부;
    상기 영상획득부를 통해 획득된 영상들을 바탕으로, N개의 방에 대하여 각각의 방별로 정해진 규칙에 따라 각 방별 특징분포들을 구하는 특징분포학습모듈; 및
    로봇 청소기의 현재 위치에서 상기 영상획득부를 통해 획득된 영상에 대해 상기 N개의 방에 대하여 적용된 상기 방별로 적용된 규칙들을 적용하여, 상기 적용된 각각의 규칙들에 대응하는 N개의 특징분포들로 구성된 비교군을 구하고, 상기 비교군과 상기 특징분포학습모듈을 통해 구해진 방별 특징분포들을 비교하여 로봇 청소기가 현재 위치하는 방을 결정하는 위치인식모듈을 포함하는 로봇 청소기.
  12. 제 11 항에 있어서,
    상기 특징분포학습모듈은,
    상기 영상획득부에 의해 획득된 영상들에 대한 특징분포를 구하고, 상기 영상들에 대한 특징분포들을 바탕으로 상기 영상들이 획득된 방별로 상기 방별 특징분포들을 구하는 로봇 청소기.
  13. 제 11 항에 있어서,
    상기 영상획득부에 의해 획득된 영상들로부터 특징들을 검출하는 특징검출모듈을 더 포함하고,
    상기 특징분포학습모듈은,
    상기 특징검출모듈에 의해 추출된 특징들에 대해 상기 방별로 정해진 규칙에 따라 라벨들을 생성하고, 상기 라벨들에 점수를 부여하여 각 영상들에 대한 라벨별 점수분포를 구하고, 상기 각 영상들에 대한 라벨별 점수분포들을 바탕으로 각 방별로 라벨별 점수분포를 구하는 로봇 청소기.
  14. 제 13 항에 있어서,
    상기 라벨들에 점수를 부여하는 것은 방별로 정해진 규칙에 따라 실시되는 로봇 청소기.
  15. 제 13 항에 있어서,
    상기 각 방별로 구해진 라벨별 점수분포는,
    상기 영상들에 대한 라벨별 점수분포들을 방별로 평균한 것인 로봇 청소기.
  16. 제 12 항에 있어서,
    상기 위치인식모듈은,
    상기 비교군들 중, 상기 위치인식모듈에 의해 로봇 청소기가 현재 위치하는 것으로 결정된 방의 규칙이 적용된 특징분포와, 상기 로봇 청소기가 현재 위치하는 것으로 결정된 방에서 구해진 영상들에 대한 특징분포들을 비교하여, 로봇 청소기가 방내에서 어느 영역에 위치하는지를 결정하는 로봇 청소기.
  17. 제 11 항에 있어서,
    상기 영상획득부는,
    청소구역의 천장을 촬열하도록 구비되는 로봇 청소기.
  18. 청소구역 내를 이동하며 주변의 영상들을 획득하고;
    각 방별로 정해진 규칙에 따라, i) 방별로 획득된 영상들에서 특징을 검출하고, ii) 검출된 특징들에 대한 라벨을 생성하고, iii) 각각의 라벨들에 점수를 부여하고, iv) 각 방별로 라벨별 점수분포를 구하여 저장하고;
    상기 각 방별로 라벨별 점수분포가 저장된 이후에, 주변의 영상을 획득하고, 획득된 영상에 대해, 상기 i), ii), iii) 및 iv)에서 적용된 방별로 정해진 규칙에 따라 특징들에 대한 라벨을 생성하고, 생성된 라벨들에 점수를 부여하여, 각 방별로 정해진 규칙에 따른 라벨별 점수분포들로 구성된 비교군을 구하고, 상기 비교군과 상기 iv)단계에서 각 방별로 구한 라벨별 점수분포를 바탕으로, 로봇 청소기가 현재 위치하는 방을 결정하는 로봇 청소기의 제어방법.
  19. 청소구역을 주행하는 중에 주변의 영상들을 획득하는 (a)단계;
    상기 (a)단계에서 획득된 영상들을 바탕으로, 방별로 정해진 규칙에 따라 각 방별 특징분포들을 구하는 (b)단계;
    현재 위치에서 주변의 영상을 획득하는 (c)단계;
    상기 (c)단계에서 구해진 영상에 대해, 상기 (b)단계에서 적용된 상기 방별로 규칙들을 적용하여 특징분포들로 구성된 비교군을 구하는 (d)단계; 및
    상기 (d)단계에서 구한 비교군과, 상기 (b)단계에서 구한 각 방별 특징분포들을 비교하여, 로봇 청소기가 현재 위치하는 방을 결정하는 (e)단계를 포함하고,
    상기 (b)단계는,
    상기 (a)단계에서 획득된 영상들에 대한 특징분포들을 구하는 (b-1)단계; 및
    상기 (b-1)단계에서 구해진 상기 영상들에 대한 특징분포들을 바탕으로 상기 영상들이 획득된 방별로 상기 방별 특징분포들을 구하는 (b-2)단계를 포함하고,
    상기 (b-1)단계는,
    상기 (a)단계에서 획득된 영상들로부터 특징들을 검출하는 단계;
    방별로 정해진 규칙에 따라 상기 검출된 특징들에 대한 라벨들을 생성하는 단계; 및
    상기 라벨들에 점수를 부여하여, 각 영상들에 대한 라벨별 점수분포를 구하는 단계를 포함하고,
    상기 (b-2)단계는,
    상기 각 영상들에 대한 라벨별 점수분포를 바탕으로, 각 방별로 라벨별 점수분포를 구하는 단계를 포함하는 로봇 청소기의 제어방법.
  20. 제 19 항에 있어서,
    상기 (b-1)단계에서 상기 라벨들에 점수를 부여하는 것은,
    방별로 정해진 규칙에 따라 실시되는 로봇 청소기의 제어방법.
  21. 제 19 항에 있어서,
    상기 (b-2)단계에서 상기 각 방별로 구해진 라벨별 점수분포는,
    상기 각 영상들에 대한 라벨별 점수분포들을 방별로 평균한 것인 로봇 청소기의 제어방법.
  22. 주변의 영상들을 획득하는 영상획득부;
    상기 영상획득부를 통해 획득된 영상들을 바탕으로, 방별로 정해진 규칙에 따라 각 방별 특징분포들을 구하는 특징분포학습모듈; 및
    로봇 청소기의 현재 위치에서 상기 영상획득부를 통해 획득된 영상에 대해 상기 방별로 적용된 규칙들을 적용하여 특징분포들로 구성된 비교군을 구하고, 상기 비교군과 상기 특징분포학습모듈을 통해 구해진 방별 특징분포들을 비교하여 로봇 청소기가 현재 위치하는 방을 결정하는 위치인식모듈을 포함하고,
    상기 특징분포학습모듈은,
    상기 영상획득부에 의해 획득된 영상들에 대한 특징분포를 구하고, 상기 영상들에 대한 특징분포들을 바탕으로 상기 영상들이 획득된 방별로 상기 방별 특징분포들을 구하고,
    상기 영상획득부에 의해 획득된 영상들로부터 특징들을 검출하는 특징검출모듈을 더 포함하고,
    상기 특징분포학습모듈은,
    상기 특징검출모듈에 의해 추출된 특징들에 대해 상기 방별로 정해진 규칙에 따라 라벨들을 생성하고, 상기 라벨들에 점수를 부여하여 각 영상들에 대한 라벨별 점수분포를 구하고, 상기 각 영상들에 대한 라벨별 점수분포들을 바탕으로 각 방별로 라벨별 점수분포를 구하는 로봇 청소기.
  23. 제 22 항에 있어서,
    상기 라벨들에 점수를 부여하는 것은 방별로 정해진 규칙에 따라 실시되는 로봇 청소기.
  24. 제 22 항에 있어서,
    상기 각 방별로 구해진 라벨별 점수분포는,
    상기 영상들에 대한 라벨별 점수분포들을 방별로 평균한 것인 로봇 청소기.
KR1020140131526A 2014-09-30 2014-09-30 로봇 청소기 및 로봇 청소기의 제어방법 KR101629649B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020140131526A KR101629649B1 (ko) 2014-09-30 2014-09-30 로봇 청소기 및 로봇 청소기의 제어방법
CN201510626586.7A CN105455743B (zh) 2014-09-30 2015-09-28 机器人吸尘器及机器人吸尘器的控制方法
US14/868,828 US9798957B2 (en) 2014-09-30 2015-09-29 Robot cleaner and control method thereof
EP15187658.8A EP3002656B1 (en) 2014-09-30 2015-09-30 Robot cleaner and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140131526A KR101629649B1 (ko) 2014-09-30 2014-09-30 로봇 청소기 및 로봇 청소기의 제어방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020160049075A Division KR102203434B1 (ko) 2016-04-22 2016-04-22 로봇 청소기 및 로봇 청소기의 제어방법

Publications (2)

Publication Number Publication Date
KR20160038437A KR20160038437A (ko) 2016-04-07
KR101629649B1 true KR101629649B1 (ko) 2016-06-13

Family

ID=54252092

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140131526A KR101629649B1 (ko) 2014-09-30 2014-09-30 로봇 청소기 및 로봇 청소기의 제어방법

Country Status (3)

Country Link
US (1) US9798957B2 (ko)
EP (1) EP3002656B1 (ko)
KR (1) KR101629649B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160048750A (ko) * 2016-04-22 2016-05-04 엘지전자 주식회사 로봇 청소기 및 로봇 청소기의 제어방법
KR20210113902A (ko) 2020-03-09 2021-09-17 엘지전자 주식회사 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
KR20230126868A (ko) 2022-02-24 2023-08-31 엘지전자 주식회사 로봇 청소기 및 로봇 청소기의 제어방법
KR20230134800A (ko) 2022-03-15 2023-09-22 엘지전자 주식회사 로봇 청소기 및 로봇 청소기의 제어방법

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101659037B1 (ko) * 2015-02-16 2016-09-23 엘지전자 주식회사 로봇 청소기, 이를 포함하는 원격 제어 시스템 및 이의 제어 방법
US9805662B2 (en) * 2015-03-23 2017-10-31 Intel Corporation Content adaptive backlight power saving technology
JP6288060B2 (ja) 2015-12-10 2018-03-07 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
JP6311695B2 (ja) 2015-12-16 2018-04-18 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
JP6187623B1 (ja) * 2016-03-14 2017-08-30 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
DE112017002154B4 (de) * 2016-04-25 2020-02-06 Lg Electronics Inc. Mobiler Roboter und Steuerverfahren für einen mobilen Roboter
CN105856229A (zh) * 2016-05-05 2016-08-17 上海慧流云计算科技有限公司 室内定位方法、装置及扫地机器人
KR101982780B1 (ko) * 2016-10-20 2019-05-27 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
NO342037B1 (en) * 2016-11-02 2018-03-19 Autostore Tech As Controlling movements of a robot running on tracks
KR102656581B1 (ko) * 2016-11-24 2024-04-12 삼성전자주식회사 이동 로봇, 그를 포함하는 시스템 및 이동 로봇의 제어 방법
DE102016124913A1 (de) * 2016-12-20 2018-06-21 Miele & Cie. Kg Verfahren und Vorrichtung zum Erkennen eines Raumes mittels eines Bodenpflegegeräts sowie Bodenpflegegerät
KR101849972B1 (ko) * 2016-12-27 2018-05-31 엘지전자 주식회사 로봇 청소기 및 그의 제어방법
KR101917701B1 (ko) 2017-01-13 2018-11-13 엘지전자 주식회사 청소기 및 그 제어방법
KR20180121244A (ko) * 2017-04-28 2018-11-07 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102314539B1 (ko) * 2017-06-09 2021-10-18 엘지전자 주식회사 인공지능 이동 로봇의 제어 방법
KR102024094B1 (ko) * 2017-12-21 2019-09-23 엘지전자 주식회사 인공지능을 이용한 이동 로봇 및 그 제어방법
WO2019183393A1 (en) * 2018-03-21 2019-09-26 Lei Zhou Controlling movement of an automated guided vehicle
US11457788B2 (en) * 2018-05-11 2022-10-04 Samsung Electronics Co., Ltd. Method and apparatus for executing cleaning operation
KR102255273B1 (ko) 2019-01-04 2021-05-24 삼성전자주식회사 청소 공간의 지도 데이터를 생성하는 장치 및 방법
CN110253568B (zh) * 2019-05-22 2021-07-20 深圳镁伽科技有限公司 机器人控制方法、系统、设备及存储介质
WO2020241933A1 (ko) 2019-05-30 2020-12-03 엘지전자 주식회사 슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법
WO2020246753A1 (en) * 2019-06-03 2020-12-10 Samsung Electronics Co., Ltd. Electronic apparatus for object recognition and control method thereof
DE102020209841B4 (de) 2020-08-05 2024-01-25 BSH Hausgeräte GmbH Reinigungssystem mit einem selbstfahrenden Reinigungsroboter und einer Ladestation
US11969140B2 (en) * 2021-06-22 2024-04-30 Micron Technology, Inc. Surface cleaning
WO2023168707A1 (en) * 2022-03-11 2023-09-14 Intelligent Cleaning Equipment Holdings Co. Ltd. Systems and methods for tracking and scoring cleaning
GB2621371A (en) * 2022-08-10 2024-02-14 Dyson Technology Ltd A method and system for exploring a real-world environment
CN115049662B (zh) * 2022-08-16 2022-11-08 山东大拇指喷雾设备有限公司 基于图像处理的喷雾机流量控制方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101072876B1 (ko) 2009-03-18 2011-10-17 연세대학교 산학협력단 이동 로봇에서 자신의 위치를 추정하기 위한 방법 및 장치

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4233723B2 (ja) 2000-02-28 2009-03-04 本田技研工業株式会社 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体
WO2003026474A2 (en) * 2001-09-26 2003-04-03 Friendly Robotics Ltd. Robotic vacuum cleaner
KR101538775B1 (ko) 2008-09-12 2015-07-30 삼성전자 주식회사 전방 영상을 이용한 위치 인식 장치 및 방법
KR101813922B1 (ko) 2010-07-12 2018-01-02 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
KR101951414B1 (ko) * 2011-06-22 2019-02-22 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
CN102831427B (zh) 2012-09-06 2015-03-25 湖南致尚科技有限公司 一种融合视觉显著性和灰度共生矩的纹理特征提取方法
JP6750921B2 (ja) * 2013-12-19 2020-09-02 アクチエボラゲット エレクトロルックス ロボット掃除機

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101072876B1 (ko) 2009-03-18 2011-10-17 연세대학교 산학협력단 이동 로봇에서 자신의 위치를 추정하기 위한 방법 및 장치

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160048750A (ko) * 2016-04-22 2016-05-04 엘지전자 주식회사 로봇 청소기 및 로봇 청소기의 제어방법
KR102203434B1 (ko) * 2016-04-22 2021-01-14 엘지전자 주식회사 로봇 청소기 및 로봇 청소기의 제어방법
KR20210113902A (ko) 2020-03-09 2021-09-17 엘지전자 주식회사 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
KR20230126868A (ko) 2022-02-24 2023-08-31 엘지전자 주식회사 로봇 청소기 및 로봇 청소기의 제어방법
KR20230134800A (ko) 2022-03-15 2023-09-22 엘지전자 주식회사 로봇 청소기 및 로봇 청소기의 제어방법

Also Published As

Publication number Publication date
EP3002656B1 (en) 2020-08-26
US20160089783A1 (en) 2016-03-31
US9798957B2 (en) 2017-10-24
KR20160038437A (ko) 2016-04-07
EP3002656A1 (en) 2016-04-06
CN105455743A (zh) 2016-04-06

Similar Documents

Publication Publication Date Title
KR101629649B1 (ko) 로봇 청소기 및 로봇 청소기의 제어방법
KR102203434B1 (ko) 로봇 청소기 및 로봇 청소기의 제어방법
KR102314539B1 (ko) 인공지능 이동 로봇의 제어 방법
CN109863003B (zh) 移动机器人及其控制方法
EP3349087B1 (en) Moving robot
US11547261B2 (en) Moving robot and control method thereof
KR20180125010A (ko) 이동 로봇 및 이동 로봇의 제어방법
KR20180087798A (ko) 이동 로봇 및 그 제어방법
KR20180023301A (ko) 이동 로봇 및 그 제어방법
US20200326722A1 (en) Mobile robot, system for multiple mobile robot, and map learning method of mobile robot using artificial intelligence
KR102669126B1 (ko) 이동 로봇 및 그 제어방법
KR102478283B1 (ko) 이동 로봇 및 그 제어방법
KR101922953B1 (ko) 이동 로봇 및 그 제어방법
KR20180037516A (ko) 이동 로봇 및 그 제어방법
KR20180048088A (ko) 로봇 청소기 및 그 제어방법
KR101836847B1 (ko) 이동 로봇 및 이동 로봇의 제어방법
US20220066463A1 (en) Mobile robot and method of controlling the mobile robot
KR102048363B1 (ko) 이동 로봇
CN105455743B (zh) 机器人吸尘器及机器人吸尘器的控制方法
KR20200091110A (ko) 이동 로봇 및 그 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190514

Year of fee payment: 4