KR20210110064A - 이동 로봇 및 그 제어방법 - Google Patents

이동 로봇 및 그 제어방법 Download PDF

Info

Publication number
KR20210110064A
KR20210110064A KR1020200025508A KR20200025508A KR20210110064A KR 20210110064 A KR20210110064 A KR 20210110064A KR 1020200025508 A KR1020200025508 A KR 1020200025508A KR 20200025508 A KR20200025508 A KR 20200025508A KR 20210110064 A KR20210110064 A KR 20210110064A
Authority
KR
South Korea
Prior art keywords
obstacle
image
mobile robot
image group
unit
Prior art date
Application number
KR1020200025508A
Other languages
English (en)
Other versions
KR102320678B1 (ko
Inventor
양원근
김정환
이민호
주정우
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020200025508A priority Critical patent/KR102320678B1/ko
Priority to US17/802,270 priority patent/US20230091839A1/en
Priority to PCT/KR2021/002458 priority patent/WO2021172936A1/en
Priority to EP21760537.7A priority patent/EP4110560A4/en
Publication of KR20210110064A publication Critical patent/KR20210110064A/ko
Application granted granted Critical
Publication of KR102320678B1 publication Critical patent/KR102320678B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4061Steering means; Means for avoiding obstacles; Details related to the place where the driver is accommodated
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/06Control of the cleaning action for autonomous devices; Automatic detection of the surface condition before, during or after cleaning

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명에 따른 이동 로봇 및 그 제어방법은, 주행 중에 주행방향으로 소정 형태의 광패턴으로 조사되는 구조광을 이용하여 장애물을 감지하고 장애물에 대응하여 지정된 동작을 수행하면서, 감지되는 데이터로 판단하기 어려운 장애물 또는 낮은 장애물에 대하여, 복수의 영상을 이용하여 시간의 경과에 따른 변화를 추출하여 위험 장애물을 인식함으로써, 장애물 판단에 따른 정확도가 향상되고, 장애물에 따른 대응동작을 개선하고, 장애물에 의해 구속되는 것을 방지하면서 미청소영역을 최소화하여 청소성능을 향상시키는 효과가 있다.

Description

이동 로봇 및 그 제어방법{Moving Robot and controlling method}
본 발명은 이동 로봇 및 그 제어방법에 관한 것으로, 영역을 주행하며 장애물을 인식하는 이동 로봇 및 그 제어방법에 관한 것이다.
일반적으로 이동 로봇은 사용자의 조작 없이도 청소하고자 하는 구역 내를 스스로 주행하면서 바닥면으로부터 먼지 등의 이물질을 흡입하여 자동으로 청소하는 기기이다.
이동 로봇은, 청소 대상이 되는 영역을 주행하면서, 해당 영역에 대해 지도를 작성할 수 있다. 이동 로봇은, 생성된 지도를 바탕으로 주행하면서 청소를 수행할 수 있다.
또한, 이동 로봇은 주행 중에 영역에 위치한 장애물을 감지하여 장애물을 회피하여 주행한다. 이동 로봇은 장애물을 감지하기 위하여 복수의 센서를 구비한다. 이동 로봇은 복수의 센서로부터 신호를 수신하여 복수의 센서신호를 바탕으로 장애물을 감지하고 이를 회피하여 주행하게 된다.
대한민국 공개특허 10-2013-0034573호는, 라인 광을 이용하여 전방향의 장애물을 감지하는 로봇 청소기를 설명하고 있다. 로봇 청소기는 라인 광을 조사하여 라인광의 형태를 바탕으로 장애물을 감지한다.
그러나 종래발명은 장애물의 높이와 거리 등 물리적인 센싱값으로만 장애물을 감지함에 따라 단순히 장애물의 높이만으로 로봇청소기의 주행 또는 진입 여부를 결정한다.
종래발명은 장애물의 형상과 특성을 파악하지 못하기 때문에 단순히 높이에 따라 주행을 결정하여 위험상황에 처하거나 장애물에 의해 구속될 수 있다.
로봇 청소기는 진입 가능하다고 판단되면, 장애물을 통과하기 위해 주행하는데, 그 과정에서 장애물에 의해 구속되어 이동할 수 없는 문제가 있다.
예를 들어 로봇 청소기는 문턱이 감지되면 문턱을 넘어 주행하도록 하는데, 문턱 중, 창틀과 같이 홈과 돌출부가 혼재된 구조에서는 이동 로봇이 구속될 수 있다.
따라서, 청소기는 보다 정확하게 장애물을 인식하여 주행을 제어할 필요성이 있다.
대한민국 공개특허 10-2013-0034573
본 발명이 해결하고자 하는 과제는, 주행 중에 주행방향으로 소정 형태의 광패턴으로 조사되는 구조광을 이용하여 장애물을 감지하고 장애물에 대응하여 지정된 동작을 수행하는 이동 로봇 및 그 제어방법을 제공하는 것이다.
본 발명은 장애물 판단을 센서값에만 의존하지 않고, 구조광을 촬영하는 영상을 이용하여 시간에 따른 구조광의 변화를 학습하여 장애물을 판단하는데 그 목적이 있다.
본 발명은 측정되는 센서값으로 판단하기 어려운 장애물 또는 낮은 장애물에 대하여, 위험 장애물로 인식하고 그에 대응하여 동작함으로써 위험 상황을 사전에 방지하는데 그 목적이 있다.
본 발명은 3D센서 라인 구조광의 영상을 이용하여 3차원 좌표값을 기준으로 장애물 회피를 수행하는데 그 목적이 있다.
본 발명은 정확한 장애물 확인을 통해 위험장애물은 회피하면서 미청소 영역 없이 청소를 수행하는데 그 목적이 있다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기의 목적을 달성하기 위한 본 발명의 일 실시예에 따른 이동 로봇 및 그 제어방법은, 3D센서의 구조광에 대한 데이터를 누적하여 분석함으로써 장애물에 따른 구조광의 패턴 변화를 통해 장애물을 판단하는 것을 특징으로 한다.
본 발명은 3D센서의 구조광에 대한 1차 판단과, 누적된 구조광 데이터를 바탕으로 하는 2차 판단을 동시에 수행하여 장애물을 판단하는 것을 특징으로 한다.
본 발명은 구조광을 통한 1차 판단으로 장애물의 위치를 판단하고, 누적된 데이터를 통해 변화를 분석하여 장애물을 구분하는 것을 특징으로 한다.
본 발명은 장애물에 도달하기 전 일정시간 간격으로 누적되는 구조광의 데이터를 중복하여 분석함으로써 장애물을 판단하는 것을 특징으로 한다.
본 발명은 물체의 3D 패턴광의 구조광 영상을 딥러닝으로 학습하여 낮은 장애물의 등반 가능 여부를 판단하는 것을 특징으로 한다.
본 발명은 학습을 통해 낮은 장애물 또는 위험 장애물에 대응하거나 회피하여 지정된 위치로 빠르게 이동하거나 지정된 동작을 수행하는 것을 특징으로 한다.
본 발명의 이동 로봇은, 영역을 주행하는 본체; 주행방향으로 조사되는 광패턴에 대한 획득영상을 촬영하여 주행방향에 위치한 장애물을 감지하는 장애물감지부; 상기 장애물감지부에 의해 촬영되는 상기 획득영상으로부터 광패턴의 위치 및 형태에 따라 장애물을 인식하고, 장애물 판단결과에 따라 장애물에 대한 대응모션을 지정하여 동작을 제어하는 제어부;를 포함하고, 상기 제어부는 시간에 따라 입력되는 상기 획득영상으로부터 장애물을 감지하여 상기 장애물의 위치를 판단하고, 상기 획득영상을 누적하여, 일정시간 단위로 복수의 획득영상을 포함하는 영상그룹을 설정하고, 상기 영상그룹에 대하여 상기 복수의 획득영상의 광패턴의 변화를 통해 장애물을 판단하는 것을 특징으로 한다.
본 발명의 이동 로봇의 제어방법은 장애물감지부에 의해, 주행방향으로 조사되는 광패턴에 대항 영상을 촬영하여 획득영상이 입력되는 단계; 상기 획득영상으로부터 장애물을 감지하여 장애물의 위치를 판단하는 단계; 상기 획득영상을 누적하여 저장하고, 일정시간 마다 복수의 획득영상을 포함하는 영상그룹을 설정하는 단계; 상기 영상그룹에 포함되는 상기 복수의 획득영상을 비교하여 시간의 경과에 따른 광패턴의 변화를 추출하여 장애물을 판단하는 단계; 및 상기 장애물에 따라 대응모션을 설정하고, 상기 대응모션에 따라 동작하는 단계;를 포함한다.
본 발명의 이동 로봇 및 그 제어방법은 감지되는 장애물에 대하여, 일정시간 간격으로 누적된 구조광 영상을 분석하여 그 변화 패턴을 통해 장애물을 빠르고 정확하게 판단할 수 있다.
본 발명은 구조광을 통한 1차 판단으로 장애물의 위치를 판단하고, 누적된 데이터를 통해 변화를 분석하여 장애물을 구분함으로써 장애물 판단의 정확도가 향상되는 효과가 있다.
본 발명은 구조광에 대한 일차 판단만으로는구분하기 어려운 낮은 장애물을 구분할 수 있어 장애물 판단에 따른 정확도가 향상되는 효과가 있다.
본 발명은 단순한 거리, 높이에 따른 회피 동작을 개선할 수 있다.
본 발명은 3D센서의 구조광의 변화 패턴을 분석하여 장애물을 판단함으로써 장애물에 따라 대응모션을 사전에 설정할 수 있다.
본 발명은 구분이 어려운 일정 크기 이하의 낮은 장애물을 구분함으로써, 장애물에 따라 장애물을 통과하거나 또는 회피하도록 대응모션을 설정할 수 있다.
본 발명은 장애물의 판단을 통해 이동 로봇이 위험 및 구속상황을 사전에 회피하여 위험상황 발생을 방지하고 구속률이 저감되는 효과가 있다.
본 발명은 장애물에 대한 판단을 통해 대응모션을 수행함으로써, 목적지로 빠르게 이동하거나 지정된 동작을 완료할 수 있다.
본 발명은 정확한 장애물에 대한 판단을 통해, 미청소영역을 최소화하고 주행 가능한 영역을 최대화하여 청소 성능을 향상시키는 효과가 있다.
도 1 은 본 발명의 일 실시예에 따른 이동 로봇이 도시된 사시도이다.
도 2 는 본 발명의 일 실시예에 따른 이동 로봇의 주요부들을 도시한 블록도이다.
도 3 은 본 발명의 일 실시예에 따른 이동 로봇의 장애물 감지를 위한 구성을 설명하는데 참조되는 도이다.
도 4 는 본 발명의 일 실시예에 따른 이동 로봇의 장애물 감지예를 설명하는데 참조되는 도이다.
도 5 는 본 발명의 일 실시예에 따른 이동 로봇의 장애물 감지 및 판단 과정을 설명하는데 참조되는 도이다.
도 6 은 본 발명의 일 실시예에 따른 이동 로봇의 장애물 판단에 따른 대응모션을 설명하는데 참조되는 도이다.
도 7 및 도 8 은 본 발명의 일 실시예에 따른 이동 로봇의 장애물에 대한 구조광 영상이 도시된 도이다.
도 9 는 본 발명의 일 실시예에 따른 이동 로봇의 구조광 영상을 통한 장애물 판단에 따른 흐름이 도시된 도이다.
도 10 은 본 발명의 일실시예에 따른 이동 로봇의 획득영상을 바탕으로 장애물을 판단하는 방법을 설명하는데 참조되는 도이다.
도 11 은 본 발명의 일실시예에 따른 이동 로봇의 획득영상의 영상그룹 설정방법을 설명하는데 참조되는 도이다.
도 12 는 본 발명의 일 실시예에 따른 이동 로봇의 장애물에 대한 동작방법이 도시된 순서도이다.
도 13 은 본 발명의 일 실시예에 따른 이동 로봇의 장애물 판단방법이 도시된 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 본 발명의 제어구성은 적어도 하나의 프로세서로 구성될 수 있다.
도 1 은 본 발명의 일 실시예에 따른 이동 로봇이 도시된 사시도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(1)은 청소구역의 바닥을 따라 이동하며, 바닥 상의 먼지 등의 이물질을 흡입하는 본체(10)와, 본체(10)의 전면에 배치되어 장애물을 감지하는 감지수단(100, 170)을 포함한다.
본체(10)는 외관을 형성하며 내측으로 본체(10)를 구성하는 부품들이 수납되는 공간을 형성하는 케이싱(미도시)과, 케이싱에 배치되어 먼지나 쓰레기 등의 이물질을 흡입하는 흡입유닛(261)과, 케이싱에 회전 가능하게 구비되는 좌륜(미도시)과 우륜(미도시)을 포함할 수 있다. 좌륜과 우륜이 회전함에 따라 본체(10)가 청소구역의 바닥을 따라 이동되며, 이 과정에서 바닥면을 향해 형성된 흡입구(미도시)를 통해 이물질이 흡입된다.
흡입유닛(261)은 흡입력을 발생시키는 흡입 팬(미도시)과, 흡입 팬의 회전에 의해 생성된 기류가 흡입되는 흡입구(미도시)를 포함할 수 있다. 흡입유닛(261)은 흡입구를 통해 흡입된 기류 중에서 이물질을 채집하는 필터(미 도시)와, 필터에 의해 채집된 이물질들이 축적되는 이물질 채집통(미도시)을 포함할 수 있다.
흡입유닛(261)은 회전 브러시(미도시)를 포함하여, 기류를 흡입함과 동시에 회전 동작하여 이물질의 채집을 보조한다. 흡입유닛은 필요에 따라 탈부착 가능하게 구성된다. 본체(10)는 케이싱의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 복수의 브러시(미도시)가 더 구비될 수 있다.
또한, 흡입유닛(261)에는 물걸레청소부가 탈부착될 수 있다. 물걸레청소부는 흡입구의 후면에 장착될 수 있다. 경우에 따라 물걸레청소부는 흡입유닛과 별도로 구성되어 흡입유닛에 체결고정되는 위치에 교체되어 장착될 수 있다. 물걸레청소부는 이동 중에, 회전하며 주행방향의 바닥면을 닦는다.
본체(10)는 좌륜과 우륜을 구동시키는 주행부(미도시)를 포함할 수 있다. 주행부는 적어도 하나의 구동모터를 포함할 수 있다.
본체(10)는 케이싱의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 복수의 브러시(미도시)가 더 구비될 수 있다. 수의 브러시는 회전에 의해 청소구역의 바닥으로부터 먼지들을 제거하며, 이렇게 바닥으로부터 분리된 먼지들은 흡입구를 통해 흡입되어 채집통에 모인다.
케이싱의 상면에는 사용자로부터 이동 로봇(1)의 제어를 위한 각종 명령을 입력받는 조작부(미도시)를 포함하는 컨트롤 패널이 구비될 수 있다.
감지수단은, 장애물감지부(100), 복수의 센서로 구성되는 센서부(미도시), 영상을 촬영하는 영상획득부(170)를 포함한다. 경우에 따라 장애물감지부(100)는 영상획득부(170)와 센서부(150)를 포함할 수 있다.
장애물감지부(100)는 광패턴을 조사하여 촬영되는 영상을 통해 장애물을 감지하는 3D센서가 사용될 수 있다. 또한, 장애물감지부(100)는 초음파, 적외선, 레이져를 이용하여 주행방향의 장애물을 감지할 수 있다. 장애물감지부(100)는 적어도 하나의 카메라로 구성되어, 카메라에 의해 촬영되는 영상으로부터 장애물을 감지할 수 있다.
장애물감지부(100)는 본체(10)의 전면에 배치될 수 있다.
장애물감지부(100)는 케이싱의 전면에 고정되고, 제 1 패턴 조사부(미도시), 제 2 패턴 조사부(미도시) 및 패턴획득부(미도시)를 포함한다. 이때 패턴획득부는 패턴조사부의 하부에 설치되거나 또는 제 1 및 제 2 패턴조사부 사이에 배치되어 조사된 패턴을 영상으로 촬영할 수 있다. 제 1 패턴조사부와 제 2 패턴조사부는 소정 조사각으로 패턴을 조사한다.
영상획득부(170)는 이동 로봇(1)의 주행방향에 대한 영상을 촬영한다. 또한, 영상획득부(170)는 주행방향의 전방 또는 주행방향의 상부, 예를 들어 천장을 촬영할 수 있다. 영상획득부(170)는 천장을 향하도록 구비될 수 있고, 또한, 전방을 향하도록 구비되어 주행방향을 촬영할 수 있다. 또한, 영상획득부(170)는 본체(10)에서의 설치위치, 주행방향에 대한 설치각도에 따라 주행방향의 전방과 상향, 즉 천장을 동시에 촬영할 수도 있다. 영상획득부는 설치되는 카메라의 성능 또는 렌즈의 종류에 따라 촬영되는 화각이 상이하게 설정될 수 있다.
영상획득부(170)는 적어도 하나의 카메라를 포함하는 것을 예로 하여 설명하며, 카메라의 종류에 관계없이 영상을 촬영하는 영상획득수단이라면 무엇이든 적용 가능하다.
영상획득부(170)는 복수의 카메라를 포함할 수 있고, 전방과 천장을 향하는 두개의 카메라가 각각 본체의 전면과 상단부에 각각 설치되어 전방과 천장의 영상을 각각 촬영할 수 있다. 또한, 영상획득부(170)는 바닥면을 촬영하는 카메라가 별도로 구비될 수 있다.
센서부(150)는 적외선센서, 초음파센서, 레이저 센서를 포함하여 장애물을 감지할 수 있다. 또한, 센서부(150)는 기울기센서, 예를 들어 틸팅센서, 자이로센서 등을 포함하여 본체(10)의 기울기를 감지할 수 있고, 조도센서를 포함하여 본체(10)가 위치하는 영역의 밝기를 감지할 수 있다.
이동 로봇(1)은 현재의 위치정보를 획득하기 위한 위치획득수단(미도시)을 더 포함할 수 있다. 이동 로봇(1)은, GPS, UWB를 포함하여 현재 위치를 판단한다.
본체(10)에는 재충전이 가능한 배터리(미도시)가 구비되며, 배터리의 충전 단자(미도시)가 상용 전원(예를 들어, 가정 내의 전원 콘센트)과 연결되거나, 상용 전원과 연결된 별도의 충전대(40)에 본체(10)가 도킹되어, 충전 단자가 충전대의 단자(410)와의 접촉을 통해 상용 전원과 전기적으로 연결되고, 배터리의 충전이 이루어질 수 있다. 이동 로봇(1)을 구성하는 전장 부품들은 배터리로부터 전원을 공급받을 수 있으며, 따라서, 배터리가 충전된 상태에서 이동 로봇(1)은 상용 전원과 전기적으로 분리된 상태에서 자력 주행이 가능하다.
도 2 는 본 발명의 일 실시예에 따른 이동 로봇의 주요부들을 도시한 블록도이다.
도 2에 도시된 바와 같이, 이동 로봇(1)은 주행부(250), 청소부(260), 데이터부(180), 장애물감지부(100), 영상획득부(170), 센서부(150), 통신부(290), 조작부(160), 출력부(190) 그리고 동작 전반을 제어하는 제어부(110)를 포함한다.
조작부(160)는 적어도 하나의 버튼, 스위치, 터치패드 등의 입력수단을 포함하여 사용자명령을 입력 받는다. 조작부는 앞서 설명한 바와 같이 본체(10)의 상단부에 구비될 수 있다.
출력부(190)는 LED, LCD와 같은 디스플레이를 구비하고, 이동 로봇(1)의 동작모드, 예약 정보, 배터리 상태, 동작상태, 에러상태 등을 표시한다. 또한, 출력부(190)는 스피커 또는 버저를 구비하여, 동작모드, 예약 정보, 배터리 상태, 동작상태, 에러상태에 대응하는 소정의 효과음, 경고음 또는 음성안내를 출력한다.
데이터부(180)에는 장애물감지부(100)로부터 입력되는 획득영상이 저장되고, 장애물인식부(210)가 장애물을 판단하기 위한 기준데이터가 저장되며, 감지된 장애물에 대한 장애물정보가 저장된다.
데이터부(180)는 장애물의 종류를 판단하기 위한 장애물데이터(181), 촬영되는 영상이 저장되는 영상데이터(182), 영역에 대한 지도데이터(183)가 저장된다. 지도데이터(183)에는 장애물정보가 포함되며, 이동 로봇에 의해 탐색되는 주행 가능한 영역에 대한 다양한 형태의 맵(지도)이 저장된다.
예를 들어, 이동 로봇에 의해 탐색된 주행 가능한 영역에 대한 정보가 포함된 기초맵, 기초맵으로부터 영역이 구분된 청소맵, 영역의 형태를 사용자가 확인할 수 있도록 생성된 사용자맵, 그리고 청소맵과 사용자맵이 중첩되어 표시되는 가이드맵이 저장될 수 있다.
장애물데이터(181)는 감지된 장애물의 위치 및 크기를 포함한다. 또한, 장애물데이터(181)는 장애물 인식 및 장애물의 종류를 판단하기 위한 정보, 장애물에 대응하여 설정되는 동작에 대한 정보가 포함될 수 있다. 장애물데이터는 인식된 장애물에 대한 이동 로봇의 동작, 예를 들어 주행속도, 주행방향, 회피 여부, 정지 여부 등에 대한 모션정보와, 스피커(173)를 통해 출력되는 효과음, 경고음, 음성안내에 대한 정보가 포함된다. 영상데이터(182)는 촬영된 영상, 예를 들어 정지영상, 동영상, 파노라마영상이 포함될 수 있다.
또한, 데이터부(180)에는 이동 로봇의 동작을 제어하기 위한 제어데이터 및 이동 로봇의 청소모드에 따른 데이터, 센서부(150)에 의한 초음파/레이저 등의 감지신호가 저장된다.
또한, 데이터부(180)는, 마이크로 프로세서(microprocessor)에 의해 읽힐 수 있는 데이터를 저장하는 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, 플래시메모리와 같은 저장 장치를 포함할 수 있다.
통신부(290)는, 무선통신 방식으로 단말(80)과 통신한다. 또한, 통신부(290)는 가정 내 네트워크를 통해, 인터넷망에 연결되어, 외부의 서버(90) 또는 이동 로봇을 제어하는 단말(80)과 통신할 수 있다.
통신부(290)는 생성되는 지도를 단말(80)로 전송하고, 단말로부터 청소명령을 수신하며, 이동 로봇의 동작상태, 청소상태에 대한 데이터를 단말로 전송한다. 또한, 통신부(290)는 주행 중에 감지되는 장애물에 대한 정보를 단말(80) 또는 서버(90)로 전송할 수 있다.
통신부(290)는 지그비, 블루투스 등의 근거리 무선통신, 와이파이, 와이브로 등의 통신모듈을 포함하여 데이터를 송수신한다.
통신부(290)는 충전대(40)와 통신하며 충전대 복귀신호 또는 충전대 도킹을 위한 가이드신호를 수신할 수 있다. 이동 로봇(1)은 통신부(290)를 통해 수신되는 신호를 바탕으로 충전대를 탐색하고, 충전대에 도킹한다.
한편, 단말(80)은 통신모듈이 탑재되어 네트워크 접속이 가능하고 이동 로봇을 제어하기 위한 프로그램, 또는 이동 로봇 제어용 어플리케이션이 설치된 기기로, 컴퓨터, 랩탑, 스마트폰, PDA, 태블릿PC 등의 기기가 사용될 수 있다. 또한, 단말은, 스마트 워치 등의 웨어러블(wearable) 장치 또한 사용될 수 있다.
주행부(250)는 적어도 하나의 구동모터를 포함하여 주행제어부(230)의 제어명령에 따라 이동 로봇이 주행하도록 한다. 주행부(250)는 앞서 설명한 바와 같이, 좌륜(36(L))을 회전시키는 좌륜 구동모터와 우륜(36(R))을 회전시키는 우륜 구동모터를 포함할 수 있다.
청소부(260)는 브러쉬를 동작시켜 이동 로봇 주변의 먼지 또는 이물질을 흡입하기 쉬운 상태로 만들고, 흡입장치를 동작시켜 먼지 또는 이물질을 흡입한다. 청소부(260)는 먼지나 쓰레기 등의 이물질을 흡입하는 흡입유닛(34)에 구비되는 흡입 팬의 동작을 제어하여 먼지가 흡입구를 통해 이물질 채집통에 투입되도록 한다.
또한, 청소부(260)는 본체의 저면부 후방에 설치되어 바닥면과 접하여 바닥면을 물걸레질하는 물걸레청소부(미도시), 물걸레청소부로 물을 공급하는 물통(미도시)을 더 포함할 수 있다. 청소부(260)는 청소툴이 장착될 수 있다. 예를 들어 물걸레패드가 물걸레청소부에 장착되어 바닥면을 청소할 수 있다. 청소부(260)는 물걸레청소부의 물걸레패드에 회전력을 전달하는 별도의 구동수단을 더 포함할 수 있다.
배터리(미도시)는 구동 모터뿐만 아니라, 이동 로봇(1)의 작동 전반에 필요한 전원을 공급한다. 배터리가 방전될 시, 이동 로봇(1)은 충전을 위해 충전대(40)로 복귀하는 주행을 할 수 있으며, 이러한 복귀 주행 중, 이동 로봇(1)은 스스로 충전대의 위치를 탐지할 수 있다. 충전대(40)는 소정의 복귀 신호를 송출하는 신호 송출부(미도시)를 포함할 수 있다. 복귀 신호는 초음파 신호 또는 적외선 신호일 수 있으나, 반드시 이에 한정되어야 하는 것은 아니다.
장애물감지부(100)은 소정 형태의 패턴을 조사하여, 조사된 패턴을 영상으로 획득한다. 장애물감지부(100)는 적어도 하나의 패턴조사부(미도시)와 패턴획득부를 포함할 수 있다. 경우에 따라 영상획득부(170)는 패턴획득부로 동작할 수 있다.
또한, 장애물감지부(100)는 초음파센서, 레이저센서, 적외선센서를 포함하여, 주행방향에 위치하는 장애물의 위치, 거리 크기를 감지할 수 있다. 또한, 장애물감지부(100)는 주행방향에 대한 영상으로 장애물을 감지할 수 있다. 센서부와 영상획득부는 장애물감지부에 포함될 수 있다.
센서부(150)는 복수의 센서를 포함하여 장애물을 감지한다. 센서부(150)는 레이저, 초음파, 적외선 중 적어도 하나를 이용하여 전방, 즉 주행방향의 장애물을 감지한다.
또한, 센서부(150)는 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 낭떠러지 감지센서를 더 포함할 수 있다. 센서부(150)는 송출되는 신호가 반사되어 입사되는 경우, 장애물의 존재 여부 또는 장애물까지의 거리에 대한 정보를 장애물 감지신호로써 제어부(110)로 입력한다.
센서부(150)는 적어도 하나의 기울기센서를 포함하여 본체의 기울기를 감지한다. 기울기센서는 본체의 전, 후, 좌, 우 방향으로 기울어지는 경우, 기울어진 방향과 각도를 산출한다. 기울기센서는 틸트센서, 가속도센서 등이 사용될 수 있고, 가속도센서의 경우 자이로식, 관성식, 실리콘반도체식 중 어느 것이나 적용 가능하다.
또한, 센서부(150)는 이동 로봇(1)의 내부에 설치되는 센서를 통해 동작상태, 이상여부를 감지할 수 있다.
장애물감지부(100)는 패턴조사부, 광원, 광원으로부터 조사된 광이 투과됨으로써 소정의 패턴을 생성하는 패턴생성자(OPPE: Optical Pattern Projection Element)를 포함할 수 있다. 광원은 레이져 다이오드(Laser Diode, LD), 발광 다이오드(Light Emitting Diode, LED) 등 일 수 있다. 레이져 광은 단색성, 직진성 및 접속 특성에 있어 다른 광원에 비해 월등해, 정밀한 거리 측정이 가능하며, 특히, 적외선 또는 가시광선은 대상체의 색상과 재질 등의 요인에 따라 거리 측정의 정밀도에 있어서 편차가 크게 발생되는 문제가 있기 때문에, 광원으로는 레이져 다이오드가 바람직하다. 패턴생성자는 렌즈, DOE(Diffractive optical element)를 포함할 수 있다. 각각의 패턴 조사부에 구비된 패턴 생성자의 구성에 따라 다양한 패턴의 광이 조사될 수 있다.
패턴획득부는 본체(10) 전방의 영상 또는 천장의 영상을 획득할 수 있다. 특히, 패턴획득부(140)에 의해 획득된 영상(이하, 획득 영상이라고 함.)에는 패턴 광이 나타나며, 이하, 획득 영상에 나타난 패턴 광의 상을 광 패턴이라고 하고, 이는 실질적으로 실제 공간상에 입사된 패턴 광이 이미지 센서에 맺힌 상이다. 패턴 조사부가 구비되지 않는 경우, 패턴획득부는 본체 전방의, 패턴광이 포함되지 않은 영상을 획득한다.
패턴획득부는 피사체의 상을 전기적 신호로 변환시킨 후 다시 디지털 신호로 바꿔 메모리소자에 기억시키는 카메라를 포함할 수 있다. 카메라는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수개의 광다이오드(photodiode, 예를들어, pixel)를 포함하여 구성된 이미지센서(예를 들어, CMOS image sensor)와, 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.
이미지센서는 광학 영상(image)을 전기적 신호로 변환하는 장치로, 다수개의 광 다이오드(photo diode)가 집적된 칩으로 구성되며, 광 다이오드로는 픽셀(pixel)을 예로 들 수 있다. 렌즈를 통과한 광에 의해 칩에 맺힌 영상에 의해 각각의 픽셀들에 전하가 축적되며, 픽셀에 축적된 전하들은 전기적 신호(예를들어, 전압)로 변환된다. 이미지센서로는 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등이 잘 알려져 있다.
장애물감지부(100)은 획득 영상을 통해 패턴을 분석하여 패턴의 형태에 따라 장애물을 감지하고, 센서부(150)는 각 센서의 감지거리에 위치하는 장애물을 구비되는 센서를 통해 감지한다.
영상획득부(170)는 이동 로봇이 동작하면, 연속적으로 영상을 촬영한다. 또한, 영상획득부(170)는 소정 주기 또는 소정 거리 단위로 영상을 촬영할 수 있다. 영상획득부(170)는 장애물감지부(100)에 의해 장애물이 감지되는 경우 영상을 촬영할 수 있고, 또한, 장애물이 감지되지 않은 이동 또는 청소상태에서도 영상을 촬영할 수 있다.
영상획득부(170)는 이동 로봇의 이동 속도에 따라 촬영 주기를 설정할 수 있다. 또한, 영상획득부(170)는 센서부에 의한 감지거리와 이동 로봇의 이동속도를 고려하여 촬영 주기를 설정할 수 있다.
영상획득부(170)는 주행방향에 대한 전방의 영상을 획득하는 것은 물론, 상향의 천장형태 또한 촬영할 수 있다.
영상획득부(170)는 본체가 주행하는 중에 촬영되는 영상을 영상데이터(182)로써 데이터부(180)에 저장한다.
장애물감지부(100)은 감지되는 장애물의 위치 또는 그 움직임에 대한 정보를 제어부(110)로 입력한다. 센서부(150)는 구비되는 센서에 의해 감지되는 장애물에 대한 감지신호를 제어부로 입력할 수 있다. 영상획득부(170)는 촬영된 영상을 제어부로 입력한다.
제어부(110)는 주행영역 중 지정된 영역 내에서, 이동 로봇이 주행하도록 주행부(250)를 제어한다.
제어부(110)는 조작부(160)의 조작에 의해 입력되는 데이터를 처리하여 이동 로봇의 동작모드를 설정하고, 동작상태를 출력부(190)를 통해 출력하며, 동작상태, 에러상태 또는 장애물 감지에 따른 경고음, 효과음, 음성안내가 스피커를 통해 출력되도록 한다.
제어부(110)는 영상획득부(170)로부터 획득되는 영상, 또는 장애물감지부(100)로부터 감지되는 장애물정보를 바탕으로 주행영역에 대한 지도를 생성한다. 제어부(110)는 영역 내의 주행중 장애물 정보를 바탕으로 지도를 생성하되, 영상획득부의 영상으로부터 주행영역의 형태를 판단하여 지도를 생성할 수 있다.
제어부(110)는 영상획득부(170) 또는 장애물감지부(100)로부터 감지되는 장애물에 대하여, 장애물을 인식하고, 그에 대응하여 특정 동작을 수행하거나 또는 경로를 변경하여 이동하도록 주행부를 제어한다. 또한, 제어부는 필요에 따라 출력부를 통해 소정의 효과음 또는 경고음을 출력할 수 있고, 영상을 촬영하도록 영상획득부를 제어할 수 있다.
제어부(110)는 주행 중, 주행부(250) 및 청소부(260)를 제어하여, 이동 로봇 주변의 먼지 또는 이물질을 흡수하도록 함으로써 주행구역에 대한 청소를 수행한다. 그에 따라 청소부(260)는 브러쉬를 동작시켜 이동 로봇 주변의 먼지 또는 이물질을 흡입하기 쉬운 상태로 만들고, 흡입장치를 동작시켜 먼지 또는 이물질을 흡입한다. 주행 중에 이물질을 흡입하여 청소를 수행하도록 청소부를 제어한다.
제어부(110)는 배터리의 충전용량을 체크하여 충전대로의 복귀 시기를 결정한다. 제어부(110)는 충전용량이 일정값에 도달하면, 수행중이던 동작을 중지하고, 충전대 복귀를 위해 충전대 탐색을 시작한다. 제어부(110)는 배터리의 충전용량에 대한 알림 및 충전대 복귀에 대한 알림을 출력할 수 있다. 또한, 제어부(110)는 충전대로부터 송신되는 신호가 통신부(290)를 통해 수신되는 경우, 충전대로 복귀할 수 있다.
제어부(110)는 장애물인식부(111), 맵생성부(112), 주행제어부(113)를 포함한다.
맵생성부(112)는 초기 동작 시, 또는 영역에 대한 지도가 저장되어 있지 않은 경우, 영역을 주행하면서 장애물 정보를 바탕으로 영역에 대한 지도를 생성한다. 또한, 맵생성부(112)는 주행중 획득되는 장애물 정보를 바탕으로, 기 생성된 지도를 갱신한다.
또한, 맵생성부(112)는 주행 중 획득되는 영상을 분석하여 영역의 형태를 판단하여 지도를 생성한다. 맵생성부(112)는 영상을 분석하여 특징점을 추출하고, 추출된 특징으로부터 영역의 형태를 판단한다.
맵생성부(112)는 영상획득부를 통해 촬영되는 복수의 영상, 또는 동영상을, 이동 로봇의 위치변화 또는 시간의 흐름에 따라 정렬하고, 위치에 매칭하여 영역의 형태를 판단할 수 있다.
맵생성부(112)는 주행 중 장애물인식부(111)로부터 획득되는 정보를 바탕으로 기초맵을 생성하고, 기초맵으로부터 영역을 구분하여 청소맵을 생성한다. 기초맵은, 주행을 통해 획득되는 청소영역의 형태가 외곽선으로 표시되는 지도이고, 청소맵은 기초맵에 영역이 구분된 지도이다. 기초맵과 청소맵에는 이동 로봇의 주행 가능한 영역과 장애물정보가 포함된다.
맵생성부(112)는 기초맵 생성 후, 청소영역을 복수의 영역으로 구분하고, 복수의 영역을 연결하는 연결통로를 포함하며, 각 영역 내의 장애물에 대한 정보를 포함하여 지도를 생성한다. 맵생성부(112)는, 지도상의 영역 구분을 위해 소영역을 분리하여 대표영역을 설정하고, 분리된 소영역을 별도의 세부영역으로 설정하여 대표영역에 병합함으로써 영역이 구분된 지도를 생성한다.
맵생성부(112)는 구분된 각 영역에 대하여, 영역의 형태를 가공한다. 맵생성부(112)는 구분된 영역에 대하여 속성을 설정할 수 있다.
또한, 맵생성부(112)는 기초맵 또는 청소맵에, 영역의 형태를 포함하는 지도를 생성한다.
맵생성부(112)는 영상획득부에 의해 촬영된 획득 영상 중, 천장이 촬영된 영상을 분석하여 영역의 형태를 추출한다.
맵생성부(112)는 영상을 구성하는 소정의 픽셀들에 대해 점, 선, 면 등의 특징을 검출(feature detection)하고, 이렇게 검출된 특징을 바탕으로 장애물을 검출한다.
맵생성부(112)는 천장의 외곽선을 추출하여 그 형태를 바탕으로 영역의 형태를 판단한다. 맵생성부(112)는 천장에 대한 영상으로부터 모서리(edge)를 추출함으로써, 영역의 형태를 판단할 수 있다.
맵생성부(112)는 이동 로봇이 이동하면서 촬영하는 영상에 대하여, 촬영시간, 또는 촬영된 위치에 따라 정렬하고, 각 영상으로부터 추출되는 특징을 연결하여 영역의 형태를 판단한다. 맵생성부(112)는 획득된 영상이 동영상인 경우, 동영상의 복수의 프레임을 시간의 순서에 따라 정렬하고,
맵생성부(112)는 복수의 영상 중, 천장에 관련된 영상(또는 프레임)만을 선별하여 특징을 추출할 수 있다. 맵생성부(112)는 불필요한 영상 또는 프레임을 필터링한 후, 특징을 추출할 수 있다.
맵생성부(112)는 영상이 촬영된 시간과 촬영시점에서의 이동 로봇의 위치, 예를 들어 좌표값, 그리고 천장의 높이를 고려하여 영역의 형태를 추출할 수 있다.
맵생성부(112)는 각 영상으로부터 추출된 특징에 대하여, 중복되는 특징을 상호 비교하여 특징 간의 연결관계를 판단하여 추출된 특징을 상호 연결함으로써 영역의 형태를 판단할 수 있다.
맵생성부(112)는 영상으로부터 천장에 위치하는 형광등 또는 마커 등을 영상으로부터 추출하여 기준으로 설정할 수 있다.
또한, 맵생성부(112)는 영상으로부터 추출된 특징으로부터 영역을 구분할 수 있다. 맵생성부(112)는 특징의 연결관계를 바탕으로 문의 위치를 판단할 수 있고, 그에 따라 영역 간의 경계선을 구분하여 복수의 영역으로 구성된 지도를 생성할 수 있다.
맵생성부(112)는 추출된 특징을 연결하고 구분하여 기준라인을 형성한 후, 이를 바탕으로 영역의 형태를 최종 확인한다.
장애물인식부(111)는 영상획득부(170) 또는 장애물감지부(100)으로부터 입력되는 데이터를 통해 장애물을 판단하고, 맵생성부(112)는 주행구역에 대한 지도를 생성하고, 감지되는 장애물에 대한 정보가 지도에 포함되도록 한다.
장애물인식부(111)는 장애물감지부(100)으로부터 입력되는 데이터를 분석하여 장애물을 판단한다. 장애물인식부(111)는 장애물감지부의 감지신호, 예를 들어 초음파 또는 레이저 등의 신호에 따라 장애물의 방향 또는 장애물까지의 거리를 산출한다. 장애물인식부(111)는 초음파 또는 적외선 신호를 이용하는 경우 장애물과의 거리 또는 장애물의 위치에 따라 수신되는 초음파의 형태, 초음파가 수신되는 시간에 차이가 있으므로 이를 바탕으로 장애물을 판단한다.
장애물인식부(111)는 패턴이 포함된 획득 영상을 분석하여 패턴을 추출하고 패턴의 형태를 분석하여 장애물을 판단한다.
장애물인식부(111)는 각각의 획득영상에 대한 장애물 판단과, 복수의 획득영상을 누적한 영상그룹에 대한 장애물 판단을 동시에 수행하여 장애물을 판단할 수 있다.
장애물인식부(111)는 소정시간 간격으로 획득영상을 1차 분석하여 장애물을 판단한다. 장애물인식부(111)는 획득영상을 소정시간 간격으로 분석하여 장애물을 판단한다. 장애물인식부(111)는 획득영상으로부터 장애물의 위치(좌표), 장애물과의 거리를 판단할 수 있다.
또한, 장애물인식부(111)는 일정시간 간격으로 획득영상을 누적하여 영상그룹을 설정하고, 누적된 획득영상에 대한 영상그룹을 분석하여 영상에 포함된 패턴에 대한 변화를 판단한다.
장애물인식부(111)는 영상그룹 내의 각 획득영상에 대한 패턴 변화를 통해 장애물을 판단할 수 있다. 장애물인식부(111)는 일정 크기 이하의 낮은 장애물에 대하여 장애물 여부를 확인하고, 장애물 종류를 판단할 수 있다. 예를 들어 장애물인식부(111)는 영상그룹의 패턴변화를 통해, 일반 바닥, 전기선, 창틀, 문틀 등을 구분할 수 있다.
또한, 장애물인식부(111)는 인체를 감지할 수 있다. 장애물인식부(111)는 장애물감지부(100)또는 영상획득부(170)를 통해 입력되는 데이터를 분석하여 인체를 감지하고, 해당 인체가 특정 사용자인지 여부를 판단한다.
장애물인식부(111)는 기 등록된 사용자의 데이터, 예를 들어 사용자에 대한 이미지, 사용자의 형상에 따른 특징을 데이터로써 저장하여, 인체 감지 시 등록된 사용자인지 여부를 판단할 수 있다.
장애물인식부(111)는 영상데이터를 분석하여 장애물의 특징으로 추출하고, 장애물의 형상(형태), 크기 및 색상 바탕으로 장애물을 판단하고 그 위치를 판단한다.
장애물인식부(111)는 영상데이터로부터 영상의 배경을 제외하고, 기 저장된 장애물데이터를 바탕으로 장애물의 특징을 추출하여 장애물의 종류를 판단할 수 있다. 장애물데이터(181)는 서버로부터 수신되는 새로운 장애물데이터에 의해 갱신된다. 이동 로봇(1)은 감지되는 장애물에 대한 장애물데이터를 저장하고 그 외의 데이터에 대하여 서버로부터 장애물의 종류에 대한 데이터를 수신할 수 있다. 또한, 장애물인식부(111)는 인식된 장애물의 정보를 장애물데이터에 저장하고, 인식 가능한 영상데이터를 통신부(280)를 통해 서버(미도시)로 전송하여 장애물의 종류를 판단하도록 한다. 통신부(280)는 적어도 하나의 영상데이터를 서버로 전송한다.
주행제어부(113)는 장애물 정보에 대응하여 이동방향 또는 주행경로를 변경하여 장애물을 통과하거나 또는 장애물을 회피하여 주행하도록 주행부(250)를 제어한다.
주행제어부(113)는 주행부(250)를 제어하여 좌륜 구동모터와 우륜 구동모터의 작동을 독립적으로 제어함으로써 본체(10)가 직진 또는 회전하여 주행하도록 한다. 주행제어부(113)는 청소명령에 따라 주행부(250)와 청소부(260)를 제어하여 본체(10)가 청소영역을 주행하면서 이물질을 흡입하여 청소가 수행되도록 한다.
주행제어부(113)는 맵생성부(112)에 의해 생성된 지도를 바탕으로 설정된 영역으로 이동하거나, 설정된 영역 내에서 본체가 이동하도록 주행부(250)를 제어한다. 또한, 주행제어부(113)는 장애물감지부(100)의 감지신호에 따라 장애물에 대응하여 소정의 동작을 수행하거나 주행경로를 변경하여 주행하도록 주행부를 제어한다.
주행제어부(113)는 감지되는 장애물에 대응하여, 회피, 접근, 접근거리에 대한 설정, 그리고 정지, 감속, 가속, 역주행, 유턴, 주행방향 변경 중 적어도 하나를 수행하도록 주행부를 제어한다.
또한, 주행제어부(113)는 에러를 출력하고, 필요에 따라 소정의 경고음 또는 음성안내를 출력할 수 있다.
도 3 은 본 발명의 일 실시예에 따른 이동 로봇의 장애물 감지를 위한 구성을 설명하는데 참조되는 도이다.
이동 로봇(1)은 목적지로 이동하거나 또는 영역을 청소하는 동안 일반 바닥은 물론, 카펫 등의 다양한 바닥을 주행할 수 있다.
이동 로봇(1)은 도 3의 (a)와 같이, 일반 바닥, 즉 평평한 바닥을 주행하면, 도 3의 (b)와 같이, 장애물감지부(100)에 의해 획득영상이 입력된다.
획득영상은, 장애물감지부(100)의 패턴조사부(120, 130)로부터 조사된 패턴이 바닥면 또는 장애물에 투영되고, 패턴획득부(140)에 의해 패턴을 포함하는 영상으로 촬영된 것이다.
기준선(R)과 패턴(P1)의 위치에 따라 바닥면의 상태, 장애물의 크기 또는 형태를 판단할 수 있다. 획득영상에서 패턴(P1)이 기준선(R)에 위치하는 직선(수평선)인 경우, 일반바닥으로 판단할 수 있다.
패턴조사부는 제 1 패턴과 제 2 패턴을 각각 조사하는데, 제 1 패턴은 도시된 바와 같이 전방의 하향으로 조사되어 바닥면에 투영되고 제 2 패턴은 전방 상향으로 조사됨에 따라 상향의 장애물에 투영된다. 장애물이 없는 일반 바닥을 주행하는 경우 제 2 패턴이 투영되는 대상이 존재하지 않으므로 제 1 패턴이 투영된 획득영상을 획득할 수 있다.
도 4 는 본 발명의 일 실시예에 따른 이동 로봇의 장애물 감지예를 설명하는데 참조되는 도이다.
도 4에 도시된 바와 같이, 이동 로봇(1)은 주행중 일정 크기(높이) 이하의 장애물을 감지할 수 있다.
이동 로봇(1)은 바닥면 보다 높은 카펫, 문턱, 창틀, 전기선 등을 낮은 장애물을 감지할 수 있다.
낮은 장애물의 경우, 문턱과 카펫은 통과해야 하는 대상이나, 창틀이나 전기선의 경우 이동 로봇이 고립되는 경우가 발생하므로 회피해야 하는 장애물이다.
그러나 이동 로봇(1)은 이러한 낮은 장애물에 대하여 광패턴에 대한 획득영상으로 순간 판단하는 경우 낮은 장애물로 판단할 수는 있겠으나, 세부적으로 장애물의 종류를 판단하는 데에는 한계가 있다. 즉 이동 로봇(1)은 낮은 장애물로 판단은 하지만 카펫, 문턱, 창틀, 전기선 등을 구분하지 못하고 동일하게 판단하게 된다.
도 4의 (a)와 도 4의 (b)와 같이, 문턱(O1)과 창틀(O2)은 높이가 유사하고, 처음 감지되는 시점에서 획득영상의 광패턴(P1)이 유사하게 나타나므로 구분이 어렵다.
이동 로봇(1)은 문턱에 대하여 등반하여 통과하지만 창틀(O2)은 고립의 가능성이 있으므로 회피해야 한다. 그에 따라 이동 로봇(1)은 복수의 획득영상을 누적하여 분석함으로써, 제 1 시점에서 광패턴이 유사하게 나타나더라도 제 2 시점의 획득영상, 제 3 시점의 획득영상, 제 4 시점의 획득영상을 각각 분석하여 광패턴의 변화를 통해 장애물을 구분하여 인식할 수 있다.
또한, 이동 로봇(1)은 시간의 경과에 따른 광패턴의 변화를 특징으로 추출하여 학습하고, 학습된 데이터를 바탕으로 장애물을 인식할 수 있다.
예를 들어, 문턱(O1) 또는 창틀(O2)의 위치를 판단하고, 제 1 시점에서 장애물을 감지한 때에 회피하는 것이 아니라 일정시간 동안 전진 주행하며 획득되는 복수의 획득영상을 분석하여 장애물을 판단한다.
예를 들어 문턱(O1)의 경우, 제 2 시점, 제 3 시점에서 동일한 광패턴의 획득영상을 나타나지만, 창틀의 경우 표면이 고르지 않고 요철이 형성된 구조로, 일부는 돌출되고 일부는 홈이 형성되어 있으므로 각 시점에서 광패턴이 상이하게 나타날 수 있다. 즉 광패턴이 홈에 조사되는 경우에는 광패턴이 나타나지 않고 돌출부에 조사되는 경우에는 광패턴이 획득영상에 표시되므로 이를 구분할 수 있게 된다.
도 5 는 본 발명의 일 실시예에 따른 이동 로봇의 장애물 감지 및 판단 과정을 설명하는데 참조되는 도이다.
도 5의 (a)에 도시된 바와 같이, 이동 로봇(1)은 장애물감지부(100)의 장애물 감지거리에 따라, 장애물(O)이 감지되는 때에 획득영상을 통해 장애물을 1차 판단하고 장애물과의 거리를 판단할 수 있다.
이동 로봇(1)은 장애물까지의 직선거리(T1), 장애물을 인식하는 위한 거리 (T2)를 합산한 감지거리(D1) 동안, 장애물을 감지하고 판단한다.
이동 로봇(1)은 장애물에 접근하기까지 장애물감지부(100)를 통해 복수의 획득영상을 획득한다.
이동 로봇(1)은 도 5의 (b)와 같이, 장애물(O)과 소정거리 떨어져 있는 상태이므로 일정거리(D2) 전진하여 주행하면서 획득되는 복수의 획득영상을 분석하여 장애물을 판단한다.
제어부는 장애물감지부에서 획득영상을 획득하는 시간, 주행속도, 장애물감지부의 장애물 감지거리, 및 영상으로부터 장애물을 인식하는 속도 중 적어도 하나에 대하여 영상그룹에 포함되는 획득영상의 수를 결정할 수 있다. 또한, 제어부는 영상그룹에 따른 장애물 판단횟수를 설정할 수 있다.
예를 들어 하나의 획득영상을 획득하는데 소요되는 시간이 50ms이고, 이동 로봇의 주행속도를 30cm/s로 가정하면, 획득영상 하나를 획득하는데 50ms 가 소요되므로 4개의 획득영상을 획득하는데 약 200ms 가 소요된다. 또한, 4개의 획득영상에 200ms 가 소요됨에 따라 그동안 이동 로봇은 6cm 이동하게 되므로, 획득영상으로부터 장애물을 인식하기 위한 공간정보를 누적하는 구간, 즉 인식구간은 6cm가 된다. 그에 따라 장애물감지부(100)의 장애물 감지거리를 19cm 라고 가정하면, 인식구간은 약 6cm가 되며, 센싱거리는 25cm가 된다.
이동 로봇은 1개의 영상그룹에 4개의 획득영상을 포함하여 4개의 획득영상에 포함된 광패턴의 변화를 특징으로 추출하고, 이를 바탕으로 장애물을 인식한다.
또한, 이동 로봇(1)은 지정된 거리(D3)까지 접근한 후 장애물 판단결과에 따라 대응모션을 수행할 수 있다. 장애물로부터 지정거리(D3), 예를 들어 13cm 거리에서 회피하여 주행할 수 있다. 지정거리는 이동 로봇의 주행속도와 영상획득시간에 따라 가변 될 수 있다.
한편, 이동 로봇(1)은 장애물(O)에 도달할 때까지 전진하여 주행할 수 있다. 장애물에 도달한 후 장애물(O)을 판단하는 경우, 이동 로봇은 일정거리 후진 후에 대응모션을 수행할 수 있다.
이동 로봇은 장애물과 충돌할 때까지 전진하여 주행할 수 있다. 이동 로봇은 장애물에 접촉하거나 1cm 까지 접근하면 후진 후 회피하여 주행할 수 있다.
따라서 이동 로봇은 하나의 획득영상으로 장애물을 판단할 뿐 아니라, 장애물에 접근하기 까지 복수의 획득영상을 바탕으로 장애물을 판단할 수 있다.
이동 로봇은 장애물에 접근하기까지 최소 12개의 획득영상을 분석하여 장애물을 판단할 수 있다.
이동 로봇이 4개의 획득영상을 처리하는데 100ms가 소요된다고 가정하면, 보다 많은 획득영상을 분석하여 장애물을 판단할 수 있다.
또한, 이동 로봇(1)은 획득 영상을 중복하여 영상그룹을 설정하여 장애물을 단할 수 있다. 하나의 영상그룹 내에 포함되는 획득영상의 수는 변경될 수 있고, 중복되는 획득영상의 수 또한 변경 가능하다.
이동 로봇(1)은 제 1 시점에서 장애물을 감지한 때에 장애물을 1차 판단하고, 즉시 회피하는 것이 아니라, 일정시간 동안 전진 주행하며 획득되는 복수의 획득영상을 분석하여 장애물을 2차 판단한다.
그에 따라 이동 로봇(1)은 획득영상으로부터 장애물을 감지하고 그 위치를 판단하면서, 동시에 일정시간 간격으로 누적되는 획득영상에 대한 영상그룹을 분석하여 획득영상에 포함된 광패턴의 변화를 통해 장애물을 구분할 수 있다.
이동 로봇(1)은 장애물에 대한 1차 판단과 영상그룹을 통한 2차 판단을 조합하여 장애물을 최종적으로 판단한다.
도 6 은 본 발명의 일 실시예에 따른 이동 로봇의 장애물 판단에 따른 대응모션을 설명하는데 참조되는 도이다.
도 6에 도시된 바와 같이, 이동 로봇(1)은 감지된 장애물에 대하여 소정의 대응모션을 수행할 수 있다.
이동 로봇(1)은 장애물을 감지한 때에 장애물에 따라 즉시 대응모션을 수행할 수 있다. 이동 로봇(1)은 장애물(O)에 도달할 때까지 전진하여 주행할 수 있고, 장애물에 도달한 후 장애물을 판단하는 경우, 이동 로봇은 일정거리 후진 후에 대응모션을 수행할 수 있다. 또한, 이동 로봇(1)은 장애물에 대하여 지정된 거리까지 접근한 후 장애물 판단결과에 따라 대응모션을 수행할 수 있다.
이동 로봇(1)은 장애물이 감지된 때에, 즉 제 1 시점에, 장애물의 종류가 위험장애물이라고 판단되면 즉시 회피 또는 우회, 경고변경 등의 대응모션을 수행할 수 있다.
또한, 이동 로봇(1)은 장애물을 감지한 후, 일정거리 장애물에 접근한 후에 장애물에 대하여 판단한 후에 대응모션을 수행할 수도 있다.
예를 들어 이동 로봇(1)은 장애물이 감지된 제 1 시점에서 획득영상을 분석하여, 장애물이 일정 크기 이상으로 접근하지 않도록 설정된 장애물로 판단되면, 장애물에 대한 추가 판단 없이 도 6의 (a)와 같이, 장애물에 접근하지 않고 회피한다. 이동 로봇은 장애물에 대하여 1회 판단 후, 지정거리(D3)에서 즉시 대응모션을 수행할 수 있다.
또한, 이동 로봇은, 장애물에 접근 가능한 경우에는 일정거리 접근하여 장애물을 판단하고, 도 6의 (b)와 같이, 장애물에 인접한 우회 경로를 설정하여 주행할 수 있다.
이동 로봇은 장애물이 낮은 장애물인지 우선 판단하고, 낮은 장애물이 아닌 경우, 장애물의 종류에 따라 지정된 대응모션을 수행하고, 낮은 장애물인 경우 추가 판단하여 대응모션을 수행할 수 있다.
이동 로봇(1)은, 장애물이 낮은 장애물인 경우, 장애물이 감지된 제 1 시점에 1차 판단하고, 장애물에 일정거리 접근하면서 누적되는 획득영상의 영상그룹을 분석하여 장애물을 2차 판단한다.
이동 로봇(1)은 도 6의 (c)와 같이, 낮은 장애물이 문턱 또는 카펫인 경우 등반 및 통과의 대응모션으로 동작할 수 있다.
한편, 이동 로봇(1)은 낮은 장애물이 전선 또는 창틀인 경우 주변의 장애물에 따라 도 6의 (b)와 같이 우회하여 주행하거나, 주행경로를 변경하여 회피하여 주행할 수 있다.
이동 로봇(1)은 감지된 장애물에 대하여, 회피, 우회(경로변경), 통과, 등반 등의 동작을 수행할 수 있다.
도 7 및 도 8 은 본 발명의 일 실시예에 따른 이동 로봇의 장애물에 대한 구조광 영상이 도시된 도이다.
도 7 및 도 8에 도시된 바와 같이, 이동 로봇(1)은 장애물감지부(100)를 통해 소정시간 간격으로 광패턴에 대한 획득영상을 획득한다.
도 7과 같이, 시간이 경과함에 따라, 이동 로봇은 주행중에 광패턴이 촬영된 획득영상을 입력받는다.
이동 로봇(1)은 주기적으로 입력되는 획득영상으로부터 광패턴의 변화를 바탕으로 장애물을 판단할 수 있다. 특히 이동 로봇(1)은 일정높이 이하의 낮은 장애물에 대하여, 유사한 광패턴이 나타나는 경우 일정시간 동안 누적된 영상그룹을 통해 광패턴의 변화로부터 낮은 장애물을 구분하도록 한다.
일반바닥과 카펫, 전선의 획득영상을 시간 흐름에 따라 비교하면, 일부 광패턴의 차이를 확인할 수 있다.
제 1 시점에서 일반바닥, 카펫, 전선이 유사한 광패턴을 나타내더라도, 해당 시점 이후의 제 2 시점(81)의 획득영상을 비교하면, 광패턴에 차이를 확인할 수 있다.
일반 바닥의 경우 일정한 형태의 광패턴이 획득영상에 지속적으로 나타나지만, 카펫의 경우 광패턴이 일반바닥에 비해 좀 더 굵고 분산된 형태로 나타남을 알 수 있다. 또한, 전선의 경우에는 광패턴이 카펫보다도 분산되는 것은 물론, 시간의 경과에 따라 일부 나타났다가 사라지기도 하고 광패턴이 연속적이지 않고 끊어진 형태로 나타난다. 따라서 획득영상을 시간에 따라 나열하여 비교하면 낮은 장애물 이라고 하더라도 일반 바닥, 카펫, 전선이 구분됨을 알 수 있다.
또한, 도 8에 도시된 바와 같이, 이동 로봇은 일반바닥을 기준으로 문턱, 창틀에 대한 광패턴의 변화를 통해 장애물을 구분할 수 있다.
앞서 설명한 바와 같이, 일반바닥에서 광패턴은 일정한 형태로 시간에 관계없이 획득영상에서 균일하게 나타난다. 그러나 문턱의 경우, 광패턴의 두께가 일반바닥의 광패턴보다 두께가 상이하게 나타나다가 점차 폭이 좁아지다가 광패턴이 사라지게 된다.
이는 패턴조사부가 소정 각으로 광을 조사함에 따라 나타나는 현상이다.
한편, 창틀의 경우, 초기에 일반 바닥 또는 문턱과 유사하나, 일정시간 광패턴이 나타난 후에 광패턴이 사라지고 다시 나타나는 형태가 된다.
제 3 시점(82)에서 문턱의 경우 일반바닥보다 두께가 굵은 광패턴이 보다 선명하게 나타나는 반면, 창틀은 광패턴이 사라지거나 일부 패턴이 드러나는 형태로 나타난다.
이후, 제 4 시점(83)에서 문턱의 경우 점차 두께가 가늘어지다가 광패턴의 일부가 사라지고, 창틀의 경우에는 사라졌던 광패턴이 다시 나타나는 것을 알 수 있다.
이동 로봇(1)은 시간의 경과에 따라 복수의 획득영상을 비교하고 분석함으로써, 낮은 장애물을 종류에 따라 구분할 수 있다. 이동 로봇(1)은 이러한 광패턴의 변화를 학습하여 장애물을 구분할 수 있다.
그에 따라 이동 로봇은 구분된 장애물에 대응하여 대응모션을 수행할 수 있다. 이동 로봇(1)은 장애물별로 높이, 두께, 광패턴이 나타나는 패턴이 상이함을 이용하여 장애물을 구분할 수 있다.
도 9 는 본 발명의 일 실시예에 따른 이동 로봇의 구조광 영상을 통한 장애물 판단에 따른 흐름이 도시된 도이다.
도 9에 도시된 바와 같이, 이동 로봇(1)의 제어부(110)는 장애물감지부(100)로부터 입력되는 획득영상으로부터 장애물을 판단한다.
장애물감지부(100)는 패턴조사부를 통해 조사된 광패턴이 바닥면 또는 물체에 투영되면, 패턴획득부(140)에 의해 영상으로 촬영된다.
장애물감지부(100)는 광패턴이 포함된 획득영상을 제어부(110)로 인가한다.
제어부(110)의 장애물인식부(111)는 획득영상에 대하여 1차로 장애물을 판단한다.
장애물인식부(111)는 입력되는 획득영상 하나 하나에 대하여, 회귀 분석 컨볼루션 신경망(CNN, convolutional neural network)과 LSTM 기반으로 장애물을 판단하다. 또한, CNN의 결과물을 LSTM(Long Short Term Memory) 기반으로 분석하여 단기간 데이터와 장기간 데이터에 대한 처리를 통해 장애물을 판단한다. 장애물인식 부(111)는 각각의 획득영상에 대한 분석결과를 종합하여 장애물을 판단할 수 있다.
또한, 장애물인식부(111)는 획득영상을 소정시간 누적하고(S1), 복수의 획득영상으로 설정된 영상그룹을 분석하여(S2) 장애물을 분류한다(S3).
장애물인식부(111)는 딥러닝 기반으로 장애물감지부(100)의 3D센서 데이터, 즉 복수의 획득영상을 모아 영상그룹 단위로 한번에 처리한다. 이때 시간의 경과에 따른 변화를 판단하는 것으로 변화패턴을 산출하고 예측할 수 있다.
장애물인식부는 3D ConvNet(CNN, Convolutional neural network) 기반으로 복수의 획득영상을 한번에 처리하여, 순간적으로 시간에 따라 영상을 판단할 수 있다. 애물인식부는 CNN을 통해 영상의 특징을 추출하여 시간에 따라 판단한다.
장애물에 대한 판단은 경우에 따라 외부 서버로 데이터를 전송하여 처리하는 것 또한 가능하다.
도 10은 본 발명의 일실시예에 따른 이동 로봇의 획득영상을 바탕으로 장애물을 판단하는 방법을 설명하는데 참조되는 도이다.
장애물인식부(111)는 장애물인 창틀에 접근하는 과정에서 장애물을 감지한 순간부터 장애물에 접근하기까지, 시간에 따라 장애물감지부(100)로부터 입력되는 획득영상을 바탕으로 장애물을 판단한다.
이하 장애물이 창틀인 것을 예로하여 복수의 획득영상을 바탕으로 장애물 판단을 설명하기로 한다.
도 10의 (a)에 도시된 바와 같이, 장애물인식부(111)는 소정시간 간격으로 입력되는 획득영상을 설정시간 간격, 또는 획득영상의 수를 기준으로 영상그룹(G1, G2)을 설정할 수 있다.
장애물인식부(111)는 제 1 시점(P0)으로부터 제 1 내지 제 4 획득영상(91 내지 94)을 제 1 영상그룹(G1)으로 설정하고, 제 11 시점(P11)으로부터 제 5 내지 제 8 획득영상(95 내지 98)을 제 2 영상그룹(G2)으로 설정할 수 있다. 영상그룹에 포함되는 획득영상의 수, 영상그룹을 설정하는 주기는 설정에 따라 변경될 수 있다.
장애물인식부(111)는 제 1 영상그룹(G1)으로부터 장애물을 판단하고, 또한 제 2 영상그룹(G2)으로부터 장애물을 판단할 수 있다.
또한, 도 10의 (b)와 같이, 입력되는 획득영상을 제 1 시점(P0) 내지 제 4시점(P4) 등 각각 입력되는 획득영상을 분석하여 장애물을 판단한다. 장애물인식부(111)는 제 1 내지 제 4 획득영상(91 내지 94)을 각각 입력되는 시점에 처리하여 장애물을 인식한다.
장애물인식부(111)는 각각의 획득영상을 통한 장애물 판단과, 복수의 획득영상을 이용한 영상그룹에 대한 장애물 판단은 동시에 이루어질 수 있으며, 이를 종합하여 최종적으로 장애물을 구분하여 판단할 수 있다.
장애물인식부(111)는 제 1 시점(P0)에서 제 1 획득영상(91)이 입력되면, 그 위치와 장애물과의 거리를 판단할 수 있다.
장애물인식부(111)는 도 10의 (b)와 같이 개별 획득영상을 순차적으로 인식하여 장애물을 판단한다. 또한, 장애물인식부(111)는 일반바닥과 유사한 광패턴이 포함됨에 따라, 낮은 장애물로 1차 판단할 수 있다. 장애물인식부(111)는 학습을 통해 일반바닥과는 상이한 장애물임을 판단할 수 있다.
또한 장애물인식부(111)는 도 10의 (a)와 같이 영상그룹(G1, G2)를 통해 복수의 획득영상으로부터 광패턴의 변화를 인식하여 학습을 통해 장애물을 판단할 수 있다. 장애물인식부(111)는 학습데이터를 통해 복수의 획득영상에서의 변화를 통해 장애물이 낮은장애물 중, 위험장애물로 분류되는 창틀인 것으로 판단할 수 있다.
도 11 은 본 발명의 일실시예에 따른 이동 로봇의 획득영상의 영상그룹 설정방법을 설명하는데 참조되는 도이다.
장애물인식부(111)는 획득영상에 대한 영상그룹을 설정하는데 있어서, 획득영상을 중복하여 영상그룹을 설정할 수 있다. 영상을 중복하여 분석함으로써 영상 그룹 내에서의 획득영상 내의 광패턴, 즉 구조광의 변화를 용이하게 분석할 수 있다.
도 11의 (a)에 도시된 바와 같이, 장애물인식부(111)는 획득영상에 대한 영상그룹을 설정하는데 있어서 제 1 시점(P0)으로부터 제 1 내지 제 4 획득영상(91 내지 94)를 제 11 영상그룹(G11)으로 설정하고, 제 3 내지 제 6 획득영상(93 내지 96)을 제 12 영상그룹(G12)으로 설정할 수 있다. 또한, 제 5 획득영상(95) 내지 제 8 획득영상을 제 12 영상그룹으로 설정할 수 있다.
제 11 영상그룹과 제 12 영상그룹에서 제 3 획득영상과 제 4 획득영상이 중복하여 포함된다. 또한, 제 12 영상그룹과 제 13 영상그룹에서 제 5, 6 획득영상이 중복된다.
또한, 도 11의 (b)에 도시된 바와 같이, 제 1 내지 제 4 획득영상(91 내지 94)를 제 21 영상그룹(G21)으로 설정하고, 제 4 내지 제 7 획득영상(94 내지 97)을 제 22 영상그룹(G22)으로 설정할 수 있다.
제 21 영상그룹과 제 22 영상그룹에서 제 4 획득영상이 중복하여 포함된다.
장애물인식부는 획득영상을 중복하여 포함시킴으로써 정확도를 향상시킬 수 있다.
도 12 는 본 발명의 일 실시예에 따른 이동 로봇의 장애물에 대한 동작방법이 도시된 순서도이다.
도 12에 도시된 바와 같이, 이동 로봇(1)은 주행 중(S310), 장애물감지부(100)로부터 조사된 패턴광(구조광)이 사물에 투영된 광패턴을 촬영한 획득영상이 획득한다(S320).
장애물인식부(111)는 개별 획득영상에 대하여 영상을 분석하고(S330), 획득영상의 광패턴을 추출하여 기 저장된 데이터를 바탕으로 장애물을 인식한다(S340). 장애물인식부(111)는 광패턴의 위치를 바탕으로 장애물의 위치를 산출한다(S350). 장애물인식부(111)는 장애물과의 거리, 장애물의 위치(좌표), 장애물의 크기(높이)를 산출할 수 있다.
또한, 장애물인식부(111)는 획득영상을 소정 수 누적하고, 누적된 복수의 획득영상을 하나의 영상그룹으로 설정한다(S360). 장애물인식부(111)는 영상그룹을 분석하여 복수의 획득영상에서의 시간에 따른 변화를 인식하고, 기 저장된 데이터를 바탕으로 광패턴에 변화에 따른 장애물을 인식한다(S380).
장애물인식부(111)는 장애물이 낮은 장애물인지 여부를 판단하고(S390), 낮은 장애물인 경우, 판단횟수를 카운트하고, 판단횟수가 n회에 도달하였는지 여부를 판단한다(S410).
판단횟수가 n회에 도달하지 않은 경우, 획득영상에 대한 새로운 영상그룹을 분석하여 장애물을 인식한다(S360 내지 S380). 장애물이 낮은 장애물인 경우, n회 반복하여 영상그룹에 대한 장애물을 판단한다. 1차 판단 시 제 1영상그룹, 2차 판단 시 제 2 영상그룹에 대하여 장애물을 판단할 수 있고, 각 영상그룹에 포함되는 획득영상은 일부 중복하여 포함될 수 있다.
장애물인식부(111)는 낮은 장애물이 아닌 경우 또는 낮은 장애물에 대하여 n회 판단한 경우에 대하여, 판단결과를 바탕으로 장애물에 대하여 최종적으로 판단한다(S420).
판단결과에 따라 제어부는 장애물의 종류에 대응하여(S430), 장애물이 일정크기 이상이거나 위험장애물이거나 또는 우회할 수 없는 경우(C1), 회피하도록 대응모션을 설정한다(S450).
제어부는 판단결과에 따라 장애물을 우회하여 주행할 수 있는 경우 (C2), 우회하여 주행하도록 주행경로를 변경하여 대응모션을 설정한다(S460). 또한, 제어부는 통과 가능하거나 등반을 통해 주행이 가능하다고 판단되는 경우(C3), 진입하여 주행하도록 대응모션을 설정한다(S470). 주행제어부는 그에 대응하여 본체가 주행하도록 주행부를 제어한다.
예를 들어, 장애물이 상자 등인 경우 낮은 장애물이 아니므로 우회 또는 회피로 대응모션을 설정하고, 문턱인 경우 낮은 장애물이므로 n회 장애물 판단, 적어도 2회 장애물을 판단하여 진입하여 주행하도록 대응모션을 설정할 수 있다. 한편, 낮은 장애물 중 창틀인 경우에는 n회 장애물 판단 후, 회피하거나 우회하도록 대응모션을 설정할 수 있다.
도 13 은 본 발명의 일 실시예에 따른 이동 로봇의 장애물 판단방법이 도시된 순서도이다.
도 13에 도시된 바와 같이, 제어부는 장애물을 감지한 시점으로부터 장애물에 도달하기 까지 획득되는 복수의 획득영상을 소정 단위로 영상그룹을 설정하고, 영상그룹을 분석하여 장애물을 판단한다.
제어부(110)는 복수의 획득영상의 누적으로 제 1 영상그룹을 설정하고(S560), 제 1 영상그룹을 분석하여 장애물을 1차 인식한다(S570).
제어부는 1차 장애물 인식에 따른 판단결과에 따라 낮은 장애물인지 여부를 판단한다(S580).
제어부는 장애물이 일정 크기(높이) 이상으로 낮은 장애물이 아닌 경우 추가 장애물 인식 없이, 1차 판단결과에 따라 장애물을 최종판단하고(S640) 그에 대응하여 대응모션을 설정하여 동작을 제어한다(S650).
장애물이 낮은 장애물로 1차 판단되면, 추가 누적되는 획득영상의 제 2 영상그룹에 대하여(S590), 2차 장애물 인식을 수행한다(S600).
각 영상그룹은 획득영상이 중복하여 포함될 수 있고, 제어부는 이동 로봇이 장애물에 접촉하거나 충돌하기 전까지 획득영상을 통해 장애물을 판단할 수 있다. 단 1차 장애물 판단 시 위험장애물로 판단되면 접촉 또는 충돌하지 않고 장애물 판단을 완료하도록 한다.
2차 장애물 인식결과에 따라 장애물이 낮은 장애물로 판단되면, 판단횟수가 설정횟수(n)에 도달하였는지 여부에 따라(S620), 제어부는 장애물에 대하여 최종 판단한다(S640).
이때 제어부는 1차 판단결과와 2차 판단결과가 동일한 경우 장애물 판단을 종료할 수 있다. 또한, 제어부는 1차 판단결과와 2차 판단결과가 상이한 경우에는 장애물판단을 추가로 수행하여 제 3 영상그룹에 대하여 3차 장애물 인식을 수행할 수 있다(S630).
제어부는 학습결과를 바탕으로 장애물 판단횟수에 대한 기준인 설정횟수(n)를 지정할 수 있으며, 경우에 따라 설정횟수(n)를 증가하거나 감소시킬 수 있다.
제어부는 장애물에 대한 판단결과를 바탕으로 대응모션을 설정하고(S650), 그에 따라 주행한다.
그에 따라 이동 로봇은 주행중에 장애물이 감지되면 그 위치를 판단하고, 복수의 획득영상을 영상그룹 단위로 분석하여 획득영상의 광패턴의 변화에 따라 장애물을 구분하여 인식하여, 장애물에 따라 지정된 대응모션을 수행할 수 있다.
따라서, 이동 로봇은 인식이 어려운 낮은 장애물에 대하여 계속 주행하여 통과 또는 등반을 통해 계속 주행할지 또는 회피하거나 우회할지에 대한 대응모션을 설정하여 수행함으로써, 이동 로봇이 구속되거나 손상되는 것을 방지하고, 영역 내를 안정적으로 주행하면서 주행 가능한 모든 영역에 대한 청소를 완료할 수 있다.
상기에서와 같이 동작하는 본 실시예에 따른 이동 로봇은 독립적인 하드웨어 장치 형태로 구현될 수 있으며, 적어도 하나 이상의 프로세서(processor)로서 마이크로 프로세서나 범용 컴퓨터 시스템과 같은 다른 하드웨어 장치에 포함된 형태로 구동될 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다.
1: 이동 로봇 40: 충전대
100: 장애물감지부 110: 제어부
111: 장애물인식부 112: 맵생성부
113: 주행제어부 150: 센서부
170: 영상획득부 180: 데이터부

Claims (22)

  1. 영역을 주행하는 본체;
    주행방향으로 조사되는 광패턴에 대한 획득영상을 촬영하여 주행방향에 위치한 장애물을 감지하는 장애물감지부;
    상기 장애물감지부에 의해 촬영되는 상기 획득영상으로부터 광패턴의 위치 및 형태에 따라 장애물을 인식하고, 장애물 판단결과에 따라 장애물에 대한 대응모션을 지정하여 동작을 제어하는 제어부;를 포함하고,
    상기 제어부는 시간에 따라 입력되는 상기 획득영상으로부터 장애물을 감지하여 상기 장애물의 위치를 판단하고,
    상기 획득영상을 누적하여, 일정시간 단위로 복수의 획득영상을 포함하는 영상그룹을 설정하고, 상기 영상그룹에 대하여 상기 복수의 획득영상의 광패턴의 변화를 통해 장애물을 판단하는 것을 특징으로 하는 이동 로봇.
  2. 제 1 항에 있어서,
    상기 제어부는 시간에 따라 입력되는 상기 획득영상을 개별 영상 단위로 분석하여 장애물의 위치를 판단하면서, 일정시간 단위로 상기 영상그룹에 대하여 장애물을 판단하여, 주행방향에 위치하는 장애물에 대하여 최종 판단하는 이동 로봇.
  3. 제 1 항에 있어서,
    상기 제어부는 제 1 영상그룹을 바탕으로 장애물을 1차 판단하고, 1차 판단결과를 바탕으로, 장애물이 일정높이 미만의 낮은 장애물인지 여부에 따라 장애물을 최종 판단하거나 또는 추가로 장애물 인식을 수행하는 이동 로봇.
  4. 제 3 항에 있어서,
    상기 제어부는 상기 장애물이 낮은 장애물인 경우, 설정횟수에 따라 장애물 판단을 추가로 수행하고,
    상기 장애물이 낮은 장애물이 아닌 경우 상기 1차 판단결과를 최종판단으로 결정하여 대응모션을 설정하는 이동 로봇.
  5. 제 4 항에 있어서,
    상기 제어부는 상기 장애물이 낮은 장애물인 경우, 상기 설정횟수에 따라 제 2 영상그룹에 대하여 2차 장애물 판단을 수행하고, 제3 영상그룹에 대한 3차 장애물 판단을 수행하여, 1차 판단결과 내지 3차 판단결과를 비교하여 장애물을 최종 판단하는 이동 로봇.
  6. 제 4 항에 있어서,
    상기 제어부는 상기 장애물이 낮은 장애물인 경우, 상기 설정횟수에 따라
    제 2 영상그룹에 대하여 2차 장애물 판단을 수행하고,
    상기 1차 판단결과와 2차 장애물 판단에 대한 2차 판단결과를 비교하여, 3차 장애물 판단의 수행여부를 결정하는 이동 로봇.
  7. 제 6 항에 있어서,
    상기 제어부는 상기 1차 판단결과와 상기 2차 판단결과를 비교하여, 판단결과가 동일한 경우 상기 장애물을 최종 판단하여 대응모션을 설정하고, 판단결과가 상이한 경우, 제 3 영상그룹에 대한 장애물 판단을 추가로 수행하는 이동 로봇.
  8. 제 1 항에 있어서,
    상기 제어부는 상기 장애물감지부로부터 입력되는 상기 복수의 획득영상에 대하여, 획득영상이 중복되지 않고, 입력되는 순서에 따라 영상그룹을 설정하는 이동 로봇.
  9. 제 1 항에 있어서,
    상기 제어부는 상기 장애물감지부로부터 입력되는 상기 복수의 획득영상에 대하여, 적어도 하나의 획득영상을 중복 포함하여 상기 영상그룹을 설정하는 이동 로봇.
  10. 제 1 항에 있어서,
    상기 제어부는 적어도 4개의 획득영상으로 상기 영상그룹을 설정하는 이동 로봇.
  11. 제 9 항에 있어서,
    상기 제어부는 상기 복수의 획득영상 중, 제 1 내지 제 4 획득영상으로 제 1 영상그룹을 설정하고, 제 3 내지 제 6 획득영상으로 제 2 영상그룹을 설정하는 이동 로봇.
  12. 제 1 항에 있어서,
    상기 제어부는 상기 장애물감지부에서 획득영상을 획득하는 시간, 주행속도 및 상기 장애물감지부의 장애물 감지거리 중 적어도 하나에 대응하여, 상기 영상그룹에 포함되는 획득영상의 수를 결정하는 이동 로봇.
  13. 제 1 항에 있어서,
    상기 제어부는 상기 영상그룹에 포함되는 상기 복수의 획득영상에 대하여 시간의 경과에 따른 광패턴의 변화로부터 장애물에 대한 특징을 추출하여 학습하고, 학습된 데이터를 바탕으로 장애물을 판단하는 이동 로봇.
  14. 장애물감지부에 의해, 주행방향으로 조사되는 광패턴에 대항 영상을 촬영하여 획득영상이 입력되는 단계;
    상기 획득영상으로부터 장애물을 감지하여 장애물의 위치를 판단하는 단계;
    상기 획득영상을 누적하여 저장하고, 일정시간 마다 복수의 획득영상을 포함하는 영상그룹을 설정하는 단계;
    상기 영상그룹에 포함되는 상기 복수의 획득영상을 비교하여 시간의 경과에 따른 광패턴의 변화를 추출하여 장애물을 판단하는 단계; 및
    상기 장애물에 따라 대응모션을 설정하고, 상기 대응모션에 따라 동작하는 단계;를 포함하는 이동 로봇의 제어방법.
  15. 제 14 항에 있어서,
    상기 획득영상을 개별 영상 단위로 분석하여 상기 장애물을 감지하는 단계를 수행하면서 상기 획득영상을 누적하여 상기 영상그룹으로부터 상기 장애물을 구분하여 인식하는 단계를 동시에 수행하는 이동 로봇의 제어방법.
  16. 제 14 항에 있어서,
    누적되는 획득영상이 포함된 제 1 영상그룹을 바탕으로 장애물을 1차 판단하는 단계; 및
    1차 판단결과를 바탕으로, 장애물이 일정높이 미만의 낮은 장애물인지 여부를 판단하는 단계;를 더 포함하는 이동 로봇의 제어방법.
  17. 제 16 항에 있어서,
    상기 1차 판단결과에 따라 상기 장애물이 낮은 장애물인 경우, 설정횟수에 따라 장애물 판단을 추가로 수행하는 단계; 및
    상기 장애물이 낮은 장애물이 아닌 경우 상기 1차 판단결과를 최종판단으로 결정하는 단계;를 더 포함하는 이동 로봇의 제어방법.
  18. 제 17 항에 있어서,
    상기 장애물이 낮은 장애물인 경우, 상기 설정횟수에 따라
    제 2 영상그룹에 대하여 2차 장애물 판단을 수행하는 단계; 및
    제 3 영상그룹에 대한 3차 장애물 판단을 수행하는 단계;
    1차 판단결과 내지 3차 판단결과로부터 장애물을 최종 판단하는 단계;를 더 포함하는 이동 로봇의 제어방법.
  19. 제 17 항에 있어서,
    상기 장애물이 낮은 장애물인 경우, 상기 설정횟수에 따라 제 2 영상그룹에 대하여 2차 장애물 판단을 수행하는 단계;
    상기 1차 판단결과와 2차 장애물 판단에 대한 2차 판단결과를 비교하는 단계;
    상기 1차 판단결과와 상기 2차 판단결과를 비교하여, 판단결과가 동일한 경우 상기 장애물을 최종 판단하는 단계; 및
    판단결과가 상이한 경우, 제 3 영상그룹에 대한 장애물 판단을 추가로 수행하는 단계를 더 포함하는 이동 로봇의 제어방법.
  20. 제 14 항에 있어서,
    상기 영상그룹을 설정하는 단계는,
    입력되는 상기 복수의 획득영상에 대하여, 획득영상이 중복되지 않고, 입력되는 순서에 따라 영상그룹을 설정하는 이동 로봇의 제어방법.
  21. 제 14 항에 있어서,
    상기 영상그룹을 설정하는 단계는, 상기 장애물감지부로부터 입력되는 상기 복수의 획득영상에 대하여, 획득영상의 일부를 중복하여 상기 영상그룹을 설정하는 이동 로봇의 제어방법.
  22. 제 14 항에 있어서,
    상기 영상그룹을 설정하는 단계는,
    상기 획득영상을 획득하는 시간, 주행속도 및 상기 장애물감지부의 장애물 감지거리 중 적어도 하나에 대응하여, 상기 영상그룹에 포함되는 획득영상의 수를 결정하고,
    적어도 4개의 획득영상으로 상기 영상그룹을 설정하는 이동 로봇의 제어방법.
KR1020200025508A 2020-02-28 2020-02-28 이동 로봇 및 그 제어방법 KR102320678B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020200025508A KR102320678B1 (ko) 2020-02-28 2020-02-28 이동 로봇 및 그 제어방법
US17/802,270 US20230091839A1 (en) 2020-02-28 2021-02-26 Moving robot and control method thereof
PCT/KR2021/002458 WO2021172936A1 (en) 2020-02-28 2021-02-26 Moving robot and control method thereof
EP21760537.7A EP4110560A4 (en) 2020-02-28 2021-02-26 MOBILE ROBOT AND ITS CONTROL METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200025508A KR102320678B1 (ko) 2020-02-28 2020-02-28 이동 로봇 및 그 제어방법

Publications (2)

Publication Number Publication Date
KR20210110064A true KR20210110064A (ko) 2021-09-07
KR102320678B1 KR102320678B1 (ko) 2021-11-02

Family

ID=77490286

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200025508A KR102320678B1 (ko) 2020-02-28 2020-02-28 이동 로봇 및 그 제어방법

Country Status (4)

Country Link
US (1) US20230091839A1 (ko)
EP (1) EP4110560A4 (ko)
KR (1) KR102320678B1 (ko)
WO (1) WO2021172936A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115810203A (zh) * 2022-12-19 2023-03-17 天翼爱音乐文化科技有限公司 一种障碍物躲避识别方法、系统、电子设备及存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102314537B1 (ko) * 2019-06-18 2021-10-18 엘지전자 주식회사 이동 로봇 및 그 제어방법
US20230320551A1 (en) * 2022-04-11 2023-10-12 Vorwerk & Co. Interholding Gmb Obstacle avoidance using fused depth and intensity from nnt training
US20230354261A1 (en) * 2022-04-28 2023-11-02 Qualcomm Incorporated Barrier type detection using time-of-flight and receive signal strength indication

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834577B1 (ko) * 2006-12-07 2008-06-02 한국전자통신연구원 스테레오 비전 처리를 통해 목표물 검색 및 추종 방법, 및이를 적용한 가정용 지능형 서비스 로봇 장치
KR20130034573A (ko) 2011-09-28 2013-04-05 삼성전자주식회사 장애물 감지 장치 및 이를 구비한 로봇 청소기
KR20190103512A (ko) * 2018-02-12 2019-09-05 엘지전자 주식회사 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070019181A1 (en) * 2003-04-17 2007-01-25 Sinclair Kenneth H Object detection system
JP2005324297A (ja) * 2004-05-17 2005-11-24 Matsushita Electric Ind Co Ltd ロボット
KR20180023302A (ko) * 2016-08-25 2018-03-07 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102662949B1 (ko) * 2016-11-24 2024-05-02 엘지전자 주식회사 인공지능 이동 로봇 및 그 제어방법
KR101984516B1 (ko) * 2017-07-21 2019-05-31 엘지전자 주식회사 청소기 및 그 제어방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834577B1 (ko) * 2006-12-07 2008-06-02 한국전자통신연구원 스테레오 비전 처리를 통해 목표물 검색 및 추종 방법, 및이를 적용한 가정용 지능형 서비스 로봇 장치
KR20130034573A (ko) 2011-09-28 2013-04-05 삼성전자주식회사 장애물 감지 장치 및 이를 구비한 로봇 청소기
KR20190103512A (ko) * 2018-02-12 2019-09-05 엘지전자 주식회사 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115810203A (zh) * 2022-12-19 2023-03-17 天翼爱音乐文化科技有限公司 一种障碍物躲避识别方法、系统、电子设备及存储介质
CN115810203B (zh) * 2022-12-19 2024-05-10 天翼爱音乐文化科技有限公司 一种障碍物躲避识别方法、系统、电子设备及存储介质

Also Published As

Publication number Publication date
US20230091839A1 (en) 2023-03-23
WO2021172936A1 (en) 2021-09-02
EP4110560A1 (en) 2023-01-04
KR102320678B1 (ko) 2021-11-02
EP4110560A4 (en) 2024-05-29

Similar Documents

Publication Publication Date Title
KR102320678B1 (ko) 이동 로봇 및 그 제어방법
CN111479662B (zh) 学习障碍物的人工智能移动机器人及其控制方法
EP3459688B1 (en) Mobile robot and control method therefor
US11846950B2 (en) Mobile robot and control method thereof
US10517456B2 (en) Mobile robot and method of controlling the same
KR102070067B1 (ko) 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법
KR20180075176A (ko) 이동 로봇 및 그 제어방법
KR102147207B1 (ko) 이동 로봇 및 그 제어방법
KR102201144B1 (ko) 이동 로봇 및 그 제어방법
KR102330607B1 (ko) 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법
KR102167898B1 (ko) 이동 로봇 및 그 제어방법
US20220280007A1 (en) Mobile robot and method of controlling the same
KR102500529B1 (ko) 이동 로봇 및 그 제어방법
US20220257075A1 (en) Moving robot and method of controlling the same
KR20190119234A (ko) 이동 로봇 및 그 제어방법
KR102300790B1 (ko) 이동 로봇 및 그 제어방법
US20210026364A1 (en) Mobile robot and controlling method thereof
KR102428214B1 (ko) 이동 로봇 및 그 제어방법
KR20210080022A (ko) 이동 로봇 및 그 제어방법
KR20210015154A (ko) 이동 로봇 및 그 제어방법
KR20180133829A (ko) 이동 로봇 및 그 제어방법
KR20210004679A (ko) 이동 로봇 및 그 제어방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant