KR20200100019A - 이동 로봇 및 그 제어방법 - Google Patents

이동 로봇 및 그 제어방법 Download PDF

Info

Publication number
KR20200100019A
KR20200100019A KR1020200101049A KR20200101049A KR20200100019A KR 20200100019 A KR20200100019 A KR 20200100019A KR 1020200101049 A KR1020200101049 A KR 1020200101049A KR 20200101049 A KR20200101049 A KR 20200101049A KR 20200100019 A KR20200100019 A KR 20200100019A
Authority
KR
South Korea
Prior art keywords
area
map
unsearched
mobile robot
driving
Prior art date
Application number
KR1020200101049A
Other languages
English (en)
Other versions
KR102500529B1 (ko
Inventor
김지웅
천선희
홍민우
조한민
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180039728A external-priority patent/KR20190119234A/ko
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020200101049A priority Critical patent/KR102500529B1/ko
Publication of KR20200100019A publication Critical patent/KR20200100019A/ko
Application granted granted Critical
Publication of KR102500529B1 publication Critical patent/KR102500529B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/648Performing a task within a working area or space, e.g. cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • G05D1/222Remote-control arrangements operated by humans
    • G05D1/224Output arrangements on the remote controller, e.g. displays, haptics or speakers
    • G05D1/2244Optic
    • G05D1/2245Optic providing the operator with a purely computer-generated representation of the environment of the vehicle, e.g. virtual reality
    • G05D1/2246Optic providing the operator with a purely computer-generated representation of the environment of the vehicle, e.g. virtual reality displaying a map of the environment
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2105/00Specific applications of the controlled vehicles
    • G05D2105/10Specific applications of the controlled vehicles for cleaning, vacuuming or polishing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2107/00Specific environments of the controlled vehicles
    • G05D2107/40Indoor domestic environment
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/10Land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명의 이동 로봇 및 그 제어방법은 영역을 주행하며 감지되는 장애물 정보에 대응하여 상기 영역에 대한 지도를 생성하는 이동 로봇 및 상기 이동 로봇으로부터 수신된 상기 지도를 화면에 출력하고, 상기 지도로부터 선택영역에 대한 청소명령을 상기 이동 로봇으로 전송하는 단말을 포함하고, 상기 이동 로봇은 상기 단말에 의해 상기 지도로부터 미탐색영역이 선택되면, 상기 미탐색영역으로 이동하여 상기 미탐색영역에 대한 지도를 생성하여 기 저장된 상기 지도를 갱신함으로써, 기존의 지도에 새로운 영역에 대한 지도를 추가함으로써, 영역 구분 및 각 영역에 대한 청소데이터를 유지하면서 갱신된 지도를 사용할 수 있고, 이동 로봇의 주행패턴을 설정하여 형태가 상이한 각 영역에 대응하는 주행 패턴으로 이동 로봇을 제어할 수 있다.

Description

이동 로봇 및 그 제어방법{Moving Robot and controlling method}
본 발명은 이동 로봇 및 그 제어방법에 관한 것으로, 청소영역을 주행하는 이동 로봇 및 그 제어방법에 관한 것이다.
일반적으로 이동 로봇은 사용자의 조작 없이도 청소하고자 하는 구역 내를 스스로 주행하면서 바닥면으로부터 먼지 등의 이물질을 흡입하여 자동으로 청소하는 기기이다.
이동 로봇은 청소구역 내에 설치된 가구나 사무용품, 벽 등의 장애물까지의 거리를 감지하고, 장애물 회피 동작을 수행한다. 이동 로봇은, 장애물을 감지하기 위한 수단을 구비하여 소정 거리 내의 장애물을 감지하여 장애물을 회피할 수 있다.
이동 로봇은 영역을 주행하면서 지도를 생성하고, 생성된 지도를 바탕으로 청소를 수행한다. 소정 영역을 청소하도록 지정되는 경우, 지도를 바탕으로 해당 영역으로 이동하여 청소를 수행할 수 있다.
이동 로봇은, 지도를 바탕으로 주행하되, 지도에 없는 영역에 도달하는 경우, 미탐색영역으로 판단하여 그에 대한 지도를 생성할 수 있다.
그러나 종래의 이동 로봇은, 미탐색영역에 대한 지도를 생성하는 경우, 기 저장된 지도를 삭제하고, 미탐색영역을 포함하여 새로운 지도를 생성하게 된다. 새로운 영역은 물론 기존의 영역을 포함한 전체 영역을 주행하면서 새로운 지도를 생성한다.
이와 같이 새로운 지도를 생성하는 경우, 기존의 영역을 불필요하여 다시 탐색하게 되고, 영역을 새롭게 구분해야하는 문제점이 있다.
또한, 기존에 청소를 수행했던 영역에 대한 정보, 예를 들어 영역의 구분은 물론, 영역별 청소 횟수, 영역에 위치하는 장애물에 대한 정보가 삭제되거나, 더 이상 사용할 수 없게 된다.
또한, 대한민국 공개특허 10-2009-0019459에는 개별 영역에서 각각 지도를 생성하고, 분할된 영역 간의 공통된 특징점을 추출하여 상호 매칭함으로써 개별 영역에 대한 지도를 결합하여 전체영역에 대한 지도를 생성하는 것을 설명하고 있다. 그러나 전체영역의 지도를 생성하기 위해 각각의 영역에 대한 지도를 생성하여 결합하는 방식을 취하는 것으로 생성된 지도를 활용하거나, 기 생성된 지도에 새로운 지도를 추가하는 것에 대해서는 고려하고 있지 않다.
본 발명이 해결하고자 하는 과제는, 생성된 지도를, 이동 로봇의 주행환경에 따라 지도를 갱신하여 새로운 영역을 추가하고, 지도를 이용하여 청소를 지시하는 이동 로봇 및 그 제어방법을 제공하는 것이다.
본 발명의 이동 로봇은, 영역을 주행하는 본체, 주행중 장애물을 감지하는 감지수단, 상기 본체의 주행을 제어하고, 상기 감지수단을 통해 감지되는 장애물정보에 대응하여 상기 영역에 대한 지도를 생성하고, 상기 지도 내의 각 영역을 주행하며 청소를 수행하도록 상기 주행부를 제어하는 제어부 및 상기 지도를 단말로 전송하는 통신부를 포함하고, 상기 제어부는, 사용자 입력에 대응하여 어느 하나의 영역이 선택되면, 상기 영역이 상기 지도의 탐색영역인 경우, 상기 영역에 설정된 주행패턴에 따라 상기 영역을 주행하며 지정된 동작을 수행하고, 상기 영역이 미탐색영역인 경우, 상기 미탐색영역을 주행하며 상기 미탐색영역에 대한 지도를 생성하여 기 생성된 상기 지도에 추가하는 것을 특징으로 한다.
상기 제어부는 상기 미탐색영역 중 상기 사용자 입력에 대응하는 어느 한 지점을 목표로 상기 본체가 이동하여 상기 미탐색영역으로 진입하도록 상기 주행부를 제어하는 것을 특징으로 한다.
상기 제어부는 상기 지도의 탐색영역 중 상기 미탐색영역에 인접한 어느 한 영역으로 이동한 후, 상기 미탐색영역으로 이동하도록 하는 것을 특징으로 한다.
상기 제어부는 상기 사용자 입력에 의해 터치 후 드래그된 방향 대응하여, 상기 미탐색영역으로의 주행경로를 설정하여 상기 미탐색영역으로 이동하도록 상기 주행부를 제어하는 것을 특징으로 한다.
상기 제어부는 상기 미탐색영역에 대한 지도가 추가된 갱신된 지도를 상기 통신부를 통해 단말로 전송하고, 상기 단말로부터 상기 사용자 입력을 수신하는 것을 특징으로 한다.
또한, 본 발명은, 영역을 주행하는 본체, 주행중 장애물을 감지하는 감지수단, 상기 본체의 주행을 제어하고, 상기 감지수단을 통해 감지되는 장애물정보에 대응하여 상기 영역에 대한 지도를 생성하는 제어부, 상기 지도를 단말로 전송하는 통신부를 포함하고, 상기 제어부는 상기 단말로부터 상기 지도에 포함되지 않는 미탐색영역에 대한 주행명령이 수신되면, 상기 미탐색영역으로 이동하여 상기 미탐색영역에 대한 지도를 생성하여 상기 지도에 추가하는 것을 특징으로 한다.
상기 단말은 사용자 입력에 대응하여 상기 이동 로봇에 대한 주행패턴을 설정하고, 상기 주행패턴이 적용된 청소명령을 상기 이동 로봇으로 전송하는 것을 특징으로 한다.
본 발명의 이동 로봇의 제어방법은, 적어도 하나의 영역을 주행하며 지도를 생성하는 단계, 사용자 입력에 대응하여 어느 하나의 영역이 선택되는 단계, 상기 영역이 상기 지도의 탐색영역 중 하나인 경우, 상기 영역에 설정된 주행패턴에 따라 상기 영역을 주행하며 지정된 동작을 수행하는 단계, 상기 영역이 미탐색영역인 경우, 상기 미탐색영역을 주행하며 상기 미탐색영역에 대한 지도를 생성하는 단계, 및 기 생성된 상기 지도에 상기 미탐색영역에 대한 지도를 추가하는 단계를 포함한다.
본 발명의 이동 로봇의 제어방법은, 이동 로봇으로부터 수신된 지도가 단말에 표시되는 단계, 상기 지도 중 미탐색영역이 선택되는 단계, 상기 단말이, 상기 미탐색영역으로의 주행명령을 상기 이동 로봇으로 전송하는 단계, 상기 주행명령에 대응하여, 상기 이동 로봇이 상기 미탐색영역으로 이동하는 단계, 상기 지도의 영역을 이탈하여 상기 미탐색영역에 진입하면, 상기 미탐색영역에 대한 지도를 생성하는 단계, 및 상기 지도에 상기 미탐색영역에 대한 지도를 추가하여 상기 지도를 갱신하는 단계를 포함한다.
상기 단말이, 사용자 입력에 대응하여 상기 이동 로봇에 대한 주행패턴을 설정하는 단계 및 상기 주행패턴을 포함하여 상기 청소명령을 전송하는 것을 특징으로 한다.
본 발명은, 영역을 주행하며 감지되는 장애물 정보에 대응하여 상기 영역에 대한 지도를 생성하는 이동 로봇 및 상기 이동 로봇으로부터 수신된 상기 지도를 화면에 출력하고, 상기 지도로부터 선택된 영역에 대한 청소명령을 상기 이동 로봇으로 전송하는 단말을 포함하고, 상기 이동 로봇은 상기 단말에 의해 상기 지도 중 미탐색영역이 선택되면, 상기 미탐색영역으로 이동하여 상기 미탐색영역에 대한 지도를 생성하여 기 저장된 상기 지도를 갱신하는 것을 특징으로 한다.
상기 이동 로봇은, 주행 중, 새로운 영역에 진입하는 경우 새로운 영역으로 인식하여 새로운 영역에 대한 지도를 생성하는 것을 특징으로 한다.
상기 이동 로봇은 단말로부터 미탐색영역으로의 주행에 대한 제어명령이 수신되면, 미탐색영역으로 이동하여 미탐색영역에 대한 지도를 생성하는 것을 특징으로 한다.
상기 이동 로봇은 기 저장된 지도의 영역을 이탈하여 미탐색영역에 진입하는 시점을 기준으로 미탐색영역에 대한 지도를 점진적으로 추가하여 기 저장된 지도를 갱신하는 것을 특징으로 한다.
상기 이동 로봇은, 미탐색영역으로의 주행에 대한 제어명령이 수신되면, 미탐색영역에 인접한 영역으로 이동한 후, 감지되는 장애물 정보를 바탕으로 미탐색영역으로의 이동경로를 설정하는 것을 특징으로 한다.
상기 단말은 사용자입력에 대응하여, 지도에 지정되지 않은 미탐색영역이 선택되는 경우 선택된 지점으로 이동하여 미탐색영역을 탐색하도록 이동 로봇으로 제어명령을 전송하고, 기 저장된 지도를 바탕으로 선택된 지점의 상대적 위치를 산출하여 이동 로봇으로 전송하는 것을 특징으로 한다.
상기 단말은, 복수의 영역 중 선택된 영역을 화면에 표시하고, 상기 단말은, 패턴설정화면을 표시하고, 사용자 입력에 대응하여 입력패턴을 분석하여 이동 로봇에 대한 주행패턴을 설정하는 것을 특징으로 한다.
본 발명의 이동 로봇 및 그 제어방법은 영역을 주행하면서 생성된 지도를 바탕으로 영역을 구분하여 청소를 수행하고, 생성된 지도를 단말로 전송함으로써, 지도를 바탕으로 이동 로봇의 동작을 제어할 수 있다.
본 발명은 이동 로봇이 새로운 영역에 도달하면, 새로운 영역을 탐색하여 지도를 생성하고, 기존의 지도에 새로운 영역에 대한 지도를 추가함으로써, 영역 구분 및 각 영역에 대한 청소데이터를 유지하면서 갱신된 지도를 사용할 수 있다.
본 발명은 이동 로봇의 주행 패턴을 새로이 등록할 수 있고, 그에 따라 형태가 상이한 각 영역에 대응하는 주행 패턴으로 이동 로봇이 주행할 수 있다.
본 발명은 단말을 통해 이동 로봇의 청소 및 주행 상황을 모니터링 할 수 있고, 사용자의 입력에 따라 이동 로봇에 대한 설정을 변경할 수 있다.
도 1 은 본 발명의 일 실시예에 따른 이동 로봇의 사시도이다.
도 2 는 도 1의 이동 로봇과 통신하는 단말이 도시된 도이다.
도 3 은 본 발명의 일 실시예에 따른 이동 로봇의 주요부들을 도시한 블록도이다.
도 4 는 본 발명의 일 실시예에 따른 이동 로봇의 지도를 설명하는데 참조되는 도이다.
도 5 는 본 발명의 일 실시예에 따른 이동 로봇의 미탐색영역에 대한 탐색 동작을 설명하는데 참조되는 도이다.
도 6 은 도 5 의 이동 로봇의 미탐색영역에 대한 지도생성을 설명하는데 참조되는 도이다.
도 7 은 본 발명의 일 실시예에 따른 이동 로봇의 단말을 이용한 청소명령 설정을 설명하는데 참조되는 예시도이다.
도 8 은 본 발명의 일실시예에 따른 이동 로봇의 주행 패턴을 설명하는데 탐조되는 도이다.
도 9 는 본 발명의 일실시예에 따른 이동 로봇의 새로운 영역에 대한 지도생성방법을 설명하는데 참조되는 도이다.
도 10 은 본 발명의 일실시예에 따른 이동 로봇의 주행 패턴에 따른 제어방법이 도시된 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 본 발명의 제어구성은 적어도 하나의 프로세서로 구성될 수 있도록 하드웨어로 구성될 수 있다.
도 1 은 본 발명의 일 실시예에 따른 이동 로봇의 사시도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(1)은 영역의 바닥을 따라 이동하며, 바닥 상의 먼지 등의 이물질을 흡입하는 본체(10)와, 본체(10)의 전면에 배치되어 장애물을 감지하는 감지수단을 포함한다.
본체(10)는 외관을 형성하며 내측으로 본체(10)를 구성하는 부품들이 수납되는 공간을 형성하는 케이싱(11)과, 케이싱(11)에 배치되어 먼지나 쓰레기 등의 이물질을 흡입하는 흡입유닛(미도시)과, 케이싱(11)에 회전 가능하게 구비되는 좌륜(미도시)과 우륜(미도시)을 포함할 수 있다. 좌륜과 우륜이 회전함에 따라 본체(10)가 청소구역의 바닥을 따라 이동되며, 이 과정에서 흡입유닛을 통해 이물질이 흡입된다.
흡입유닛은 흡입력을 발생시키는 흡입 팬(미도시)과, 흡입 팬의 회전에 의해 생성된 기류가 흡입되는 흡입구(미도시)를 포함할 수 있다. 흡입유닛은 흡입구를 통해 흡입된 기류 중에서 이물질을 채집하는 필터(미도시)와, 필터에 의해 채집된 이물질들이 축적되는 이물질 채집통(미도시)을 포함할 수 있다. 흡입유닛은 본체(10)의 배면에 배치된다. 경우에 따라 흡입노즐이 본체의 전면에, 배면을 향해 설치될 수 있다.
또한, 본체(10)는 좌륜과 우륜을 구동시키는 주행부를 포함할 수 있다. 주행부는 적어도 하나의 구동모터를 포함할 수 있다. 적어도 하나의 구동모터는 좌륜을 회전시키는 좌륜 구동모터와 우륜을 회전시키는 우륜 구동모터를 포함할 수 있다.
좌륜 구동모터와 우륜 구동모터는 제어부의 주행제어부에 의해 작동이 독립적으로 제어됨으로써 본체(10)의 직진, 후진 또는 선회가 이루어질 수 있다. 예를들어, 본체(10)가 직진 주행하는 경우에는 좌륜 구동모터와 우륜 구동모터가 같은 방향으로 회전되나, 좌륜 구동모터와 우륜 구동모터가 다른 속도로 회전되거나, 서로 반대 방향으로 회전되는 경우에는 본체(10)의 주행 방향이 전환될 수 있다. 본체(10)의 안정적인 지지를 위한 적어도 하나의 보조륜이 더 구비될 수 있다.
케이싱(11)의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 복수의 브러시(35)가 더 구비될 수 있다. 복수의 브러시(35)의 회전에 의해 청소구역의 바닥으로부터 먼지들이 제거되며, 이렇게 바닥으로부터 분리된 먼지들은 흡입구를 통해 흡입되어 채집통에 모인다.
케이싱(11)의 상면에는 사용자로부터 이동 로봇(1)의 제어를 위한 각종 명령을 입력받는 조작부(160)를 포함하는 컨트롤 패널이 구비될 수 있다.
감지수단은, 도 1의 (a)와 같이 복수의 센서를 이용하여 장애물을 감지하는 센서부(150), 영상을 촬영하는 영상획득부(170)를 포함한다.
또한, 감지수단은, 도 1의 (b)와 같이, 본체(10)의 전면에 배치되어, 장애물을 감지하는 장애물 감지유닛(100), 영상을 촬영하는 영상획득부(170)를 포함할 수 있다. 장애물 감지유닛(100)은 광패턴(PT1, PT2)을 조사하고 촬영되는 영상을 통해 장애물을 감지한다. 장애물 감지유닛(100)은 패턴획득부(140)를 포함하고, 또한, 센서부(150)를 포함할 수 있다.
영상획득부(170)는 각각 전방을 향하도록 구비되어 주행방향을 촬영하고, 또한, 천장을 향하도록 구비될 수 있다. 경우에 따라 전방과 천장을 향하는 두개의 영상획득부(170)가 구비될 수도 있다. 두개의 영상획득부가 구비되는 경우, 본체의 전면과 상단부에 각각 설치되어 전방과 천장의 영상을 각각 촬영할 수 있으며, 케이싱의 형태 또는 영상획득부의 배치 위치에 따라 전면과 전면의 천장의 일부를 촬영할 수 있다.
장애물 감지유닛(100)은 본체(10)의 전면에 배치될 수 있다.
장애물 감지유닛(100)은 케이싱(11)의 전면에 고정되고, 제 1 패턴조사부(120), 제 2 패턴조사부(130) 및 패턴획득부(140)를 포함한다. 이때 패턴획득부(140)는 도시된 바와 같이 패턴조사부의 하부에 설치되거나 또는 제 1 및 제 2 패턴조사부 사이에 배치될 수 있다.
패턴조사부(120)(130)는 소정의 수평조사각을 갖는다. 수평조사각은 수평선의 양단이 패턴조사부(120)(130)와 이루는 각도를 나타내며, 130˚ 내지 140˚ 범위에서 정해지는 것이 바람직하나, 반드시 이에 한정되어야 하는 것은 아니다.
본체(10)에는 재충전이 가능한 배터리(미도시)가 구비되며, 배터리의 충전 단자가 상용 전원(예를 들어, 가정 내의 전원 콘센트)과 연결되거나, 상용 전원과 연결된 별도의 충전대(40)에 본체(10)가 도킹되어, 충전 단자가 충전대의 단자(410)와의 접촉을 통해 상용 전원과 전기적으로 연결되고, 배터리의 충전이 이루어질 수 있다. 이동 로봇(1)을 구성하는 전장 부품들은 배터리로부터 전원을 공급받을 수 있으며, 따라서, 배터리가 충전된 상태에서 이동 로봇(1)은 상용 전원과 전기적으로 분리된 상태에서 자력 주행이 가능하다.
도 2 는 도 1의 이동 로봇과 통신하는 단말이 도시된 도이다.
도 2에 도시된 바와 같이, 이동 로봇(1)은 단말(200)과 통신한다.
이동 로봇(1)은 영역을 주행하며 지도를 생성하고, 생성된 지도를 단말(200)로 전송한다. 단말(200)은 수신되는 지도를 저장하고, 화면에 표시한다.
단말(200)은 사용자의 입력에 대응하는 청소명령을 이동 로봇(1)으로 전송한다. 그에 따라 이동 로봇은 수신되는 청소명령을 바탕으로 소정 영역을 주행하면서 청소를 수행할 수 있다.
또한, 이동 로봇은, 방범모드 등의 설정을 통해, 지정된 영역을 주행하며 영상을 촬영하여 단말로 전송할 수 있다. 이동 로봇(1)은 주행중 영상을 촬영하여 단말로 전송할 수 있다.
단말(200)은 이동 로봇의 현재위치를 화면에 표시하고 이동 로봇(1)으로부터 수신되는 데이터를 화면에 표시할 수 있다.
이동 로봇(1)은 주행 중 촬영되는 영상을 분석하여 장애물의 종류를 판단한다. 이동 로봇(1)은 주행중, 주행방향에 위치하는 적어도 하나의 장애물을 감지하고, 장애물을 인식할 수 있다.
패턴조사부(120)(130)는 전방을 향해 패턴을 조사하고, 패턴획득부(140)는 패턴을 촬영한다. 이동 로봇(1)은 패턴의 형태 변화를 바탕으로 장애물을 감지한다.
또한, 영상획득부(170)는 주행방향에 대한 영상을 촬영하고, 이동 로봇(1)은 영상을 분석하여 장애물의 특징을 추출하여 장애물의 종류를 인식할 수 있다.
또한, 센서부(150)는 초음파, 레이저, 적외선 등의 신호를 바탕으로 일정거리 내에 위치하는 장애물을 감지할 수 있다.
이동 로봇(1)은 이러한 감지수단을 통해 감지되는 장애물을 바탕으로, 영역에 대한 지도(맵, map)를 생성하고, 지도를 바탕으로 주행하면서 감지수단을 통해 감지되는 장애물을 회피한다.
단말(200)은 이동 로봇(1)을 제어하기 위한 어플리케이션을 구비하고, 어플리케이션의 실행을 통해 이동 로봇(1)이 청소할 주행구역에 대한 맵을 표시하고, 맵 상에 특정 영역을 청소하도록 영역을 지정할 수 있다. 또한, 단말(200)은 이동 로봇으로부터 수신되는 데이터를 바탕으로 이동 로봇의 위치를 표시하고, 청소상태에 대한 정보를 표시한다.
단말(200)은 통신모듈이 탑재되어 네트워크 접속이 가능하고 이동 로봇을 제어하기 위한 프로그램, 또는 이동 로봇 제어용 어플리케이션이 설치된 기기로, 컴퓨터, 랩탑, 스마트폰, PDA, 태블릿PC 등의 기기가 사용될 수 있다. 또한, 단말은, 스마트 워치 등의 웨어러블(wearable) 장치 또한 사용될 수 있다.
단말(200)은 이동 로봇과, 가정 내 구축되는 네트워크를 통해 상호 연결될 수 있다. 단말과 이동 로봇은 WIFI로 연결됨은 물론, 블루투스, 적외선통신, 지그비 등의 근거리 무선통신방식을 이용하여 상호 통신할 수 있다. 단말과 이동 로봇의 통신 방식은, 이에 한정되지 않음을 명시한다.
필요에 따라 이동 로봇(1)은 서버(90)와 통신할 수 있다.
서버(미도시)는 소정 네트워크(N)를 통해 접속되는, 이동 로봇(1)으로부터 수신되는 영상데이터를 분석하여 장애물의 종류를 판단하고, 그에 대한 응답을 이동 로봇(1)으로 전송한다. 서버는 단말로부터 요청이 있는 경우 장애물의 종류를 판단하여 응답할 수 있다.
서버는 복수의 이동 로봇(1)으로부터 수신되는 영상데이터를 누적하고 복수의 영상데이터를 분석하여 장애물에 대하여 학습한다. 서버(90)는 복수의 영상데이터를 바탕으로 하는 장애물 인식을 위한 데이터베이스(미도시)를 구비하여, 영상데이터로부터 추출되는 장애물에 대한 특징을 인식하여 장애물의 종류를 판단한다.
서버는 새로운 장애물 정보를 분석하여, 기 저장된 장애물 정보를 갱신한다. 또한, 서버는 단말(200)에 의해 설정되거나 또는 변경되는 장애물에 대한 이동 로봇의 동작정보를 수신하여 저장하고, 기 저장된 장애물 정보에 매칭하여 장애물에 대한 이동 로봇의 동작에 대한 설정을 갱신한다.
도 3 은 본 발명의 일 실시예에 따른 이동 로봇의 주요부들을 도시한 블록도이다.
도 3에 도시된 바와 같이, 이동 로봇(1)은 장애물 감지유닛(100), 영상획득부(170), 청소부(260), 주행부(250), 데이터부(180), 출력부(190), 조작부(160), 통신부(290) 그리고 동작 전반을 제어하는 제어부(110)를 포함한다.
조작부(160)는 적어도 하나의 버튼, 스위치, 터치입력수단을 포함하여, 이동 로봇(1)의 작동 전반에 필요한, 온/오프 또는 각종 명령을 입력받아 제어부(110)로 입력한다.
출력부(190)는 LED, LCD와 같은 디스플레이를 구비하고, 이동 로봇(1)의 동작모드, 예약 정보, 배터리 상태, 동작상태, 에러상태 등을 표시한다. 또한, 출력부(190)는 스피커 또는 버저를 구비하여, 동작모드, 예약 정보, 배터리 상태, 동작상태, 에러상태에 대응하는 소정의 효과음, 경고음 또는 음성안내를 출력한다.
통신부(290)는 지그비, 블루투스 등의 근거리 무선통신뿐 아니라, 와이파이, 와이브로 등의 통신모듈을 포함하여 데이터를 송수신한다.
통신부(290)는, 무선통신 방식으로 단말(200)과 통신한다.
통신부(290)는 생성되는 지도를 단말(200)로 전송하고, 단말로부터 청소명령을 수신하며, 이동 로봇의 동작상태, 청소상태에 대한 데이터를 단말로 전송한다. 또한, 통신부(290)는 단말(200)로부터 주행구역 내에 존재하는 장애물에 대한 정보 및 그에 따른 동작정보를 수신하고, 이동 로봇의 동작데이터를 단말(200)로 전송한다.
통신부(290)는 가정 내 네트워크를 통해, 인터넷망에 연결되어, 외부의 서버(90)와 통신할 수 있다. 통신부(290)는 장애물 감지유닛(100)로부터 감지되는 장애물에 대한 정보를 통신부(290)를 통해 서버(90)로 전송하고, 서버로부터 장애물에 대한 데이터를 수신한다.
통신부(290)는 충전대(40)와 통신하며 충전대 복귀신호를 수신하고 또한 툴분리신호를 수신할 수 있다. 또한, 통신부(290)는, 툴로부터 송신되는 툴 위치신호를 수신할 수 있다.
주행부(250)는 적어도 하나의 구동모터를 포함하여 주행제어부(113)의 제어명령에 따라 이동 로봇이 주행하도록 한다. 주행부(250)는 앞서 설명한 바와 같이, 좌륜을 회전시키는 좌륜 구동모터와 우륜을 회전시키는 우륜 구동모터를 포함할 수 있다.
청소부(260)는 브러쉬를 동작시켜 이동 로봇 주변의 먼지 또는 이물질을 흡입하기 쉬운 상태로 만들고, 흡입유닛을 동작시켜 먼지 또는 이물질을 흡입한다. 청소부(260)는 먼지나 쓰레기 등의 이물질을 흡입하는 흡입유닛(261)에 구비되는 흡입 팬의 동작을 제어하여 먼지가 흡입구를 통해 이물질 채집통(먼지통)에 투입되도록 한다.
또한, 청소부(260)는 본체의 저면부 후방에 설치되어 바닥면과 접하여 바닥면을 물걸레질하는 물걸레청소부(미도시), 물걸레청소부로 물을 공급하는 물통(미도시)을 더 포함할 수 있다.
배터리(미도시)는 구동 모터뿐만 아니라, 이동 로봇(1)의 작동 전반에 필요한 전원을 공급한다. 배터리가 방전될 시, 이동 로봇(1)은 충전을 위해 충전대(40)로 복귀하는 주행을 할 수 있으며, 이러한 복귀 주행 중, 이동 로봇(1)은 스스로 충전대의 위치를 탐지할 수 있다. 충전대(40)는 소정의 복귀 신호를 송출하는 신호 송출부(미도시)를 포함할 수 있다. 복귀 신호는 초음파 신호 또는 적외선 신호일 수 있으나, 반드시 이에 한정되어야하는 것은 아니다.
데이터부(180)에는 장애물 감지유닛(100), 또는 센서부(150)로부터 입력되는 감지신호가 저장되고, 장애물을 판단하기 위한 기준데이터가 저장되며, 감지된 장애물에 대한 장애물정보가 저장된다.
데이터부(180)는 장애물의 종류를 판단하기 위한 장애물데이터(181), 촬영되는 영상이 저장되는 영상데이터(182), 영역에 대한 지도데이터(183)가 저장된다. 지도데이터(183)에는 장애물정보가 포함되며, 이동 로봇에 의해 탐색되는 주행가능한 영역에 대한 다양한 형태의 지도(맵)가 저장된다. 예를 들어, 이동 로봇에 의해 탐색된 주행가능한 영역에 대한 정보가 포함된 기초맵, 기초맵으로부터 영역이 구분된 청소맵, 청소맵의 영역의 형상을 정리하여 사용자가 확인할 수 있도록 생성된 사용자맵, 그리고 청소맵과 사용자맵이 중첩되어 표시되는 가이드맵이 저장될 수 있다.
장애물데이터(181)는 장애물 인식 및 장애물의 종류를 판단하기 위한 데이터이고, 인식된 장애물에 대한 이동 로봇의 동작, 예를 들어 주행속도, 주행방향, 회피 여부, 정지 여부 등에 대한 모션정보와, 스피커(173)를 통해 출력되는 효과음, 경고음, 음성안내에 대한 데이터가 포함된다. 영상데이터(182)는 촬영된 영상, 서버로부터 수신된 장애물 인식을 위한 인식정보가 포함된다.
또한, 데이터부(180)에는 이동 로봇의 동작을 제어하기 위한 제어데이터 및 이동 로봇의 청소모드에 따른 데이터, 센서부(150)에 의한 초음파/레이저 등의 감지신호가 저장된다.
데이터부(180)는, 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장하는 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치를 포함할 수 있다.
장애물 감지유닛(100)은 제 1 패턴조사부(120), 제 2 패턴조사부(130), 그리고 패턴획득부(140)를 포함한다.
영상획득부(170)는 적어도 하나 구비된다.
영상획득부(170)는 전방을 향해 설치되어 주행방향의 영상을 촬영하고, 또한, 전방의 천장을 촬영할 수 있다. 경우에 따라 전방을 촬영하는 영상획득부와 천장을 촬영하는 영상획득부가 각각 구비될 수도 있다.
또한, 감지수단은 적어도 하나의 센서로 구성된 센서부(150)를 포함할 수 있다. 경우에 따라 장애물 감지유닛(100)은 센서부로 구성될 수 있다.
장애물 감지유닛(100)은 앞서 설명한 바와 같이, 본체(10)의 전면에 설치되어, 이동 로봇의 전방에 제 1 및 제 2 패턴의 광을 조사하고, 조사된 패턴의 광을 촬영하여 패턴이 포함된 영상을 획득한다. 장애물 감지유닛(100)은 획득영상을 장애물 감지신호로써 제어부(110)로 입력한다.
장애물 감지유닛(100)의 제 1 및 제 2 패턴조사부(120, 130)는 광원과, 광원으로부터 조사된 광이 투과됨으로써 소정의 패턴을 생성하는 패턴생성자(OPPE: Optical Pattern Projection Element)를 포함할 수 있다. 광원은 레이져 다이오드(Laser Diode, LD), 발광 다이오드(Light Emitteing Diode, LED) 등 일 수 있다. 레이져 광은 단색성, 직진성 및 접속 특성에 있어 다른 광원에 비해 월등해, 정밀한 거리 측정이 가능하며, 특히, 적외선 또는 가시광선은 대상체의 색상과 재질 등의 요인에 따라 거리 측정의 정밀도에 있어서 편차가 크게 발생되는 문제가 있기 때문에, 광원으로는 레이져 다이오드가 바람직하다. 패턴생성자는 렌즈, DOE(Diffractive optical element)를 포함할 수 있다. 각각의 패턴조사부(120, 130)에 구비된 패턴 생성자의 구성에 따라 다양한 패턴의 광이 조사될 수 있다.
패턴획득부(140)는 본체(10) 전방의 영상을 획득할 수 있다. 특히, 패턴획득부(140)에 의해 획득된 영상(이하, 획득영상이라고 함.)에는 패턴 광(PT1, PT2)이 나타나며, 이하, 획득영상에 나타난 패턴 광(PT1, PT2)의 상을 광 패턴이라고 하고, 이는 실질적으로 실제 공간상에 입사된 패턴 광(PT1, PT2)이 이미지 센서에 맺힌 상이기 때문에, 패턴 광들(PT1, PT2)과 같은 도면 부호를 부여하여, 제 1 패턴 광(PT1) 및 제 2 패턴 광(PT2)과 각각 대응하는 상들을 제 1 광 패턴(PT1) 및 제 2 광 패턴(PT2)이라고 하기로 한다.
패턴조사부가 구비되지 않는 경우, 패턴획득부(140)는 본체 전방의, 패턴광이 포함되지 않은 영상을 획득한다.
패턴획득부(140)는 피사체의 상을 전기적 신호로 변환시킨 후 다시 디지털 신호로 바꿔 메모리소자에 기억시키는 카메라를 포함할 수 있다. 카메라는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수개의 광다이오드(photodiode, 예를들어, pixel)를 포함하여 구성된 이미지센서(예를 들어, CMOS image sensor)와, 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.
이미지센서는 광학 영상(image)을 전기적 신호로 변환하는 장치로, 다수개의 광 다이오드(photo diode)가 집적된 칩으로 구성되며, 광 다이오드로는 픽셀(pixel)을 예로 들 수 있다. 렌즈를 통과한 광에 의해 칩에 맺힌 영상에 의해 각각의 픽셀들에 전하가 축적되며, 픽셀에 축적된 전하들은 전기적 신호(예를들어, 전압)로 변환된다. 이미지센서로는 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등이 잘 알려져 있다.
영상처리부는 이미지센서로부터 출력된 아날로그 신호를 바탕으로 디지털 영상을 생성한다. 영상처리부는 아날로그 신호를 디지털 신호로 변환하는 AD컨버터와, AD컨버터로부터 출력된 디지털 신호에 따라 일시적으로 디지털 정보(digital data)를 기록하는 버퍼 메모리(buffer memory)와, 버퍼 메모리에 기록된 정보를 처리하여 디지털 영상을 구성하는 디지털 신호처리기(DSP:Digital Signal Processor)를 포함할 수 있다.
장애물 감지유닛(100)은 획득영상을 통해 패턴을 분석하여 패턴의 형태에 따라 장애물을 감지하고, 센서부(150)는 각 센서의 감지거리에 위치하는 장애물을 구비되는 센서를 통해 감지한다.
센서부(150)는 복수의 센서를 포함하여 장애물을 감지한다. 센서부(150)는 레이저, 초음파, 적외선 중 적어도 하나를 이용하여 본체(10)의 전방, 즉 주행방향의 장애물을 감지한다. 또한, 센서부(150)는 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 낭떠러지 감지센서를 더 포함할 수 있다. 센서부(150)는 송출되는 신호가 반사되어 입사되는 경우, 장애물의 존재 여부 또는 장애물까지의 거리에 대한 정보를 장애물 감지신호로써 제어부(110)로 입력한다.
영상획득부(170)는 이동 로봇이 동작하면, 연속적 영상을 촬영한다. 또한, 영상획득부(170)는 소정 주기로 영상을 촬영할 수 있다. 영상획득부(170)는 장애물 감지유닛(100)에 의해 장애물이 감지되지 않는, 주행 또는 청소상태에서도 영상을 촬영한다.
예를 들어 영상획득부(170)는 1회 촬영 후, 동일한 주행방향으로 이동하게 되면, 주행방향이 변경되지 않고 유지되는 동안 1회 촬영된 영상에 촬영된 장애물의 크기가 변화할 뿐 동일한 장애물이 촬영되므로, 주기적으로 영상을 촬영한다. 영상획득부(170)는 소정 시간 또는 소정 거리 단위로 영상을 촬영할 수 있다. 또한, 영상획득부(170)는 주행방향이 변경되는 경우, 새로운 영상을 촬영한다.
영상획득부(170)는 이동 로봇의 이동 속도에 따라 촬영 주기를 설정할 수 있다. 또한, 영상획득부(170)는 센서부에 의한 감지거리와 이동 로봇의 이동속도를 고려하여 촬영 주기를 설정할 수 있다.
영상획득부(170)는 본체가 주행하는 중에 촬영되는 영상을 영상데이터(182)로써 데이터부(180)에 저장한다.
한편, 장애물 감지유닛(100)은 주행 중에 주행방향에 위치하는 장애물을 감지하여 제어부로 감지신호를 입력한다. 장애물 감지유닛(100)은 감지되는 장애물의 위치 또는 그 움직임에 대한 정보를 제어부(110)로 입력한다. 패턴획득부(140)는 패턴조사부에 의해 조사된 패턴이 포함된 영상을 감지신호로써 제어부로 입력하고, 센서부(150)는 구비되는 센서에 의해 감지되는 장애물에 대한 감지신호를 제어부로 입력한다.
제어부(110)는 주행영역 중 지정된 주행구역 내에서, 이동 로봇이 주행하도록 주행부(250)를 제어한다.
제어부(110)는 조작부(160)의 조작에 의해 입력되는 데이터를 처리하여 이동 로봇의 동작모드를 설정하고, 동작상태를 출력부(190)를 통해 출력하며, 동작상태, 에러상태 또는 장애물 감지에 따른 경고음, 효과음, 음성안내가 스피커를 통해 출력되도록 한다.
제어부(110)는 주행 중, 주행부(250) 및 청소부(260)를 제어하여, 이동 로봇 주변의 먼지 또는 이물질을 흡수하도록 함으로써 주행구역에 대한 청소를 수행한다. 그에 따라 청소부(260)는 브러쉬를 동작시켜 이동 로봇 주변의 먼지 또는 이물질을 흡입하기 쉬운 상태로 만들고, 흡입장치를 동작시켜 먼지 또는 이물질을 흡입한다. 주행 중에 이물질을 흡입하여 청소를 수행하도록 청소부를 제어한다.
제어부(110)는 배터리의 충전용량을 체크하여 충전대로의 복귀 시기를 결정한다. 제어부(110)는 충전용량이 일정값에 도달하면, 수행중이던 동작을 중지하고, 충전대 복귀를 위해 충전대 탐색을 시작한다. 제어부(110)는 배터리의 충전용량에 대한 알림 및 충전대 복귀에 대한 알림을 출력할 수 있다.
제어부(110)는 영상획득부(170) 또는 장애물 감지유닛(100)로부터 감지되는 장애물에 대하여, 장애물을 인식하고, 장애물에 대응하여 복수의 대응모션중 어느 하나를 설정하여 수행되도록 할 수 있다. 또한, 제어부는 감지신호가 패턴에 포함된 영상인 경우 패턴의 형태에 따라 상이한 감지신호로써 판단할 수 있고, 감지신호, 즉 패턴의 형태에 따라 장애물을 구분할 수 있다.
제어부(110)는 통신부(290)를 통해 생성된 지도를 단말(200)로 전송하고, 단말(200)로부터 수신되는 데이터에 대응하여 지정된 영역으로 이동하여 청소를 수행한다.
한편, 제어부(110)는 단말(200)에 의해 지정된 영역이 지도에 존재하지 않는 새로운 영역인 경우, 미탐색영역으로 판단하여 새로운 지도를 작성할 수 있다.
제어부(110)는 새로운 영역에 도달하는 경우, 기 생성된 지도는 유지하되, 새로운 영역이 기존의 영역과 연결되어 있는 경우, 새로운 영역에 대한 지도를 생성하여 기 생성된 지도에 추가할 수 있다.
또한, 제어부는 본체의 이동 정도에 따라 지도를 갱신할 수 있다. 즉 새로운 영역 전체에 대한 지도를 생성하기 전, 본체의 이동에 따라 감지되는 정보를 바탕으로 점진적으로 새로운 영역에 대한 지도를 추가할 수 있다.
제어부는 미탐색영역에 대한 지도를 점진적으로 추가하여 기 저장된 지도를 갱신하며, 미탐색영역에서의 주행거리에 따라 단계적으로 상기 지도를 갱신할 수 있다.
제어부(110)는 기 저장된 지도를 기반으로 지정된 영역의 위치를 판단하고, 기 저장된 지도의 어느 한 지점으로부터 새로운 영역에 대한 탐색을 시작하도록 주행부(250)를 제어한다. 제어부(110)는 지정된 영역과 지도의 상대적 거리 및 위치를 산출하여 주행부(250)를 제어한다. 제어부(110)는 장애물 감지유닛(100), 영상획득부(170), 그리고 센서부(150)로부터 입력되는 데이터를 저장하고 분석하여 주행방향에 위치하는 장애물을 감지하고, 지정된 위치를 기준으로 주변을 확장하여 미탐색영역에 대한 지도를 생성할 수 있다.
제어부(110)는 새로운 영역이 추가된 지도를 단말(200)로 전송한다.
제어부(110)는 장애물인식부(111), 맵생성부(112), 주행제어부(113)를 포함한다.
맵생성부(112)는 초기 동작 시, 또는 청소영역에 대한 지도가 저장되어 있지 않은 경우, 청소영역을 주행하면서 장애물 정보를 바탕으로 청소영역에 대한 지도를 생성한다. 또한, 맵생성부(112)는 주행중 획득되는 장애물 정보를 바탕으로, 기 생성된 지도를 갱신한다.
맵생성부(112)는 주행 중 장애물인식부(111)를 획득되는 정보를 바탕으로 기초맵을 생성하고, 기초맵으로부터 영역을 구분하여 청소맵을 생성한다. 또한, 맵생성부(112)는 청소맵에 대하여 영역을 정리하고, 영역에 대한 속성을 설정하여 사용자맵과 가이드맵을 생성한다. 기초맵은, 주행을 통해 획득되는 청소영역의 형태가 외곽선으로 표시되는 지도이고, 청소맵은 기초맵에 영역이 구분된 지도이다. 기초맵과 청소맵에는 이동 로봇의 주행 가능한 영역과 장애물정보가 포함된다. 사용자맵은 청소맵의 영역을 단순화하고 외곽선의 형태를 정리하여 가공한 것으로 시각적 효과를 가미한 지도이다. 가이드맵은 청소맵과 사용자맵이 중첩된 지도이다. 가이드맵에는 청소맵이 표시되므로, 이동 로봇이 실제 주행할 수 있는 영역을 바탕으로 청소명령이 입력될 수 있다.
맵생성부(112)는 기초맵 생성 후, 청소영역을 복수의 영역으로 구분하고, 복수의 영역을 연결하는 연결통로를 포함하며, 각 영역 내의 장애물에 대한 정보를 포함하여 지도를 생성한다. 맵생성부(112)는, 지도상의 영역 구분을 위해 소영역을 분리하여 대표영역을 설정하고, 분리된 소영역을 별도의 세부영역으로 설정하여 대표영역에 병합함으로써 영역이 구분된 지도를 생성한다.
맵생성부(112)는 구분된 각 영역에 대하여, 영역의 형태를 가공한다. 맵생성부(112)는 구분된 영역에 대하여 속성을 설정하고, 영역별 속성에 따라 영역의 형태를 가공한다.
장애물인식부(111)는 영상획득부(170) 또는 장애물 감지유닛(100)으로부터 입력되는 데이터를 통해 장애물을 판단하고, 맵생성부(112)는 주행구역에 대한 지도를 생성하고, 감지되는 장애물에 대한 정보가 지도에 포함되도록 한다. 또한, 주행제어부(113)는 장애물 정보에 대응하여 이동방향 또는 주행경로를 변경하여 장애물을 통과하거나 또는 장애물을 회피하여 주행하도록 주행부(250)를 제어한다.
장애물인식부(111)는 장애물 감지유닛(100)으로부터 입력되는 데이터를 분석하여 장애물을 판단한다. 장애물인식부(111)는 장애물 감지유닛의 감지신호, 예를 들어 초음파 또는 레이저 등의 신호에 따라 장애물의 방향 또는 장애물까지의 거리를 산출하고, 또한, 패턴이 포함된 획득영상을 분석하여 패턴을 추출하고 패턴의 형태를 분석하여 장애물을 판단한다. 장애물인식부(111)는 초음파 또는 적외선 신호를 이용하는 경우 장애물과의 거리 또는 장애물의 위치에 따라 수신되는 초음파의 형태, 초음파가 수신되는 시간에 차이가 있으므로 이를 바탕으로 장애물을 판단한다.
또한, 장애물인식부(111)는 영상획득부(170)에 의해 장애물을 촬영한 영상데이터가 입력되면, 데이터부(180)에 저장한다. 영상획득부(170)는 전방의 장애물을 복수회 촬영하므로, 영상데이터 또한 복수개가 저장된다. 또한, 영상획득부(170)가 주행방향에 대한 영상을 연속 촬영하는 경우, 장애물인식부(111)는 입력되는 동영상을 영상데이터로써 저장하거나 또는 동영상을 프레임 단위로 구분하여 영상데이터로써 저장한다.
장애물인식부(111)는 복수의 영상데이터를 분석하여, 촬영된 대상, 즉 장애물을 인식할 수 있는지 여부를 판단한다. 이때 장애물인식부(111)는 영상데이터를 분석하여 영상데이터가 인식 가능한 것인지 아닌지 여부를 판단한다. 예를 들어, 장애물인식부(111)는 흔들린 영상, 초점이 맞지 않는 영상, 어두워서 장애물을 구분할 수 없는 영상을 분리하여 폐기한다.
장애물인식부(111)는 영상데이터를 분석하여 장애물의 특징으로 추출하고, 장애물의 형상(형태), 크기 및 색상 바탕으로 장애물을 판단하고 그 위치를 판단한다. 장애물인식부(111)는 기 촬영된 복수의 영상으로부터 장애물을 분석하고, 장애물이 지정거리에 위치하는 것으로 판단되는 시점을 기준으로 기 설정된 시간 이전에 촬영된 영상을 분석하여 장애물을 판단한다.
장애물인식부(111)는 영상데이터로부터 영상의 배경을 제외하고, 기 저장된 장애물데이터를 바탕으로 장애물의 특징을 추출하여 장애물의 종류를 판단할 수 있다. 장애물데이터(181)는 서버로부터 수신되는 새로운 장애물데이터에 의해 갱신된다. 이동 로봇(1)은 감지되는 장애물에 대한 장애물데이터를 저장하고 그 외 데이터에 대하여 서버로부터 장애물의 종류에 대한 데이터를 수신할 수 있다.
장애물인식부(111)는 영상을 구성하는 소정의 픽셀들에 대해 점, 선, 면 등의 특징을 검출 (feature detection)하고, 이렇게 검출된 특징을 바탕으로 장애물을 검출한다.
장애물인식부(111)는 장애물의 외곽선을 추출하여 그 형태를 바탕으로 장애물을 인식하여 그 종류를 판단한다. 장애물인식부(111)는 형태를 바탕으로, 장애물의 색상, 크기에 따라 장애물의 종류를 판단할 수 있다. 또한, 장애물인식부(111)는 장애물의 형태와 움직임을 바탕으로 장애물의 종류를 판단할 수 있다.
장애물인식부(111)는 장애물 정보를 바탕으로, 사람, 동물, 사물을 구분한다. 장애물인식부(111)는 장애물의 종류를, 일반장애물, 위험장애물, 생체장애물, 바닥장애물로 분류하고, 각 분류에 대하여 세부적인 장애물의 종류를 판단할 수 있다.
또한, 장애물인식부(111)는 인식 가능한 영상데이터를 통신부(290)를 통해 서버(90)로 전송하여 장애물의 종류를 판단하도록 한다. 통신부(290)는 적어도 하나의 영상데이터를 서버(90)로 전송한다.
서버(90)는 이동 로봇(1)으로부터 영상데이터가 수신되면, 영상데이터를 분석하여 촬영된 대상에 대한 외곽선 또는 형상을 추출하고, 기 저장된 장애물에 대한 데이터와 비교하여, 장애물의 종류를 판단한다. 서버(90)는 유사한 형태 또는 유사한 색상의 장애물을 우선 검색하고, 해당 영상데이터로부터 특징을 추출하여 비교함으로써, 장애물의 종류를 판단한다.
서버(90)는 장애물의 종류를 판단한 후, 장애물에 대한 데이터를 이동 로봇(1)으로 전송한다.
장애물인식부(111)는 통신부를 통해 서버로부터 수신되는 장애물에 대한 데이터를 장애물데이터로써 데이터부(180)에 저장한다. 장애물인식부(111)는 서버에 의해 장애물의 종류가 판단되면, 그에 대응하는 동작을 수행하도록 한다. 주행제어부(113)는 장애물의 종류에 대응하여 장애물을 회피하거나, 접근하거나 또는 통과하도록 주행부를 제어하고, 경우에 따라 소정의 효과음 또는 경고음, 음성안내가 스피커를 통해 출력되도록 한다.
장애물인식부(111)는 앞서 설명한 바와 같이, 영상데이터를 인식 가능한지 여부를 판단하고, 저장된 장애물데이터에 따라 영상데이터를 서버로 전송함으로써, 서버의 응답에 따라 장애물의 종류를 인식한다.
또한, 장애물 인식부는 복수의 장애물 중 선택된 장애물에 대하여, 장애물 인식을 위한 장애물데이터를 저장함으로써, 서버로 영상데이터를 전송하지 않더라도 장애물인식데이터를 바탕으로, 장애물을 인식할 수 있다.
주행제어부(113)는 주행부(250)를 제어하여 좌륜 구동모터와 우륜 구동모터의 작동을 독립적으로 제어함으로써 본체(10)가 직진 또는 회전하여 주행하도록 한다. 주행제어부(113)는 청소명령에 따라 주행부(250)와 청소부(260)를 제어하여 본체(10)가 청소영역을 주행하면서 이물질을 흡입하여 청소가 수행되도록 한다.
주행제어부(113)는 영상데이터로부터 주행제어부(113)는 장애물의 종류가 인식되면, 장애물의 종류에 대응하여 주행부(250)를 제어하여, 본체(10)가 소정의 동작을 수행하도록 한다.
주행제어부(113)는 장애물 감지유닛(100)의 감지신호에 따라 장애물이 소정 거리 내에 위치하는 것으로 판단되면, 감지신호의 종류 또는 형태에 따라 실행 가능한 대응모션에 대하여, 영상데이터를 바탕으로 판단되는 장애물의 종류, 형태 크기에 따라 복수의 대응모션 중 어느 하나를 설정하여 동작을 수행한다.
주행제어부(113)는 장애물 감지유닛(100)을 통해 장애물이 지정된 거리 내에 위치하는 경우, 감지신호에 따라 회피, 접근, 접근거리에 대한 설정, 그리고 정지, 감속, 가속, 역주행, 유턴, 주행방향 변경과 같은 복수의 대응모션을 설정하고, 기 촬영된 영상데이터로부터 판단되는 장애물에 따라 어느 하나의 대응모션을 설정하여 주행부를 제어한다.
주행제어부(113)는 에러를 출력하고, 필요에 따라 소정의 경고음 또는 음성안내를 출력할 수 있다.
주행제어부(113)는 주행 중, 새로운 영역에 도달하는 경우, 지도 생성을 위해 해당 영역을 주행하도록 주행부(250)를 제어한다.
주행제어부(113)는 기 저장된 지도로 부터 새로운 영역의 위치를 산출하여, 기 저장된 지도의 끝지점부터 주행을 시작하도록 주행부(250)를 제어할 수 있다. 또한, 주행제어부(113)는 현재 위치로부터 근접한 벽면(또는 장애물)으로 이동한 후, 벽을 따라 이동하며 새로운 영역을 주행하도록 주행부를 제어할 수 있다.
본체(10)가 주행하는 동안, 장애물인식부(111)는 감지수단, 즉 장애물 감지유닛(100), 영상획득부(170) 및 센서부(150)로부터 입력되는 데이터를 분석하여 주행방향의 장애물을 감지하여 장애물을 인식한다.
맵생성부(112)는 주행 중 이동 로봇의 위치, 주행경로 및 이동거리, 장애물의 위치와 크기 등의 장애물에 대한 정보를 바탕으로 새로운 영역에 대한 지도를 생성한다.
맵생성부(112)는 본체(10)가 기 저장된 지도의 끝지점부터 주행을 시작하여 새로운 영역을 주행한 경우, 지도의 끝지점으로부터 연결하여 새로운 영역에 대한 지도를 추가로 생성할 수 있다.
한편, 단말은, 데이터를 표시하는 표시부(미도시), 적어도 하나의 키, 터치입력수단을 포함하는 입력부(미도시), 입력부를 통해 입력되는 사용자 입력에 대응하여 어플리케이션을 실행하고, 메뉴화면을 구성하여 표시부를 통해 출력하는 단말제어부(미도시)를 포함한다. 단말은 이동 로봇과 통신하여 데이터를 송수신하는 통신부를 포함한다. 통신부는 복수의 통신모듈을 포함하여 이동 로봇은 물론 소정의 네트워크에 접속하여 서버와 데이터를 송수신한다.
단말은 복수의 센서를 포함하여 사용자의 제스처를 인식하고, 진동 또는 단말의 움직임을 감지하며, 음성을 인식하여 그에 대응하는 동작을 실행할 수 있다. 단말은 효과음, 음성안내를 출력하는 스피커를 포함한다.
도 4 는 본 발명의 일 실시예에 따른 이동 로봇의 지도를 설명하는데 참조되는 도이다.
도 4의 (a)에 도시된 바와 같이, 실내 공간이 제 1 내지 제 3 영역(A1 내지 A3)으로 구분된다.
이동 로봇(1)은 주행 시, 영역에 대한 지도를 생성한다. 주행부(250)에 의해 본체(10)가 각 영역을 주행하면서 감지수단에 의해 감지되는 데이터를 바탕으로 장애물을 인식하고 그에 따라 지도를 생성할 수 있다.
지도 생성 시, 제 1 내지 제 3 영역(A1 내지 A3) 중, 제 3 영역의 문이 닫혀 있거나, 제 3 영역(A3)으로 이동 로봇(1)이 진입할 수 없는 경우 제 1, 2 영역에 대한 지도를 생성하게 된다.
제 1, 2 영역(A1, A2)에 대한 지도를 생성한 이동 로봇(1)은 지도를 단말(200)로 전송하고, 단말(200)은 이동 로봇(1)으로부터 수신된 지도를 도 4의 (b)에 도시된 바와 같이, 화면에 표시할 수 있다.
이동 로봇(1)은 제 1 영역 및 제 2 영역만을 인식하여 단말(200)의 청소명령에 따라 지정된 위치로 이동하여 청소를 수행한다. 이동 로봇(1)은 기초맵 또는 청소맵을 바탕으로 주행하며, 지정된 동작을 수행한다.
단말(200)은 이동 로봇(1)으로부터 수신되는 지도(맵)를 화면에 표시한다. 단말(200)의 사용자의 편의에 따라 사용자맵과 가이드맵을 선택적으로 표시할 수 있다. 또한, 단말은 필요에 따라 기초맵, 청소맵, 사용자맵, 가이드맵 중 어느 하나를 표시할 수 있다.
도 5 는 본 발명의 일 실시예에 따른 이동 로봇의 미탐색영역에 대한 탐색 동작을 설명하는데 참조되는 도이다.
도 5의 (a)에 도시된 바와 같이, 단말(200)은 지도(281)를 화면(280)에 표시한다.
앞서 설명한 바와 같이, 지도에는 제 1 영역(A1)과 제 2 영역(A2)이 표시된다. 단말(200)은 사용자의 입력에 대응하여, 제 1 영역 또는 제 2 영역에 대한 명령을 이동 로봇(1)으로 전송할 수 있다. 예를 들어 청소명령, 방범모드설정 등에 대한 명령이다.
단말(200)은 터치, 키입력, 멀티터치, 롱키입력, 터치 후 드래그와 같은 사용자의 조작을 사용자 입력으로 인식하고 그에 대하여 어플리케이션을 실행하고, 특정 메뉴화면을 표시하며, 데이터를 저장하고 전송할 수 있다.
단말(200)은 이동 로봇(1)으로부터 이동 로봇(1)의 현재위치에 대한 데이터를 수신하여 화면(280)에 표시된 지도에, 그 위치를 표시한다. 화면에 표시되는 이동 로봇(1) 또한 동일한 도면부호를 기재함을 명시한다. 이동 로봇(1)은 이동 로봇에 대응하는 이미지 또는 아이콘으로 표시될 수 있다.
한편, 사용자에 의해 지도(281) 상의 탐색영역이 아닌 그 외의 영역인 미탐색영역(An), 즉 제 1 영역(A1)과 제 2 영역(A2)을 벗어난 영역에서 어느 한 지점, 제 1 지점(P1)이 선택될 수 있다.
터치 또는 롱키입력으로 제 1 지점이 선택될 수 있다.
단말(200)은, 지도(281)에서 탐색영역이 아닌 미탐색영역(An)의 어느 한 지점, 즉 제 1 지점(P1)이 선택되면, 도 5의 (b)에 도시된 바와 같이, 사용자 입력에 대응하여 제 1 지점(P1)으로 이동하도록 이동 로봇(1)으로 제어명령을 전송한다.
단말(200)은 기 저장된 지도를 바탕으로, 선택된 제 1 지점(P1)에 대한 상대적 위치를 산출하여 이동 로봇(1)으로 전송할 수 있다.
이동 로봇(1)은 단말(200)로부터 수신되는 제어명령에 대응하여, 제 1 지점(P1)에 대응하는 위치로 이동한다.
이동 로봇(1)은 기 저장된 지도를 바탕으로, 선택된 제 1 지점(P1)이, 제 1 영역 및 제 2 영역이 아닌, 미탐색영역인 것을 판단한다. 이동 로봇(1)은 지도로부터 선택된 제 1 지점에 인접한 위치로 이동하며 감지되는 장애물 정보를 바탕으로 제 1 지점으로 이동한다.
이동 로봇(1)은 제 1 지점(P1)과 인접한 제 1 영역(A1)으로 이동한 후, 제 1 영역(A1)으로부터 장애물을 감지하며 제 1 지점(P1)에 대응하는 위치로 이동한다.
예를 들어, 이동 로봇(1)은 단말(200)로부터 수신되는 제 1 지점에 대한 데이터, 즉 현재 지도를 바탕으로 하는 상대적 위치를 산출하여, 제 1 영역(A1)에서 제 1 지점(P1)으로 직선 주행을 시도할 수 있다.
제 1 영역(A1)로부터 제 1 지점(P1)으로 이동하는 경우, 이동 로봇(1)은 주행 중, 장애물, 예를 들어 벽을 감지할 수 있다. 이동 로봇(1)은 주행 중 감지되는 장애물에 대응하여 재탐색을 통해 다시 경로를 설정하여 제 1 지점을 향해 주행한다.
이동 로봇(1)은 주행 중, 제 1 지점(P1)과 제 1 영역(A1)이 연결되는 연결지점(P11)을 탐색하고, 이를 통해 제 1 지점(P1)으로 이동할 수 있다.
이동 로봇은 기 저장된 지도의 영역을 벗어나 선택 지점인 제 1 지점으로 이동하는 경우, 기 저장된 지도의 마지막 지점을 연결지점으로 설정한다. 또한, 이동 로봇은 새로운 영역에 진입한 진입경로를 바탕으로 기 저장된 지도와의 연결지점을 설정할 수 있다.
제 1 지점으로 이동하지 못하는 경우 이동 로봇은 에러를 출력할 수 있다. 단말은 제 1 지점으로의 접근 불가를 알리는 안내메시지를 출력할 수 있다.
한편, 도 5의 (c)에 도시된 바와 같이, 단말(200)은 지도상의 미탐색영역(An)이 선택되었음을 알리는 안내 또는 경고를 화면에 출력할 수 있다.
예를 들어, '미 탐색영역이 선택되었습니다. 다시 한번 확인해 주십시오.'와 같은 안내메시지(283)를 화면에 팝업창으로 표시할 수 있다.
안내메시지에 대하여 사용자가 진행키(284)를 선택하는 경우 선택된 지점(제 1 지점)에 대하여 앞서 설명한 바와 같이 이동 로봇(1)으로 제어명령을 전송한다. 경우에 따라 안내메시지를 통해 다시 선택지점이 맞는지 여부를 확인할 수 있다.
취소키(285)가 선택되면 단말(200)은 지점 선택을 취소하면 다시 지도화면으로 복귀한다.
또한, 사용자 입력에 대응하여, 이동 로봇은 미탐색영역으로 이동하여 미탐색영역에 대한 지도를 생성할 수 있다.
사용자 입력에 따라, 지도(281) 상의 어느 하나의 지점이 터치된 후, 미탐색영역으로 드래그되는 경우, 단말(200)은 미탐색영역에 대한 탐색명령을 이동 로봇(1)으로 전송할 수 있다.
단말(200)은 터치된 지점과 드래그된 방향, 드래그된 지점(마지막 지점)에 대한 정보를 포함하여 탐색명령을 이동 로봇으로 전송할 수 있다.
이동 로봇(1)은 터치된 지점에 대응하는 지도상의 어느 한 지점으로 이동한 후, 드래그된 방향에 따라 실제 영역을 주행하면서, 미탐색영역으로 진입할 수 있다.
이동 로봇(1)은 드래그된 지점에 대응하는 위치로 이동하고, 지도의 영역(탐색영역)을 벗어나 미탐색영역에 진입하면, 미탐색영역에 대한 지도를 생성할 수 있다.
도 6 은 도 5의 이동 로봇의 미탐색영역에 대한 지도생성을 설명하는데 참조되는 도이다.
또한, 도 6의 (a)에 도시된 바와 같이, 이동 로봇(1)이 제 1 지점(P1)으로 이동하는 중, 단말(200)은 이동 로봇(1)으로부터 위치정보를 수신하여 화면의 지도상에 이동 로봇의 위치를 표시할 수 있다.
이동 로봇(1)이 연결지점(P11)을 통해 제 1 영역(A1)을 벗어나고, 미탐색영역을 주행하는 경우, 단말(200)은 이동 로봇의 현재 위치를 바탕으로 지도(281)에 확장영역(282)을 표시할 수 있다.
이동 로봇(1)은 제 1 지점(P1)에 도달하면, 새로운 영역으로 인식하여 새로운 영역에 대한 탐색을 수행하고 그에 따라 감지되는 데이터를 바탕으로 지도를 생성한다.
이동 로봇(1)은 제 3 영역(A3)을 주행하면서, 예를 들어 월팔로윙을 수행하며 제 3 영역(A3)에 대한 지도를 생성한다.
이때, 주행제어부(113)는 주행부(250)를 제어하여, 새로운 영역에 대한 지도를 생성하기 위해 제 3 영역을 주행하도록 주행부를 제어한다. 주행제어부는 제 3 영역으로 진입한 경로를 바탕으로 제 1 영역과의 연결지점에 대한 데이터를 저장하고, 연결지점을 시작점으로 하여 이동하도록 주행부를 제어할 수 있다.
또한, 주행제어부(113)는 현재 위치를 기준으로, 감지수단을 통해 감지되는 데이터를 바탕으로 현재 위치로부터 근접한 벽면을 탐색한 후, 이동하여 벽면을 따라 이동하도록 주행부를 제어할 수 있다.
주행 중, 감지수단은 장애물을 감지하고, 장애물인식부(111)는 장애물의 종류를 인식하여 장애물의 위치와 함께 저장하고, 맵생성부(112)는 이동경로, 위치정보, 장애물의 종류, 크기 및 위치에 대한 데이터를 바탕으로 제 3 영역에 대해 지도를 생성한다. 또한, 맵생성부는 연결지점을 바탕으로 기 저장된 지도와 제 3 영역에 대한 지도를 연결하고, 연결지점을 기준으로 제 3 영역을 구분할 수 있다.
도 6의 (b)에 도시된 바와 같이 이동 로봇(1)은 제 3 영역에 대한 지도가 생성되면, 연결지점(P11)을 기준으로 기 생성된 지도에 새로운 제 3 영역의 지도를 추가하여, 저장된 지도를 갱신한다. 제 1 영역 및 제 2 영역에 대한 지도와 장애물에 대한 데이터는 그대로 유지하고 제 3 영역에 대한 지도만을 추가할 수 있다.
이동 로봇(1)은 갱신된 지도를 단말(200)로 전송한다.
단말(200)은 갱신된 지도를 수신하여 신규 추가된 제 3 영역(A3)이 포함된, 지도를 화면(280)에 표시한다.
한편, 이동 로봇(1)은 제 1 영역(A1)을 주행하는 중, 제 3 영역(A3)에 진입할 수 있다. 이동 로봇(1)은 제 3 영역이 지도에 없는 미탐색영역으로, 새로운 영역인 것으로 판단할 수 있다.
그에 따라 이동 로봇(1)은 제 3 영역을 주행하며 제 3 영역에 대한 지도를 생성할 수 있다. 이동 로봇(1)은 앞서 설명한 바와 같이 제 3 영역에 대한 지도를 생성하여, 제 3 영역과 제 1 영역의 연결지점을 기준으로 기 생성된 지도에 제 3 영역에 대한 지도를 추가하여 지도를 갱신하고 단말로 전송한다.
단말은 수신되는 갱신된 지도를 화면에 표시한다.
도 7 은 본 발명의 일 실시예에 따른 이동 로봇의 단말을 이용한 청소명령 설정을 설명하는데 참조되는 예시도이다.
도 7의 (a)에 도시된 바와 같이, 단말(200)은 제 3 영역(A3)이 추가된 갱신된 지도를 화면(280)에 표시한다.
단말(200)은 지도상의 제 1 내지 제 3 영역(A1 내지 A3) 중 적어도 하나의 영역이 선택되면, 선택되는 영역을 다른 영역과 상이하게 표시한다. 예를 들어, 단말(200)은 선택된 영역의 색상을 변경하여 표시할 수 있고, 도시된 바와 같이 'V'로 선택된 영역임을 표시할 수 있다.
또한, 단말(200)은 선택된 순서에 따라 번호를 표시할 수 있다. 단말(200)은 각 영역에 대하여 선택된 순서에 따라 청소가 진행되도록 할 수 있다.
필요에 따라, 단말(200)은 선택된 순서에 관계없이, 별도의 청소순서를 지정할 수 있다. 지도에는 메뉴설정을 통해 청소순서가 지정되는 경우, 청소순서에 따라 번호가 표시된다.
단말(200)은 선택된 영역과, 청소순서를 포함하는 청소명령을 이동 로봇(1)으로 전송한다.
도 7의 (b)에 도시된 바와 같이, 이동 로봇(1)은 단말(200)로부터 청소명령을 수신한다.
제 1 영역(A1)의 제 2 지점(P2)에 위치한 충전대에 도킹 된 이동 로봇(1)은, 수신된 청소명령에 따라 영역을 주행하면서 청소를 수행한다.
이동 로봇(1)은, 영역을 주행하는 중에 청소명령을 수신하는 경우, 청소명령에 따라 청소를 수행한다. 필요에 따라 기 설정된 동작을 수행하는 중 청소명령이 수신되는 경우 이동 로봇(1)은 기 설정된 동작을 완료한 후 청소명령을 실행할 수 있다. 또한, 이동 로봇은 기 설정된 동작과 청소명령 중 중요도를 판단하여 기 설정된 동작을 중지하고 청소명령을 우선 수행한 후, 청소명령에 따른 동작을 완료한 후 다시 기 설정된 동작을 수행할 수 있다.
이동 로봇(1)은 청소명령에 포함된, 청소 영역과 청소순서에 따라 각 영역을 이동하면서 청소를 수행한다.
제 1 내지 제 3 영역이 청소 영역으로 지정되고, 또한 제 3 영역(A3), 제 2 영역(A2) 그리고 제 1 영역(A1)의 순서대로 청소순서가 지정된 경우, 이동 로봇(1)은 지정된 순서에 따라 각 영역을 이동하면서 청소를 수행한다.
이동 로봇(1)은 제 3 영역으로 이동하여(S1), 제 3 영역을 청소한 후, 제 2 영역으로 이동(S2)할 수 있다. 제 2 영역에 대한 청소가 완료되면 제 1 영역으로 이동하여(S3), 제 1 영역을 청소한다. 도면에는 이동 로봇의 이동 경로가 곡선으로 표시되었으나, 이동 로봇의 실제 주행경로와는 상이함을 명시한다. 이동 로봇은 영역 간에 이동 시 최단 경로를 설정하여 이동할 수 있고 주행방향에 위치하는 장애물에 따라 장애물을 회피하거나 통과하여 주행할 수 있다.
한편, 청소순서가 지정되어 있지 않은 경우 이동 로봇(1)은 현재 위치를 기준으로 근접한 영역을 우선하여 청소한 후, 다음 영역으로 이동할 수 있다.
단말(200)은 이동 로봇(1)으로부터 수신되는 데이터를 바탕으로, 이동 로봇의 현재 위치를 화면의 지도상에 표시할 수 있다.
단말(200)은 이동 로봇(1)으로부터 수신되는 데이터를 바탕으로, 각 영역에 대한 청소진행상태를 표시할 수 있다. 단말은 청소가 완료된 영역에 대하여 청소완료로 표시하고, 청소가 진행중인 영역에 대하여 진행율을 표시할 수 있다. 청소완료 및 진행율은 이미지, 그래프, 숫자, 문자 중 적어도 하나의 조합으로 표시될 수 있다. 또한, 단말은 청소완료영역과 진행중인 영역, 아직 청소하지 않은 영역을 각각 상이한 색상으로 표시할 수도 있다.
또한, 단말(200)은 화면에 표시된 지도로부터 영역이 선택되면, 사용자 입력에 대응하여 선택된 영역을 수정할 수 있다. 예를 들어 제 2 영역이 선택된 후, 어느 하나의 변이 터치 후 드래그되는 경우, 드래그되는 방향에 대응하여 영역을 확장하거나 또는 축소할 수 있다.
도 8 은 본 발명의 일실시예에 따른 이동 로봇의 주행 패턴을 설명하는데 탐조되는 도이다.
도 8의 (a)에 도시된 바와 같이, 단말(200)은, 이동 로봇(1)에 대한 제어메뉴를 통해 주행패턴(또는 주행패턴)을 입력할 수 있다. 주행패턴은 청소동작에 적용되며, 청소동작 이외의 영역 내의 이동에도 적용될 수 있다.
단말(200)은 터치 및 드래그 되는 방향에 대하여 입력패턴(L1)으로 저장한다. 단말(200)은 터치 후 드래그되어 터치가 종료되는 지점까지의 각 지점의 위치에 대한 정보를 바탕으로 입력패턴을 저장한다.
도 8의 (b)에 도시된 바와 같이, 단말(200)은 입력패턴을 분석하여 이동 로봇의 실제 주행에 적용되는 주행패턴을 생성한다.
단말(200)은 입력패턴의 특징을 분석하고, 기저장된 패턴데이터로부터 유사한 패턴을 검색할 수 있다. 단말(200)은 유사한 패턴이 존재하는 경우 해당 주행패턴을 등록한다. 또한, 유사한 주행패턴이 존재하지 않는 경우 앞서 설명한 바와 같이, 입력패턴에 따라 주행패턴을 생성한다.
이동 로봇(1)은 지정된 주행패턴(L2)에 따라 지정된 형태로 영역을 이동할 수 있다.
단말(200)은 입력패턴(L)에 대응하여, 도 8의 (c)에 도시된 바와 같이, 주행패턴(L3)을 생성할 수 있다. 즉 입력패턴에 따라 그대로 이동하는 것이 아니라, 입력패턴의 주행 원리를 바탕으로 영역의 형태에 맞춰 외곽으로부터 내부로 나선주행하도록 할 수 있다. 그에 따라 이동 로봇(1)은 주행패턴(L3)에 따라 영역(A4)을 주행할 수 있다.
주행패턴은 청소동작에 적용되며, 청소동작 이외의 영역 내의 이동에도 적용될 수 있다.
도 9 는 본 발명의 일실시예에 따른 이동 로봇의 새로운 영역에 대한 지도생성방법을 설명하는데 참조되는 도이다.
도 9에 도시된 바와 같이, 이동 로봇(1)은 영역에 대한 지도를 생성하여 저장하고, 생성된 지도를 단말(200)로 전송한다.
단말(200)은 이동 로봇(1)으로부터 수신되는 지도(맵)를 화면에 표시한다. 단말(200)의 사용자의 편의에 따라 사용자맵과 가이드맵을 선택적으로 표시할 수 있다. 또한, 단말은 필요에 따라 기초맵, 청소맵, 사용자맵, 가이드맵 중 어느 하나를 표시할 수 있다.
이동 로봇(1)은 청소맵 중 어느 하나를 사용하여 주행하며, 지정된 동작을 수행한다. 이동 로봇(1)은 기초맵을 바탕으로 동작하는 것 또한 가능하다. 사용자맵과 가이드맵은 기초맵과 청소맵에 매칭되므로, 사용자맵 또는 가이드맵을 바탕으로 청소명령이 입력되더라도 그에 따라 동작이 가능하다.
단말(200)은 화면에 표시된 지도에서, 사용자 입력에 대응하여 어느 하나의 영역, 또는 하나의 지점이 선택된다(S320).
단말(200)은 선택된 영역이 실내영역인지 여부를 판단한다(S330). 즉 단말(200)은 선택된 영역이 실내영역으로, 기 탐색되어 실내 영역으로 구분되어진 탐색영역인지 여부를 판단한다.
단말(200)은 선택된 영역이, 기 탐색된 실내영역 중 어느 하나인 경우, 예를 들어 제 1 영역(A1) 또는 제 2 영역(A2)인 경우, 사용자 입력에 대응하여 영역을 수정할지 여부를 판단한다(S370).
영역을 수정하는 경우, 단말(200)은 사용자 입력에 대응하여, 기 저장된 지도의 크기 또는 형태를 수정할 수 있다(S380). 예를 들어 제 2 영역이 선택된 후, 어느 하나의 변이 선택된 후 드래그 되면, 드래그되는 방향으로 영역을 확장하거나 축소할 수 있다.
단말(200)은 수정된 지도를 저장하고, 갱신된 지도를 화면에 표시한다(S390). 또한, 단말은 갱신된 지도를 이동 로봇(1)으로 전송한다.
영역 수정이 아닌 경우, 사용자 입력에 대응하여 선택된 영역에 대한 청소명령을 설정할 수 있다(S400).
단말(200)은 청소명령을 이동 로봇(1)으로 전송하고, 이동 로봇(1)은 청소명령에 대응하여, 지도를 바탕으로 지정된 영역으로 이동하여 지정된 동작을 수행한다.
한편, 단말(200)은 실내영역이 아닌 미탐색영역이 선택되는 경우, 이동 로봇으로 탐색명령을 전송할 수 있다.
단말(200)은 기 저장된 지도를 바탕으로 선택 지점에 대한 위치정보를 산출하여 이동 로봇으로 전송한다.
이때, 단말(200)은 실내영역이 아닌 미탐색영역이 선택되었음을 알리는 안내메시지 또는 경고메시지를 출력할 수 있다.
단말(200)은 미탐색영역의 선택 지점에 대한 데이터를 이동 로봇으로 전송하고, 그에 대응하여 이동 로봇(1)은 선택 지점으로 이동한다(S340).
이동 로봇(1)은 선택 지점이, 미탐색영역에 위치하는 것을 판단하고, 인접한 영역으로 우선 이동한 후, 선택지점으로의 이동경로를 설정하여 이동할 수 있다. 이동 로봇(1)은 기 저장된 지도를 바탕으로 산출되는 선택 지점에 대한 상대적 위치를 바탕으로 경로를 설정한다. 이동 로봇(1)은 직선으로 주행하되, 장애물에 따라 경로를 변경하여 주행할 수 있다.
또한, 이동 로봇(1)은 직선으로 주행하는 경우, 벽 등의 장애물이 위치하므로, 이를 회피하여 주행하며 선택지점으로 이동할 수 있는 경로를 탐색한다.
앞서 설명한 도 4에서 제 3 영역에 대한 지도는 생성되지 않았으나, 제 3 영역은 제 1 영역과 문을 통해 연결되어 있으므로, 이동 로봇은 제 1 영역을 주행하면서 감지되는 장애물 정보를 바탕으로 제 3 영역과의 연결지점인 문을 감지할 수 있다. 이동 로봇(1)은 제 1 영역(A1)의 좌측 벽면을 따라 주행하면서 제 3 영역으로 진압할 수 있는 연결지점을 감지할 수 있다.
이동 로봇(1)은 감지수단, 즉 장애물 감지유닛(100), 영상획득부(170), 및 센서부(150)중 적어도 하나로부터 입력되는 장애물정보를 바탕으로 연결지점을 찾아 이동한다.
이동 로봇은 제 1 영역으로부터 제 3 영역으로 진입하는 지점에 대한 위치정보를 저장하여 연결지점으로 설정하고, 지도 생성 시, 연결지점을 기준으로 영역을 구분한다.
이동 로봇(1)은 제 1 영역을 벗어나, 선택지점이 위치한 새로운 영역, 즉 제 3 영역에 도달하면(S350), 새로운 영역을 주행하며 지도를 생성한다(S360).
이동 로봇(1)은 새로운 영역인 제 3 영역에 대한 지도를, 기 저장된 지도에 추가하여 지도를 갱신한다. 기 저장된 지도에 포함된 장애물 정보, 영역에 대한 정보, 영역의 청소이력, 영역별 먼지량 정보 등의 데이터를 유지한 채, 연결지점을 기준으로 새로운 영역을 추가할 수 있다.
또한, 단말(200)은 사용자 입력에 대응하여, 어느 하나의 지점이 터치된 후, 미탐색영역으로 드래그되는 경우, 터치된 지점과 드래그되는 방향에 대응하는 위치정보를 산출하여 탐색명령을 이동 로봇으로 전송할 수 있다.
이동 로봇(1)은 탐색명령에 대응하여, 터치된 지점에 대응하는 위치로 이동한 후, 드래그된 방향에 대응하여 주행방향을 설정하여 미탐색영역으로 이동할 수 있다. 이동 로봇(1)은 터치된 지점에 대응하는 위치와, 드래그된 지점의 위치정보를 바탕으로 드래드된 방향을 바탕으로 주행방향을 설정할 수 있다.
이동 로봇(1)은 지도의 영역(탐색영역)으로부터 미탐색영역으로 진입하는 경우, 미탐색영역에 대한 지도를 생성한다.
이동 로봇(1)은 갱신된 지도를 단말(200)로 전송하고, 단말(200)은 수신되는 데이터를 바탕으로 기 저장된 지도를 갱신하고, 갱신된 지도를 화면에 표시한다(S390).
도 10 은 본 발명의 일실시예에 따른 이동 로봇의 주행 패턴에 따른 제어방법이 도시된 순서도이다.
도 10에 도시된 바와 같이, 단말(200)은 지도를 표시한다(S410).,
지도 중 어느 하나의 영역이 선택되면(S420), 선택된 영역에 대한 청소명령을 입력하거나, 또는 주행패턴을 등록할 수 있다(S430).
또한, 별도의 메뉴를 통해 주행패턴을 등록할 수 있다.
사용자 입력에 대응하여 주행패턴등록이 선택되면(S430), 단말(200)은 패턴입력화면을 표시한다(S440).
앞서 설명한 도 8과 같이, 선택 영역의 형태를 표시하고, 사용자 입력에 대응하는 패턴을 인식한다(S450). 단말(200)은 표시부가 터치 후 드래그되는 경우, 드래그되는 방향에 대하여 터치된 지점을 시작으로 드래그되는 방향 및 드래그가 종료되는 지점까지의 패턴을 인식한다.
또한, 단말은 지도를 바탕으로 터치 및 드래그되는 각 지점에 대한 위치정보를 산출할 수 있다.
단말(200)은 입력패턴을 분석하여 주행패턴을 생성한다(S460).
단말(200)은 입력패턴을 분석하여 유사한 형태의 주행패턴이 존재하는지 여부를 검색할 수 있다. 필요에 따라 단말(200)은 서버에 접속하여 주행패턴데이터를 수신할 수 있다.
단말(200)은, 입력패턴을 지도에 매칭하여 각각 산출된 위치정보를 바탕으로, 이동 로봇이 주행할 수 있도록 주행패턴을 생성할 수 있다. 예를 들어 앞서 설명한 도 8의 (b)와 같이, 입력패턴을 영역에 매칭하여 지정된 경로에 따라 이동 로봇이 주행하도록 주행패턴을 생성한다.
또한, 단말(200)은 입력패턴을 분석하여, 해당 영역에 대한 규칙을 추출하여 주행패턴을 생성할 수 있다. 예를 들어 도 8의 (c)와 같이, 입력패턴을 분석하여 영역의 외곽으로부터 영역의 중앙으로 나선형으로 이동하도록 주행패턴을 생성할 수 있다. 이때. 이동 로봇이 원형으로 이동하는 것이 아니라, 영역의 외곽선을 형태를 따라 이동하도록 주행패턴을 생성할 수 있다.
단말(200)은 생성된 주행패턴을 새로운 주행패턴으로 저장하여, 청소명령 입력시 선택 가능하도록 주행패턴을 등록한다(S470). 생성된 주행패턴은 서버 등으로 통해 공유할 수 있다.
단말(200)은 등록된 주행패턴을 적용하여 청소명령을 이동 로봇으로 전송할 수 있다(S490).
또한, 단말(200)은 청소할 영역에 대한 정보와 청소순서 등에 대한 정보를 바탕으로 청소를 설정한다(S480). 단말은 선택된 영역에 대한 주행패턴이 선택된 경우 주행패턴을 포함하여 선택된 영역에 대하여 청소를 설정할 수 있다.
단말(200)은 이동 로봇으로 청소명령을 전송할 수 있다(S490).
그에 따라 이동 로봇(1)은 지정된 영역에 대하여, 주행패턴에 따라 주행하면서 동작을 수행한다.
그에 따라 본 발명은 새로운 영역에 대하여, 탐색을 통해 지도를 생성하되, 기 저장된 지도의 데이터를 유지하며, 새로운 지도를 추가하여 지도를 갱신할 수 있다. 본 발명은 미탐색영역이 선택되거나, 주행 중, 새로운 영역에 진입하는 경우, 기 저장된 지도와의 연결지점을 바탕으로 새로운 영역에 대한 지도를 추가할 수 있다.
본 발명은 단말을 통해 사용자 입력에 대응하여 유사한 형태의 주행패턴을 적용하여 이동 로봇이 주행하도록 할 수 있다. 또한, 본 발명은 단말을 통해 입력된 입력패턴을 분석하여 특정 형태의 주행패턴을 등록하고, 그에 따라 이동 로봇이 영역 내에서 지정된 주행패턴에 따라 주행할 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
1: 이동 로봇 10: 본체
100: 장애물 감지유닛 110: 제어부
111: 장애물인식부 113: 주행제어부
120, 130: 패턴조사부 140: 패턴 획득부
150: 센서부 170: 영상획득부
180: 데이터부
250: 주행부 260: 청소부

Claims (22)

  1. 영역을 주행하는 본체;
    주행중 장애물을 감지하는 감지수단;
    상기 본체를 이동시키는 주행부; 및
    상기 본체의 주행을 제어하고, 상기 감지수단을 통해 감지되는 장애물정보에 대응하여 상기 영역에 대한 지도를 생성하고, 상기 지도 내의 각 영역을 주행하며 청소를 수행하도록 상기 주행부를 제어하는 제어부; 를 포함하고
    상기 제어부는, 사용자 입력에 대응하여 어느 하나의 영역이 선택되면, 상기 영역이 상기 지도의 탐색영역인 경우, 상기 영역에 설정된 주행패턴에 따라 상기 영역을 주행하며 지정된 동작을 수행하고,
    상기 영역이 미탐색영역인 경우, 상기 미탐색영역을 주행하며 상기 미탐색영역에 대한 지도를 생성하여 기 생성된 상기 지도에 추가하는 것을 특징으로 하는 이동 로봇.
  2. 제 1 항에 있어서,
    상기 제어부는 상기 미탐색영역 중 상기 사용자 입력에 대응하는 어느 한 지점을 목표로 상기 본체가 이동하여 상기 미탐색영역으로 진입하도록 상기 주행부를 제어하는 것을 특징으로 하는 이동 로봇.
  3. 제 1 항에 있어서,
    상기 제어부는 상기 지도의 탐색영역 중 상기 미탐색영역에 인접한 어느 한 영역으로 이동한 후, 상기 미탐색영역으로 이동하도록 하는 것을 특징으로 하는 이동 로봇.
  4. 제 1 항에 있어서,
    상기 제어부는 상기 사용자 입력에 의해 터치 후 드래그된 방향 대응하여, 상기 미탐색영역에 대한 주행경로를 설정하여 상기 미탐색영역으로 이동하도록 상기 주행부를 제어하는 것을 특징으로 하는 이동 로봇.
  5. 제 1 항에 있어서,
    상기 제어부는 상기 탐색영역을 이탈하여 상기 미탐색영역을 진입하는 시점을 기준으로 상기 미탐색영역에서 감지되는 장애물 정보를 바탕으로 상기 미탐색영역에 대한 지도를 생성하는 것을 특징으로 하는 이동 로봇.
  6. 제 1 항에 있어서,
    상기 제어부는 상기 미탐색영역에서의 주행거리에 따라 단계적으로 상기 지도를 갱신하는 것을 특징으로 하는 이동 로봇.
  7. 제 1 항에 있어서,
    상기 제어부는 상기 미탐색영역을 주행하며 상기 미탐색영역에 대한 지도를 생성하고, 상기 탐색영역과 상기 미탐색영역의 연결지점을 매칭하여 상기 지도에 상기 미탐색영역에 대한 지도를 추가하는 것을 특징으로 하는 이동 로봇.
  8. 제 1 항에 있어서,
    상기 지도를 단말로 전송하는 통신부;를 더 포함하고,
    상기 제어부는 상기 미탐색영역에 대한 지도가 추가된 갱신된 지도를 상기 통신부를 통해 단말로 전송하고,
    상기 단말로부터 상기 사용자 입력을 수신하는 것을 특징으로 하는 이동 로봇.
  9. 제 1 항에 있어서,
    상기 제어부는 단말에 의해 설정된 상기 주행패턴을 바탕으로 상기 영역을 청소하거나 또는 감시하는 것을 특징으로 하는 이동 로봇.
  10. 제 9 항에 있어서,
    상기 단말은, 사용자 입력에 대응하여, 터치 후 드래그되는 방향에 따라, 터치된 지점으로부터 드래그가 종료된 지점까지의 위치에 대응하여 상기 주행패턴을 설정하는 것을 특징으로 하는 이동 로봇.
  11. 제 9 항에 있어서,
    상기 단말은 상기 단말은, 사용자 입력에 대응하여, 터치 후 드래그되는 방향에 따라, 터치된 지점으로부터 드래그가 종료된 지점까지의 위치변화를 분석하고, 기 저장된 패턴데이터로부터 유사한 패턴을 검색하여 상기 주행패턴을 설정하는 것을 특징으로 하는 이동 로봇.
  12. 본체가 적어도 하나의 영역을 주행하며 지도를 생성하는 단계;
    사용자 입력에 대응하여 어느 하나의 영역이 선택되는 단계;
    상기 영역이 상기 지도의 탐색영역 중 하나인 경우, 상기 영역에 설정된 주행패턴에 따라 상기 영역을 주행하며 지정된 동작을 수행하는 단계;
    상기 영역이 미탐색영역인 경우, 상기 미탐색영역을 주행하며 상기 미탐색영역에 대한 지도를 생성하는 단계; 및
    기 생성된 상기 지도에 상기 미탐색영역에 대한 지도를 추가하는 단계를 포함하는 이동 로봇의 제어방법.
  13. 제 12 항에 있어서,
    상기 영역이 미탐색영역인 경우, 상기 미탐색영역 중 상기 사용자 입력에 대응하는 어느 한 지점을 목표로 상기 본체가 이동하여 상기 미탐색영역으로 진입하는 단계;를 더 포함하는 이동 로봇의 제어방법.
  14. 제 13 항에 있어서,
    상기 탐색영역 중 상기 미탐색영역에 인접한 어느 한 영역으로 이동한 후, 상기 미탐색영역으로 이동하는 단계를 더 포함하는 이동 로봇의 제어방법.
  15. 제 12 항에 있어서,
    상기 사용자 입력에 의해 터치 후 드래그된 방향 대응하여, 상기 미탐색영역에 대한 주행경로를 설정하여 상기 미탐색영역으로 진입하는 단계를 더 포함하는 이동 로봇의 제어방법.
  16. 제 12 항에 있어서,
    상기 탐색영역을 이탈하여 상기 미탐색영역에 진입하면, 상기 미탐색영역에서 감지되는 장애물 정보를 바탕으로 상기 미탐색영역에 대한 지도를 생성하는 것을 특징으로 하는 이동 로봇의 제어방법.
  17. 제 12 항에 있어서,
    상기 미탐색영역에서의 주행거리에 따라 단계적으로 상기 지도를 갱신하는 단계를 더 포함하는 이동 로봇의 제어방법.
  18. 제 12 항에 있어서,
    상기 탐색영역과 상기 미탐색영역의 연결지점을 매칭하여 상기 지도에 상기 미탐색영역에 대한 지도를 추가하는 것을 특징으로 하는 이동 로봇의 제어방법.
  19. 제 12 항에 있어서,
    상기 미탐색영역에 대한 지도가 추가된 상기 지도를 단말로 전송하는 단계; 및
    상기 단말이, 상기 지도를 수신하여 화면에 표시하는 단계;를 더 포함하는 이동 로봇의 제어방법.
  20. 제 12 항에 있어서,
    사용자 입력에 대응하여 상기 영역에 대한 패턴이 입력되는 단계; 및
    상기 패턴의 특징을 분석하여 상기 주행패턴을 설정하는 단계;를 더 포함하는 이동 로봇의 제어방법.
  21. 제 12 항에 있어서,
    사용자 입력에 대응하여 상기 영역에 대한 패턴이 입력되는 단계; 및
    상기 패턴의 특징을 분석하여 기 저장된 패턴데이터로부터 유사한 패턴을 검색하여 상기 주행패턴을 설정하는 단계;를 더 포함하는 이동 로봇의 제어방법.
  22. 제 20 항 또는 제 21 항에 있어서,
    상기 사용자 입력에 대응하여, 터치 후 드래그되는 방향에 대응하여, 터치 시작지점으로부터 드래그가 종료된 지점까지의 위치를 저장하는 단계;를 더 포함하는 이동 로봇의 제어방법.
KR1020200101049A 2018-04-05 2020-08-12 이동 로봇 및 그 제어방법 KR102500529B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200101049A KR102500529B1 (ko) 2018-04-05 2020-08-12 이동 로봇 및 그 제어방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180039728A KR20190119234A (ko) 2018-04-05 2018-04-05 이동 로봇 및 그 제어방법
KR1020200101049A KR102500529B1 (ko) 2018-04-05 2020-08-12 이동 로봇 및 그 제어방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180039728A Division KR20190119234A (ko) 2018-04-05 2018-04-05 이동 로봇 및 그 제어방법

Publications (2)

Publication Number Publication Date
KR20200100019A true KR20200100019A (ko) 2020-08-25
KR102500529B1 KR102500529B1 (ko) 2023-02-15

Family

ID=85223342

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200101049A KR102500529B1 (ko) 2018-04-05 2020-08-12 이동 로봇 및 그 제어방법

Country Status (1)

Country Link
KR (1) KR102500529B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114224232A (zh) * 2021-12-22 2022-03-25 珠海格力电器股份有限公司 地图更新方法、装置、扫地机器人及存储介质
WO2023033265A1 (ko) * 2021-08-31 2023-03-09 삼성전자 주식회사 실내 공간에 관한 맵을 획득하는 청소 로봇 및 그 동작 방법
US12007785B2 (en) 2021-08-31 2024-06-11 Samsung Electronics Co., Ltd. Cleaning robot capable of obtaining map of indoor space and operating method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013211025A (ja) * 2009-11-06 2013-10-10 Hitachi Ltd 移動ロボットシステムおよび地図生成装置
KR20150136783A (ko) * 2014-05-28 2015-12-08 삼성전자주식회사 모바일 기기, 청소로봇 및 그 제어방법
KR20160059473A (ko) * 2016-05-10 2016-05-26 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
KR20170087403A (ko) * 2016-01-20 2017-07-28 주식회사 유진로봇 복합 지도 정보 기반의 이동 로봇을 운영하기 위한 시스템 및 그 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013211025A (ja) * 2009-11-06 2013-10-10 Hitachi Ltd 移動ロボットシステムおよび地図生成装置
KR20150136783A (ko) * 2014-05-28 2015-12-08 삼성전자주식회사 모바일 기기, 청소로봇 및 그 제어방법
KR20170087403A (ko) * 2016-01-20 2017-07-28 주식회사 유진로봇 복합 지도 정보 기반의 이동 로봇을 운영하기 위한 시스템 및 그 방법
KR20160059473A (ko) * 2016-05-10 2016-05-26 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023033265A1 (ko) * 2021-08-31 2023-03-09 삼성전자 주식회사 실내 공간에 관한 맵을 획득하는 청소 로봇 및 그 동작 방법
US12007785B2 (en) 2021-08-31 2024-06-11 Samsung Electronics Co., Ltd. Cleaning robot capable of obtaining map of indoor space and operating method thereof
CN114224232A (zh) * 2021-12-22 2022-03-25 珠海格力电器股份有限公司 地图更新方法、装置、扫地机器人及存储介质

Also Published As

Publication number Publication date
KR102500529B1 (ko) 2023-02-15

Similar Documents

Publication Publication Date Title
US11226633B2 (en) Mobile robot and method of controlling the same
EP3702111B1 (en) Artificial intelligence moving robot which learns obstacles, and control method therefor
US11846950B2 (en) Mobile robot and control method thereof
KR102275300B1 (ko) 이동 로봇 및 그 제어방법
KR102235271B1 (ko) 이동 로봇 및 그 제어방법
KR102024092B1 (ko) 이동 로봇 시스템 및 그 제어방법
KR102070067B1 (ko) 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법
KR20180082264A (ko) 이동 로봇 및 그 제어방법
KR20190035377A (ko) 이동 로봇 및 그 제어방법
KR20190103511A (ko) 이동 로봇 및 그 제어방법
KR20190119234A (ko) 이동 로봇 및 그 제어방법
US20220280007A1 (en) Mobile robot and method of controlling the same
KR102330607B1 (ko) 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법
US20230091839A1 (en) Moving robot and control method thereof
KR102070210B1 (ko) 이동 로봇
KR102500529B1 (ko) 이동 로봇 및 그 제어방법
US20220257075A1 (en) Moving robot and method of controlling the same
KR102152731B1 (ko) 이동 로봇 및 그 제어방법
KR102300790B1 (ko) 이동 로봇 및 그 제어방법
KR20230134800A (ko) 로봇 청소기 및 로봇 청소기의 제어방법
KR20210004679A (ko) 이동 로봇 및 그 제어방법
KR20210004678A (ko) 이동 로봇 및 그 제어방법

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant