KR20210089463A - 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법 - Google Patents

인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법 Download PDF

Info

Publication number
KR20210089463A
KR20210089463A KR1020200002652A KR20200002652A KR20210089463A KR 20210089463 A KR20210089463 A KR 20210089463A KR 1020200002652 A KR1020200002652 A KR 1020200002652A KR 20200002652 A KR20200002652 A KR 20200002652A KR 20210089463 A KR20210089463 A KR 20210089463A
Authority
KR
South Korea
Prior art keywords
robot cleaner
electronic product
signal
map
cleaning
Prior art date
Application number
KR1020200002652A
Other languages
English (en)
Inventor
이상규
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020200002652A priority Critical patent/KR20210089463A/ko
Publication of KR20210089463A publication Critical patent/KR20210089463A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Electric Vacuum Cleaner (AREA)

Abstract

본 발명에 따른 인공지능을 이용한 로봇 청소기는, 본체를 이동시키는 주행부; 청소 기능을 수행하는 청소부; 주변 환경을 감지하는 센싱부; 청소 구역 내의 적어도 하나의 전자 제품과 IR 신호를 송수신하는 IR 센서부; 및 청소 구역에 청소를 진행하여, 상기 센싱부를 통해 감지된 정보를 기초로 상기 청소 구역에 대한 물리적 정보와 상기 IR 신호로 제어가능한 적어도 하나의 종속 전자제품에 대한 정보가 포함된 지도를 생성하고, 외부로부터의 명령에 따라 특정 종속 전자제품을 조작하도록 제어하는 제어부;를 포함한다. 따라서, 공간 지도와 함께 각 공간의 종속 전자 제품을 제공함으로써 로봇 청소기를 제어하는 어플리케이션을 통해 다른 전자 제품의 제어를 수행할 수 있다.

Description

인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법 {A ROBOT CLEANER USING ARTIFICIAL INTELLIGENCE AND CONTROL METHOD THEREOF}
본 발명은, 로봇 청소기 및 로봇 청소기의 제어방법에 관한 것으로, 보다 상세하게는 인공지능을 이용한 로봇 청소기의 감지 및 그에 따른 주행 기술에 관한 것이다.
로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다.
최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다. 이러한 로봇 중에서 자력으로 주행이 가능한 것을 이동 로봇이라고 한다. 가정에서 사용되는 이동 로봇의 대표적인 예는 로봇 청소기이다.
로봇 청소기에 구비된 여러 센서를 통하여 로봇 청소기 주변의 환경 및 사용자를 감지하는 여러 기술들이 알려져 있다. 또한, 로봇 청소기가 스스로 청소 구역을 학습하여 맵핑하고, 맵 상에서 현재 위치를 파악하는 기술들이 알려져 있다. 청소 구역을 기설정된 방식으로 주행하며 청소하는 로봇 청소기가 알려져 있다.
또한, 종래 기술(한국특허공개번호 10-2017-0003764)에는, 청소영역에 대한 지도(격자지도)를 사용자가 확인하기 용이한 형태로 가공하고 (외곽선 변경 등), 지도를 통해 입력되는 청소명령에 따라 청소영역에 대한 청소가 수행되도록 하는 방법이 개시되어 있다.
한편, 종래기술(한국 공개 특허 번호 10-2017-0004493 호)에서는 IR 신호를 학습하여 종속 전자 장치를 제어하거나 종속 전자 장치의 제어를 지원하기 위한 방법이 개시되어 있다.
이와 같은 종래기술은 텔레비전 셋탑박스를 통해 주변에 있는 에어컨/선풍기 등의 IR신호를 데이터베이스를 통해 얻어 IR신호로 제어할 수 있는 방법을 제시하고 있다.
또한, 다른 종래기술(한국 공개 특허 번호 10-2015-0124535 호)에서는 로봇청소기 내부에 구비된 방 감지 유닛을 이용하여 문턱 및 구조물을 감지하는 내용이 개시되어 있다.
그러나, 종래기술에서는 방의 구조를 감지하여 청소 시 구역을 분할하는데 사용할 뿐 다른 전자제품을 제어하는데 적용하고 있지 않다.
한국공개특허번호 10-2017-0004493 (공개일자 : 2017년 01월 11일) 한국공개특허번호 10-2015-0124535 (공개일자 : 2015년 11월 06일)
제1 과제는 실제 실내 공간과 유사한 공간 지도를 제공하면서 각 영역 내에 존재하는 종속 전자 제품을 파악하여 제어를 수행하는 청소 로봇을 제공하는 것이다.
제2 과제는 공간 지도와 함께 각 공간의 종속 전자 제품을 제공함으로써 로봇 청소기를 제어하는 어플리케이션을 통해 다른 전자 제품의 제어를 수행할 수 있는 청소 로봇을 제공하는 것이다.
그리고, 제3 과제는 청소를 진행하면서 수득한 각 종속 전자 제품의 IR 신호를 읽어 공간 지도에 표시하고, 사용자 단말로부터 해당 종속 전자 제품의 제어 명령을 수득하면 해당 위치로 이동하여 상기 종속 전자 제품에 제어 명령을 전송할 수 있는 청소 로봇을 제공하는 것이다.
본 발명의 로봇청소기는 본체를 이동시키는 주행부; 청소 기능을 수행하는 청소부; 주변 환경을 감지하는 센싱부; 청소 구역 내의 적어도 하나의 전자 제품과 IR 신호를 송수신하는 IR 센서부; 및 청소 구역에 청소를 진행하여, 상기 센싱부를 통해 감지된 정보를 기초로 상기 청소 구역에 대한 물리적 정보와 상기 IR 신호로 제어가능한 적어도 하나의 종속 전자제품에 대한 정보가 포함된 지도를 생성하고, 외부로부터의 명령에 따라 특정 종속 전자제품을 조작하도록 제어하는 제어부;를 포함한다.
상기 지도는 상기 청소 구역에 대한 물리적인 정보 및 상기 IR 신호로 제어가능한 적어도 하나의 종속 전자제품의 위치 및 ID가 함께 표시될 수 있다.
상기 제어부는, 상기 센싱부로부터 수득된 감지된 정보로부터 상기 청소 구역에 대한 물리적인 정보만을 가지는 기초 맵을 작성할 수 있다.
상기 제어부는, 상기 청소 구역의 기초 맵에서 상기 송수신부로부터의 무선 네트워크 가능 영역을 별도로 표시하는 지도를 생성할 수 있다.
상기 제어부는, 상기 청소 구역에서 주기적으로 주변에 IR 신호를 발송하여 수득되는 IR 신호를 판단하여 상기 IR 신호로 제어가능한 종속 전자 제품에 대한 정보 및 위치를 저장할 수 있다.
상기 제어부는, 외부로부터 상기 종속 전자 제품에 대한 제어 명령을 수득하면, 상기 종속 전자 제품이 있는 영역으로 이동하도록 상기 주행부를 제어할 수 있다.
상기 종속 전자 제품이 있는 영역으로 이동하고, 상기 종속 전자 제품으로 IR신호를 발송하여 제어할 수 있다.
상기 제어부는 외부로 상기 종속 전자 제품의 제어 완료에 대한 정보를 전송할 수 있다.
상기 로봇 청소기는, 엣지 모드 또는 지그재그 모드로 청소를 진행하면서 상기 청소 구역에 대한 정보 및 IR 신호에 대한 정보를 수집할 수 있다.
한편, 본 발명의 실시예는 청소 구역에 청소를 진행하여, 센싱부를 통해 감지 신호를 수득하고, IR 센서부로부터 상기 청소 구역 내의 적어도 하나의 전자 제품로부터의 IR 신호를 수득하는 단계; 상기 감지 신호, 및 IR 신호를 기초로 상기 청소 구역에 대한 지도를 생성하는 단계; 및 외부로부터의 명령에 따라 특정 종속 전자제품의 위치로 이동하여 상기 특정 종속 전자 제품을 제어하는 단계를 포함하는 로봇 청소기의 제어 방법을 제공한다.
상기 지도는 상기 청소 구역에 대한 물리적인 정보 및 상기 IR 신호로 제어가능한 적어도 하나의 종속 전자제품의 위치 및 ID가 함께 표시될 수 있다.
상기 지도를 생성하는 단계는, 상기 센싱부로부터 수득된 감지된 정보로부터 상기 청소 구역에 대한 물리적인 정보만을 가지는 기초 맵을 작성하는 단계를 포함할 수 있다.
상기 지도를 생성하는 단계는, 상기 청소 구역의 기초 맵에서 상기 송수신부로부터의 무선 네트워크 가능 영역을 별도로 표시하는 지도를 생성하는 단계를 더 포함할 수 있다.
IR 신호를 수득하는 단계는, 상기 청소 구역에서 주기적으로 주변에 IR 신호를 발송하여 수득되는 IR 신호를 판단하여 상기 IR 신호로 제어가능한 종속 전자 제품에 대한 정보 및 위치를 저장할 수 있다.
상기 종속 전자 제품이 있는 영역으로 이동하고, 상기 종속 전자 제품으로 IR신호를 발송하여 제어할 수 있다.
외부로 상기 종속 전자 제품의 제어 완료에 대한 정보를 전송하는 단계를 더 포함할 수 있다.
상기 해결 수단을 통하여, 본 발명은 실제 실내 공간과 유사한 공간 지도를 제공하면서 각 영역 내에 존재하는 종속 전자 제품을 파악하여 제어를 수행할 수 있다. 또한, 공간 지도와 함께 각 공간의 종속 전자 제품을 제공함으로써 로봇 청소기를 제어하는 어플리케이션을 통해 다른 전자 제품의 제어를 수행할 수 있다. 그리고, 사용자 단말로부터 해당 종속 전자 제품의 제어 명령을 수득하면 해당 위치로 이동하여 상기 종속 전자 제품에 제어 명령을 전송할 수 있다. 따라서, 원거리에 위치한 각종 전자 제품에 대한 원거리 제어가 로봇 청소기의 제어만으로 가능하며, 로봇 청소기가 직접 해당 전자 제품 근거리로 이동하여 IR 신호로 조작함으로써 실제로 리모컨과 유사하게 활용될 수 있다.
또한, 각종 전자 제품에 대하여 스마트 제어가 직접적으로 되지 않는 경우에도 로봇 청소기가 직접 이동하여 IR 신호로 제어함으로써 통합적인 스마트 관리가 가능하다.
도 1은 본 발명의 일 실시예에 따른 로봇 청소기를 포함하는 스마트 홈 시스템 구성도이다.
도 2는 본 발명의 일 실시예에 따른 로봇 청소기 및 로봇 청소기를 충전시키는 충전대를 도시한 사시도이다.
도 3은 도 2의 로봇 청소기를 상측에서 바라본 입면도이다.
도 4는 도 2의 로봇 청소기를 정면에서 바라본 입면도이다.
도 5는 도 2의 로봇 청소기를 하측에서 바라본 입면도이다.
도 6은 도 2의 로봇 청소기의 주요 구성들 간의 제어관계를 도시한 블록도이다.
도 7은 본 발명의 일 실시예에 따른 로봇 청소기의 제어방법을 도시한 순서도이다.
도 8은 도 7의 로봇 청소기의 제어 방법을 시스템에서 제어하기 위한 순서도이다.
도 9는 도 7 및 도 8의 순서도를 설명하는 공간 지도를 나타내는 도면이다.
도 10은 도 7 및 도 8의 순서도에 따른 사용자 단말의 상태를 나타내는 도면이다.
본 설명 전체에 걸쳐 언어적/수학적으로 표현된 대소비교에 있어서, '작거나 같음(이하)'과 '작음(미만)'은 통상의 기술자 입장에서 서로 용이하게 치환가능한 정도이며, '크거나 같음(이상)'과 '큼(초과)'은 통상의 기술자 입장에서 서로 용이하게 치환가능한 정도이며, 본 발명을 구현함에 있어서 치환하여도 그 효과 발휘에 문제가 되지 않음은 물론이다.
이하에서 언급되는 “전(F)/후(R)/좌(Le)/우(Ri)/상(U)/하(D)” 등의 방향을 지칭하는 표현은 도면에 표시된 바에 따라 정의하나, 이는 어디까지나 본 발명이 명확하게 이해될 수 있도록 설명하기 위한 것이며, 기준을 어디에 두느냐에 따라 각 방향들을 다르게 정의할 수도 있음은 물론이다.
예를 들어, 전방은 로봇청소기의 주 진행 방향 또는 로봇청소기의 패턴 주행의 주 진행 방향을 의미할 수 있다. 여기서, 주 진행 방향은 일정 시간 내에 진행하는 방향들의 벡터 합산 값을 의미할 수 있다.
이하에서 언급되는 구성요소 앞에 ‘제1, 제2' 등의 표현이 붙는 용어 사용은, 지칭하는 구성요소의 혼동을 피하기 위한 것일 뿐, 구성요소 들 사이의 순서, 중요도 또는 주종관계 등과는 무관하다. 예를 들면, 제1 구성요소 없이 제2 구성요소 만을 포함하는 발명도 구현 가능하다.
도면에서 각 구성의 두께나 크기는 설명의 편의 및 명확성을 위하여 과장되거나 생략되거나 또는 개략적으로 도시되었다. 또한 각 구성요소의 크기와 면적은 실제크기나 면적을 전적으로 반영하는 것은 아니다.
또한, 본 발명의 구조를 설명하는 과정에서 언급하는 각도와 방향은 도면에 기재된 것을 기준으로 한다. 명세서에서 구조에 대한 설명에서, 각도에 대한 기준점과 위치관계를 명확히 언급하지 않은 경우, 관련 도면을 참조하도록 한다.
도 1은 본 발명의 일 실시예에 따른 로봇 시스템의 구성도이다.
도 1을 참고하면, 본 발명의 실시예에 따른 로봇 시스템은, 하나 이상의 로봇청소기(100)를 구비하여 집 등의 규정된 장소에서 서비스를 제공할 수 있다. 예를 들어, 로봇 시스템은 가정 등에서 지정된 장소의 청소 서비스를 제공하는 로봇청소기(100)를 포함할 수 있다. 특히 이러한 로봇 청소기(100)는 포함하는 기능 블럭에 따라 건식, 습식 또는 건/습식의 청소 서비스를 제공할 수 있다.
바람직하게는, 본 발명의 일 실시예에 따른 로봇 시스템은, 복수의 인공지능 로봇청소기(100) 및 복수의 인공지능 로봇청소기(100)를 관리하고 제어할 수 있는 서버(2)를 포함할 수 있다.
서버(2)는 원격에서 복수의 로봇청소기(100)의 상태를 모니터링하고, 제어할 수 있고, 로봇 시스템은 복수의 로봇청소기(100)를 이용하여 더 효과적인 서비스 제공이 가능하다.
복수의 로봇 청소기(100) 및 서버(2)는 하나 이상의 통신 규격을 지원하는 통신 수단(미도시)을 구비하여, 상호 통신할 수 있다. 또한, 복수의 로봇청소기(100) 및 서버(2)는 PC, 이동 단말기, 외부의 다른 서버(2)와 통신할 수 있다.
예를 들어, 복수의 로봇청소기(100) 및 서버(2)는 IEEE 802.11 WLAN, IEEE 802.15 WPAN, UWB, Wi-Fi, Zigbee, Z-wave, Blue-Tooth 등과 같은 무선 통신 기술로 무선 통신하게 구현될 수 있다. 로봇청소기(100)는 통신하고자 하는 다른 장치 또는 서버(2)의 통신 방식이 무엇인지에 따라 달라질 수 있다.
특히, 복수의 로봇청소기(100)는 5G 네트워크를 통해 다른 로봇(100) 및/또는 서버(2)와 무선통신을 구현할 수 있다. 로봇청소기(100)가 5G 네트워크를 통해 무선 통신하는 경우, 실시간 응답 및 실시간 제어가 가능하다.
사용자는 PC, 이동 단말기 등의 사용자 단말(3)을 통하여 로봇 시스템 내의 로봇들(100)에 관한 정보를 확인할 수 있다.
서버(2)는 클라우드(cloud) 서버(2)로 구현되어, 로봇(100)에 클라우드 서버(2)가 연동되어 로봇청소기(100)를 모니터링, 제어하고 다양한 솔루션과 콘텐츠를 원격으로 제공할 수 있다.
서버(2)는, 로봇청소기(100), 기타 기기로부터 수신되는 정보를 저장 및 관리할 수 있다. 상기 서버(2)는 로봇청소기(100)의 제조사 또는 제조사가 서비스를 위탁한 회사가 제공하는 서버(2)일 수 있다. 상기 서버(2)는 로봇청소기(100)를 관리하고 제어하는 관제 서버(2)일 수 있다.
상기 서버(2)는 로봇청소기(100)를 일괄적으로 동일하게 제어하거나, 개별 로봇청소기(100) 별로 제어할 수 있다. 한편, 상기 서버(2)는, 복수의 서버로 정보, 기능이 분산되어 구성될 수도 있고, 하나의 통합 서버로 구성될 수도 있을 것이다.
로봇청소기(100) 및 서버(2)는 하나 이상의 통신 규격을 지원하는 통신 수단(미도시)을 구비하여, 상호 통신할 수 있다.
로봇청소기(100)는 공간(space), 사물(Object), 사용(Usage) 관련 데이터(Data)를 서버(2)로 전송할 수 있다.
여기서, 데이터는 공간(space), 사물(Object) 관련 데이터는 로봇청소기(100)가 인식한 공간(space)과 사물(Object)의 인식 관련 데이터이거나, 영상획득부가 획득한 공간(space)과 사물(Object)에 대한 이미지 데이터일 수 있다.
실시예에 따라서, 로봇청소기(100) 및 서버(2)는 사용자, 음성, 공간의 속성, 장애물 등 사물의 속성 중 적어도 하나를 인식하도록 학습된 소프트웨어 또는 하드웨어 형태의 인공신경망(Artificial Neural Networks: ANN)을 포함할 수 있다.
본 발명의 일 실시예에 따르면, 로봇청소기(100) 및 서버(2)는 딥러닝(Deep Learning)으로 학습된 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network) 등 심층신경망(Deep Neural Network: DNN)을 포함할 수 있다. 예를 들어, 로봇청소기(100)의 제어부(140)에는 CNN(Convolutional Neural Network) 등 심층신경망 구조(DNN)가 탑재될 수 있다.
서버(2)는 로봇청소기(100)으로부터 수신한 데이터, 사용자에 의해 입력되는 데이터 등에 기초하여, 심층신경망(DNN)을 학습시킨 후, 업데이트된 심층신경망(DNN) 구조 데이터를 로봇(1)으로 전송할 수 있다. 이에 따라, 로봇(100)이 구비하는 인공지능(artificial intelligence)의 심층신경망(DNN) 구조를 업데이트할 수 있다.
또한, 사용(Usage) 관련 데이터(Data)는 로봇청소기(100)의 사용에 따라 획득되는 데이터로, 사용 이력 데이터, 센서부에서 획득된 감지 신호 등이 해당될 수 있다.
학습된 심층신경망 구조(DNN)는 인식용 입력 데이터를 입력받고, 입력 데이터에 포함된 사람, 사물, 공간의 속성을 인식하여, 그 결과를 출력할 수 있다.
또한, 상기 학습된 심층신경망 구조(DNN)는 인식용 입력 데이터를 입력받고, 로봇청소기(100)의 사용(Usage) 관련 데이터(Data)를 분석하고 학습하여 사용 패턴, 사용 환경 등을 인식할 수 있다.
한편, 공간(space), 사물(Object), 사용(Usage) 관련 데이터(Data)는 통신부를 통하여 서버(2)로 전송될 수 있다.
서버(2)는 수신한 데이터에 기초하여, 심층신경망(DNN)을 학습시킨 후, 업데이트된 심층신경망(DNN) 구조 데이터를 인공지능 로봇청소기(100)로 전송하여 업데이트하게 할 수 있다.
이에 따라, 로봇(100)이 점점 스마트하게 되며, 사용할수록 진화되는 사용자 경험(UX)을 제공할 수 있다.
한편, 서버(2)는 로봇청소기(100)의 제어 및 현재 상태 등에 대한 정보를 사용자 단말에 제공할 수 있으며, 이와 같은 로봇청소기(100)의 제어를 위한 어플리케이션을 생성하여 배포가능하다.
이러한 어플리케이션은 사용자 단말(3)로서 적용되는 PC용 어플리케이션일 수 있으며, 또는 스마트폰용 어플리케이션일 수 있다.
일 예로, 본 출원인의 다양한 전자제품을 동시에 제어하고 관리 감독가능한 어플리케이션인 SmartThinQ 어플리케이션과 같은 스마트 가전 제어를 위한 어플리케이션일 수 있다.
로봇 청소기(100)는 본체(110)를 포함한다. 이하, 본체(110)의 각부분을 정의함에 있어서, 주행구역 내의 천장을 향하는 부분을 상면부(도 3 참조)로 정의하고, 주행구역 내의 바닥을 향하는 부분을 저면부(도 5 참조)로 정의하고, 상기 상면부와 저면부 사이에서 본체(110)의 둘레를 이루는 부분 중 주행방향을 향하는 부분을 정면부(도 4 참조)라고 정의한다. 또한, 본체(110)의 정면부와 반대 방향을 향하는 부분을 후면부로 정의할 수 있다. 본체(110)는 로봇 청소기(100)를 구성하는 각종 부품들이 수용되는 공간을 형성하는 케이스(111)를 포함할 수 있다.
로봇 청소기(100)는 주변의 상황을 감지하는 센싱부(130)를 포함한다. 센싱부(130)는 로봇 청소기(100) 외부의 정보를 감지할 수 있다. 센싱부(130)는 로봇 청소기(100) 주변의 사용자를 감지한다. 센싱부(130)는 로봇 청소기(100) 주변의 물체를 감지할 수 있다.
센싱부(130)는 청소 구역에 대한 정보를 감지할 수 있다. 센싱부(130)는 주행면 상의 벽체, 가구 및 낭떠러지 등의 장애물을 감지할 수 있다. 센싱부(130)는 천장에 대한 정보를 감지할 수 있다. 센싱부(130)는, 주행면 상에 놓여진 물건 및/또는 외부의 상측 물체를 포함할 수 있다. 외부의 상측 물체는, 로봇 청소기(100)의 상측 방향에 배치되는 천장이나 가구의 하측면 등을 포함할 수 있다. 센싱부(130)가 감지한 정보를 통해, 로봇 청소기(100)는 청소 구역을 맵핑(Mapping)할 수 있다.
센싱부(130)는, 로봇 청소기(100) 주변의 사용자에 대한 정보를 감지할 수 있다. 센싱부(130)는, 상기 사용자의 위치 정보를 감지할 수 있다. 상기 위치 정보는, 로봇 청소기(100)에 대한 방향 정보를 포함할 수 있다. 상기 위치 정보는, 로봇 청소기(100)와 사용자 사이의 거리 정보를 포함할 수 있다. 센싱부(130)는 상기 사용자의 상기 로봇 청소기(100)에 대한 방향을 감지할 수 있다. 센싱부(130)는 상기 사용자와 로봇 청소기(100) 사이의 거리를 감지할 수 있다.
상기 위치 정보는, 센싱부(130)의 감지에 의해 곧바로 획득될 수도 있고, 제어부(140)에 의해 처리되어 획득될 수도 있다.
센싱부(130)는 주변의 영상을 감지하는 영상 감지부(135)를 포함할 수 있다. 영상 감지부(135)는 로봇 청소기(100)에 대한 특정 방향으로 영상을 감지할 수 있다. 예를 들어, 영상 감지부(135)는, 로봇 청소기(100)의 전방으로 영상을 감지할 수 있다. 영상 감지부(135)는 주행구역을 촬영하는 것으로, 디지털 카메라를 포함할 수 있다. 상기 디지털 카메라는 적어도 하나의 광학렌즈와, 상기 광학렌즈를 통과한 광에 의해 상이 맺히는 다수개의 광다이오드(photodiode, 예를 들어, pixel)를 포함하여 구성된 이미지센서(예를 들어, CMOS image sensor)와, 상기 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 상기 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.
센싱부(130)는 주변의 벽까지의 거리를 감지하는 거리 감지부(131)를 포함할 수 있다. 거리 감지부(131)를 통해 로봇 청소기(100)와 주변의 벽까지의 거리를 감지할 수 있다. 거리 감지부(131)는, 로봇 청소기(100)의 특정 방향으로 사용자까지의 거리를 감지한다. 거리 감지부(131)는 IR(적외선) 센서 등을 포함한다.
거리 감지부(131)는 본체(110)의 정면부에 배치될 수 있고, 측방부에 배치될 수도 있다.
거리 감지부(131)는 주변의 장애물을 감지할 수 있다. 복수의 거리 감지부(131)가 구비될 수 있다.
센싱부(130)는 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 낭떠러지 감지부(132)를 포함할 수 있다. 복수의 낭떠러지 감지부(132)가 구비될 수 있다.
센싱부(130)는 바닥의 영상을 획득하는 하부 영상 센서(137)를 더 포함할 수 있다.
로봇 청소기(100)는 본체(110)를 이동시키는 주행부(160)를 포함한다. 주행부(160)는 바닥에 대해 본체(110)를 이동시킨다. 주행부(160)는 본체(110)를 이동시키는 적어도 하나의 구동 바퀴(166)를 포함할 수 있다. 주행부(160)는 구동 모터를 포함할 수 있다. 구동 바퀴(166)는 본체(110)의 좌, 우 측에 각각 구비될 수 있으며, 이하, 각각 좌륜(166(L))과 우륜(166(R))이라고 한다.
좌륜(166(L))과 우륜(166(R))은 하나의 구동 모터에 의해 구동될 수도 있으나, 필요에 따라 좌륜(166(L))을 구동시키는 좌륜 구동 모터와 우륜(166(R))을 구동시키는 우륜 구동 모터가 각각 구비될 수도 있다. 좌륜(166(L))과 우륜(166(R))의 회전 속도에 차이를 두어 좌측 또는 우측으로 본체(110)의 주행방향을 전환할 수 있다.
로봇 청소기(100)는 청소 기능을 수행하는 청소부(180)를 포함한다.
로봇 청소기(100)는 청소 구역을 이동하며 청소부(180)에 의해 바닥을 청소할 수 있다. 청소부(180)는, 이물질을 흡입하는 흡입 장치, 비질을 수행하는 브러시(184, 185), 흡입장치나 브러시에 의해 수거된 이물질을 저장하는 먼지통(미도시) 및/또는 걸레질을 수행하는 걸레부(미도시) 등을 포함할 수 있다.
본체(110)의 저면부에는 공기의 흡입이 이루어지는 흡입구(180h)가 형성될 수 있다. 본체(110) 내에는 흡입구(180h)를 통해 공기가 흡입될 수 있도록 흡입력을 제공하는 흡입장치(미도시)와, 흡입구(180h)를 통해 공기와 함께 흡입된 먼지를 집진하는 먼지통(미도시)이 구비될 수 있다.
케이스(111)에는 상기 먼지통의 삽입과 탈거를 위한 개구부가 형성될 수 있고, 상기 개구부를 여닫는 먼지통 커버(112)가 케이스(111)에 대해 회전 가능하게 구비될 수 있다.
흡입구(180h)를 통해 노출되는 솔들을 갖는 롤형의 메인 브러시(184)와, 본체(110)의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 보조 브러시(185)가 구비될 수 있다. 이들 브러시(184, 185)들의 회전에 의해 주행구역 내 바닥으로부터 먼지들이 제거되며, 이렇게 바닥으로부터 분리된 먼지들은 흡입구(180h)를 통해 흡입되어 먼지통에 모인다.
배터리(138)는 상기 구동 모터뿐만 아니라, 로봇 청소기(100)의 작동 전반에 필요한 전원을 공급할 수 있다. 배터리(138)가 방전될 시, 로봇 청소기(100)는 충전을 위해 충전대(200)로 복귀하는 주행을 실시할 수 있으며, 이러한 복귀 주행 중, 로봇 청소기(100)는 스스로 충전대(200)의 위치를 탐지할 수 있다.
충전대(200)는 소정의 복귀 신호를 송출하는 신호 송출부(미도시)를 포함할 수 있다. 상기 복귀 신호는 초음파 신호 또는 적외선 신호일 수 있으나, 반드시 이에 한정되어야 하는 것은 아니다.
한편, 영상감지부(135)는 본체(110)의 상면부에 구비되어, 청지역 내의 천장에 대한 영상을 획득하나, 영상감지부(135)의 위치와 촬영범위가 반드시 이에 한정되어야 하는 것은 아니다. 예를 들어, 영상감지부(135)는 본체(110) 전방의 영상을 획득하도록 구비될 수도 있다.
또한, 로봇 청소기(100)는 On/Off 또는 각종 명령을 입력할 수 있는 조작부(도시하지 않음)를 더 포함할 수 있다.
도 6을 참고하면, 로봇 청소기(100)은 각종 데이터를 저장하는 저장부(150)를 포함한다. 저장부(150)에는 로봇 청소기(100)의 제어에 필요한 각종 데이터 들이 기록될 수 있다. 저장부(150)는 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 상기 기록 매체는 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장한 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등을 포함할 수 있다.
저장부(150)에는 청소 구역의 맵이 저장될 수 있다. 상기 맵은 로봇 청소기(100)와 유선 또는 무선 통신을 통해 정보를 교환할 수 있는 외부 단말기에 의해 입력된 것일 수도 있고, 로봇 청소기(100)가 스스로 학습을 하여 생성한 것일 수도 있다. 전자의 경우, 외부 단말기로는 맵 설정을 위한 어플리케이션(application)이 탑재된 리모컨, PDA, 랩탑(laptop), 스마트 폰, 태블렛 등을 예로 들 수 있다.
상기 맵에는 청소 구역 내의 복수의 지점에 대응(일대일대응)하는 복수의 노드의 위치가 표시될 수 있다. 상기 맵에는 청소 구역 내의 각 지역이 표시될 수 있다. 또한, 로봇 청소기(100)의 현재 위치가 상기 맵 상에 표시될 수 있다. 상기 맵 상에서의 로봇 청소기(100)의 현재 위치는 주행 과정에서 갱신될 수 있다.
주행 변위 측정부(165)는 상기 영상 감지부(135)에서 획득된 영상을 근거로 주행 변위를 측정할 수 있다. 주행 변위는, 로봇 청소기(100)의 이동 방향과 이동 거리를 포함하는 개념이다. 예를 들어, 주행 변위 측정부(165)는 로봇 청소기(100)의 연속적인 이동에 따라 달라지는 바닥 영상의 연속적인 픽셀(pixel) 비교를 통해서 주행 변위를 측정할 수 있다.
또한, 주행 변위 측정부(165)는 주행부(160)의 동작을 근거로 로봇 청소기(100)의 주행 변위를 측정할 수 있다. 예를 들어, 제어부(140)는 구동 바퀴(136)의 회전속도를 근거로 로봇 청소기(100)의 현재 또는 과거의 이동속도, 주행한 거리 등을 측정할 수 있으며, 각 구동 바퀴(136(L), 136(R))의 회전 방향에 따라 현재 또는 과거의 방향 전환 과정 또한 측정할 수 있다.
주행 변위 측정부(165)는 거리 감지부(131) 및 영상 감지부(135) 중 적어도 어느 하나를 이용하여 상기 주행 변위를 측정하는 것도 가능하다.
제어부(140)는 이렇게 측정된 주행 변위를 바탕으로, 맵 상에서 로봇 청소기(100)의 위치를 인식할 수 있다.
송신부(170)는 로봇 청소기의 정보를 다른 로봇 청소기나 중앙 서버에 송신해줄 수 있다. 수신부(190)는 다른 로봇 청소기나 중앙 서버로부터 정보를 수신할 수 있다. 송신부(170)가 송신하는 정보 또는 수신부(190)가 수신하는 정보는 로봇 청소기의 구성 정보를 포함할 수 있다.
이때, 수신부(190)와 송신부(170)는 주행 영역 내에 무선 네트워크 신호의 강도를 주기적으로 읽어들여 제어부(140)로 전달할 수 있다.
즉, 수신기(190)를 통해 주기적으로 무선 네트워크, 일 예로 와이파이 신호 강도를 파악하여 제어부(140)에 시간, 위치 및 무선 네트워크 id와 함께 전송할 수 있다.
로봇 청소기(100)는 각종 정보를 처리하고 판단하는 제어부(140)를 포함한다. 제어부(140)는 청소 구역을 학습하는 정보 처리를 수행할 수 있다. 제어부(140)는 맵 상의 현재 위치를 인식하는 정보 처리를 수행할 수 있다. 제어부(140)는 로봇 청소기(100)을 구성하는 각종 구성들(예를 들어, 주행 변위 측정부(165), 거리 감지부(131), 영상감지부(135), 주행부(160), 송신부(170), 수신부(190) 등)의 제어를 통해, 로봇 청소기(100)의 동작 전반을 제어할 수 있다.
본 실시예에 따른 제어방법은 제어부(140)에 의해 수행될 수 있다. 본 발명은 로봇 청소기(100)의 제어방법일 수 있으며, 상기 제어방법을 수행하는 제어부(140)를 포함하는 로봇 청소기(100)일 수도 있다. 본 발명은 상기 제어방법의 각 단계를 포함하는 컴퓨터 프로그램일 수 있고, 상기 제어방법을 컴퓨터로 구현하기 위한 프로그램이 기록된 기록매체일 수도 있다. 상기 '기록매체'는 컴퓨터로 판독 가능한 기록매체를 의미한다. 본 발명은 하드웨어와 소프트웨어를 모두 포함하는 이동 로봇 제어 시스템일 수 있다.
로봇 청소기(100)의 제어부(140)는 맵핑 및/또는 현재 위치를 인식하는 등 각종 정보를 처리하고 판단한다. 제어부(140)는 상기 영상 및 학습을 통해 청소 구역을 맵핑하고 현재 위치를 맵 상에서 인식 가능하게 구비될 수 있다. 즉, 제어부(140)는 슬램(SLAM : Simultaneous Localization and Mapping) 기능을 수행할 수 있다.
제어부(140)는 주행부(160)의 구동을 제어할 수 있다. 제어부(140)는 청소부(180)의 동작을 제어할 수 있다.
로봇 청소기(100)는 각종 데이터를 저장하는 저장부(150)를 포함한다. 저장부(150)는 로봇 청소기(100)의 제어에 필요한 각종 정보들을 기록하는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다.
현실의 청소 구역은 맵 상의 청소 구역과 대응될 수 있다. 상기 청소 구역은 로봇 청소기(100)가 주행 경험이 있는 모든 평면 상의 구역 및 현재 주행하고 있는 평면 상의 구역을 모두 합한 범위로 정의될 수 있다.
제어부(140)는 주행부(160)의 동작을 바탕으로 로봇 청소기(100)의 이동 경로를 파악할 수도 있다. 예를 들어, 제어부(140)는 구동 바퀴(166)의 회전속도를 바탕으로 로봇 청소기(100)의 현재 또는 과거의 이동속도, 주행한 거리 등을 파악할 수 있으며, 각 구동 바퀴(166(L), 166(R))의 회전 방향에 따라 현재 또는 과거의 방향 전환 과정 또한 파악할 수 있다. 이렇게 파악된 로봇 청소기(100)의 주행 정보를 바탕으로, 맵 상에서 로봇 청소기(100)의 위치가 갱신될 수 있다. 또한, 상기 영상 정보를 이용하여, 맵 상에서 로봇 청소기(100)의 위치가 갱신될 수도 있다.
구체적으로, 제어부(140)는 로봇 청소기(100)의 주행을 제어하고, 설정되는 주행 모드에 따라 주행부(160)의 구동을 제어한다. 주행부(160)의 주행 모드로서, 지그재그 모드, 엣지 모드, 나선형 모드 또는 복합형 모드 등을 선택적으로 설정할 수 있다.
지그재그 모드는 벽면이나 장애물로부터 소정 거리 이상으로 이격되어 지그재그로 주행하면서 청소하는 모드로 정의한다. 엣지 모드는 벽면에 붙어서 지그재그로 주행하면서 청소하는 모드로 정의한다. 나선형 모드는 대기 중의 한 곳을 중심으로 일정 영역 내에서 나선형으로 청소하는 모드로 정의한다.
한편, 제어부(140)는 청소 구역의 맵을 생성한다. 즉, 제어부(140)는 선행 청소를 통해 인식된 위치 및 각 지점에서 획득한 영상을 통해 청소 구역의 공간 지도를 형성할 수 있다. 제어부(140)는 또한 기 생성된 지도를 갱신하고, 조건에 따라 생성된 공간 지도의 청소 구역의 형태를 분류하고, 분류된 형태에 따라 청소 방법을 매칭할 수 있다. 또한, 이러한 제어부(140)는 기본 모드로 청소를 진행하는 것과 매칭된 청소 방법으로 청소를 진행하는 것의 효율을 연산하여 효율이 높은 방법으로 로봇 청소기(100)의 청소를 실행한다.
이러한 제어부(140)는 센싱부(130)의 감지신호, 구체적으로는 거리 감지부(131) 및 낭떠러지 감지부(132)로부터의 감지 신호에 따라 기초 맵을 생성한다. 이와 같은 기초 맵은 일반적인 격자 맵일 수 있으며, 실질적으로 로봇 청소기(100)가 주행을 하면서 회전하는 방향, 직진 이동 거리, 벽으로부터의 이격 거리 등을 기초로 작성될 수 있다.
이러한 제어부(140)는 영상 감지부(135)로부터의 영상 데이터로부터 공간 정보를 추출하고, 추출된 공간 정보를 기초 맵에 부가하여 공간 지도를 생성할 수 있다.
제어부(140)는 상기 공간 지도를 형성하기 위한 맵 형성부를 더 포함할 수 있으나, 제어부(140) 내에서 함께 프로세싱 가능하다.
맵 생성부는 선행 청소를 통해 획득되는 감지 신호를 통해 기초 맵을 생성하고, 기초 맵에 영상 데이터로부터의 공간 정보를 부가하여 공간 지도를 생성할 수 있다. 이때, 맵 생성부는 연속적으로 촬영되어 생성되는 영상 데이터로부터 공간에 대한 상세 정보인 공간 정보를 추출하여 공간 지도에 부가할 수 있다.
구체적으로, 맵 생성부는 연속적인 영상 데이터에서 직선 추출을 수행하고, 소실점을 추출하는 것이 가능하다. 또한, 직선을 정합하여 모서리를 추출할 수 있으며, 각도 계산이 가능하다. 또한 직선 깊이를 추측할 수 있도록 삼각 측량이 가능하다. 이와 같은 공간 정보에 의해 공간의 넓이, 공간의 높이 등도 추출이 가능하다. 또한, 맵 생성부는 영상 데이터로부터 장애물이 검출되면, 이와 같은 장애물을 컴볼루션 신경망 기법 등의 알고리즘을 통해 장애물의 크기를 폭과 길이뿐만 아니라 높이까지 판단가능하며, 해당 장애물이 어떠한 물품인지에 대한 정보까지 추출 가능하다. 이와 같이 장애물에 대한 명명과 크기가 정의 가능하며 장애물에 대한 정보 또한 공간 지도에 반영하여 최종 공간 지도를 형성할 수 있다.
이와 같은 최종 공간 지도는 일반적인 격자 구조를 가지는 2차원의 기초 맵과 달리, 공간을 구획할 수 있도록 벽과 벽으로 이루어져 있으며, 벽과 벽이 이루는 공간과 다른 공간을 구분할 수 있도록 구획 가능하게 도시되어 있다.
맵 생성부는 이러한 최종 공간 지도를 기초로 또는 기초 맵으 기초로 한번에 주행하여 청소를 진행할 수 있도록 복수의 분할 구역으로 구획할 수 있다.
이와 같은 최종 공간 지도의 형성 및 분할 구역 구획은 맵 생성부에서 진행 가능하나, 앞서 설명한 바와 같이 제어부(140)에서 일괄적으로 진행 가능하다.
제어부(140)는 맵핑된 청소 구역의 면적에 따라 청소 구역을 구획하여 구획된 각 분할 구역의 형태에 따른 최적의 청소 방법을 매칭할 수 있다.
제어부(140)는 거리 감지부(131) 및 영상감지부(135) 중 적어도 어느 하나를 이용하여, 현재 위치를 인식할 수 있으며, 맵 상에서 현재 위치를 인식할 수 있다.
입력부(171)는 On/Off 또는 각종 명령을 입력 받을 수 있다. 입력부(171)는 버튼, 키 또는 터치형 디스플레이 등을 포함할 수 있다. 입력부(171)는 음성 인식을 위한 마이크를 포함할 수 있다.
출력부(173)는 각종 정보를 사용자에게 알릴 수 있다. 출력부(173)는 스피커 및/또는 디스플레이를 포함할 수 있다.
한편, 제어부(140)는 청소를 수행하고 수득한 정보를 이용하여 청소 구역을 맵핑하며, 거리 감지부(131)를 통해 청소 구역에 존재하는 복수의 전자 제품(4) 중 IR신호로 제어되는 복수의 전자 제품(4)의 존재에 대하여 감지하고, 그에 대한 전자 제품(4)의 ID 및 위치에 대한 정보를 맵핑된 공간 지도에 함께 나타냄으로써 로봇 청소기의 제어를 통해 복수의 전자 제품(4)의 간접 제어를 수행할 수 있다.
이하에서는 도 7 내지 도 10을 참고하여 본 발명의 실시예에 따른 제어 방법에 대하여 설명한다.
도 7은 본 발명의 일 실시예에 따른 로봇 청소기의 제어방법을 도시한 순서도이고, 도 8은 도 7의 로봇 청소기의 제어 방법을 시스템에서 제어하기 위한 순서도이고, 도 9는 도 7 및 도 8의 순서도를 설명하는 공간 지도를 나타내는 도면이며, 도 10은 도 7 및 도 8의 순서도에 따른 사용자 단말의 상태를 나타내는 도면이다.
각 순서도들에서 서로 중복되는 내용은 동일한 도면 부호로 표기하고, 중복되는 설명은 생략한다.
제어방법은 제어부(140)에 의해 수행될 수 있다. 제어방법의 순서도 도면들의 각 단계와 순서도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션(instruction)들에 의해 수행될 수 있다. 상기 인스트럭션들은 범용 컴퓨터 또는 특수용 컴퓨터 등에 탑재될 수 있고, 상기 인스트럭션들이 순서도 단계(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다.
또한, 몇 가지 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능하다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
도 7을 참고하면, 일 실시예에 따른 제어 방법은 서버(2) 또는 사용자 단말(3)을 통해 청소 시작 정보를 수신한다(S100).
이때, 로봇 청소기(100)는 현재 위치에서부터 청소 구역의 청소를 진행한다(S110).
제어부(140)는 청소 구역의 주행을 진행하면서 청소를 수행하고, 청소 구역에 대한 감지를 수행하여 각 감지 신호를 축적한다.
이때, 청소 시의 주행은 엣지 모드 또는 지그재그 모드로 주행이 진행될 수 있다.
구체적으로 로봇 청소기(100)는 IR 센서를 통한 거리 감지부(131)를 통해 주변 환경을 감지함으로써 도 9와 같이 일반적인 격자 지도를 위한 데이터를 획득한다.
즉, 엣지 모드 또는 지그재그 모드로 진행하면서 장애물 감지 센서를 통해 거리 감지부(131)로부터 주행 가능 영역 및 주행 불가능 영역을 구분하면서 도 9와 같은 격자 지도를 작성할 수 있으며, 이때 작성된 격자 지도를 기초 맵으로 정의할 수 있다.
도 9와 달리 공간 지도를 형성할 수 있으며, 이와 같이 공간 지도를 형성할때 영상 감지부(135)가 수득한 연속적으로 촬영된 영상 데이터에서 파악한 공간 정보를 중첩하면 최종적인 공간 정보가 파악될 수 있다. 이때, 공간 정보 파악을 위해 제어부(140)는 직선 추출, 소실점 추출, 직선 정합, 직선 깊이 추측을 위한 삼각 측량 등의 알고리즘을 수행할 수 있다.
다음으로, 제어부(140)는 주기적으로 해당 청소 구역에서 IR 신호를 통해 제어 가능한 전자 제품(4)이 있는지 여부를 감지한다(S120).
즉, 각 청소 구역 내에 거리 감지부(131)의 IR 센서로부터의 IR 신호를 발생하고 해당 IR 신호에 대한 회신을 수신하여, 종속적으로 제어 가능한 전자 제품(4)이 있는지 여부를 감지한다.
이와 같은 IR 신호에 대한 회신 감지는 거리 감지부(131)의 IR 센서를 통해 진행될 수 있으나, 이를 위한 별도의 IR 센서를 구비하고 있을 수 있다.
제어부(140)는 IR 신호에 대한 회신을 분석하여 각 회신의 전자 제품(4)의 ID와해당 전자 제품(4)의 위치에 대한 데이터를 매칭하여 저장할 수 있다.
마지막 청소 구역까지 이동하여 청소를 진행하면(S130), 청소를 완료하고, 마지막 청소 구역까지에 대한 맵핑을 수행한다(S140).
이때, 제어부(140)는 청소 구역의 물리적인 정보를 나타내는 공간 지도 또는 격자 지도인 기초 맵을 형성하고, 각 기초 맵에서 특정 주행 모드로 주행을 수행하는 단위인 분할 구역으로 구분한다.
이와 같은 분할 구역은 형상에 따라 에지 모드, 또는 지그재그 모드로 주행하면서 청소를 진행할 수 있는 작은 면적의 구역일 수 있다.
이때, 제어부(140)는 각 분할 구역 내에 위치하는 각 전자 제품(4)에 대하여 해당 전자 제품(4)의 위치에 대응하도록 기초 맵에 표시하는 최종 맵을 작성할 수 있다.
이와 같은 최종 맵의 복수의 전자 제품(4)의 위치는 도 9와 같이 하나의 청소 구역이 5개의 분할 구역으로 구획될 때, 각 분할 구역 내에 점 또는 별 등으로 표시하는 표시점으로 나타낼 수 있으며, 도 9와 같이 각 표시점 옆에 해당 전자 제품(4)에 대한 ID를 간략하게 표시 가능하다.
일 예로, 전자 제품(4)에 대한 ID는 제품의 큰 분류명으로 나타낼 수 있으나 이에한정되지 않는다.
도 9에서는 각 분할 구역 내에 존재하는 전자 제품(4)에 대하여, 각 분할 구역의 넘버링에 종속하여 제품의 분류명 + 분할 구역의 넘버링으로 ID를 나타낼 수 있으나, 이에 한정되는 것은 아니다.
제어부(140)가 최종 맵을 완성하면, 서버(2) 및 사용자 단말(3)에 제공할 수 있다(S150).
도 8을 참고하면, 이와 같이 동작하여 최종 맵을 생성하는 로봇 청소기(100)를 사용자 단말의 어플리케이션을 통해 제어하는 방법을 설명한다.
먼저, 사용자 단말(3)은 서버(2) 등으로부터 제공되는 로봇 청소기(100)를 제어하기 위한 어플리케이션을 다운로드하고 사용자 단말(3) 내에 설치한다(S200).
사용자는 사용자 단말(3)의 해당 어플리케이션을 실행하여 로봇 청소기(100)로 청소 시작 명령을 전송한다(S210).
로봇 청소기(100)는 현재 위치에서부터 청소 구역의 청소를 진행한다(S220).
제어부(140)는 청소 구역의 주행을 진행하면서 청소를 수행하고, 청소 구역에 대한 감지를 수행하여 각 감지 신호를 축적한다.
이하의 전자 제품(4)의 정보 수득 및 청소 진행은 도 7에서 설명한 것과 동일하다
즉, 로봇 청소기(100)는 주기적으로 해당 청소 구역에서 IR 신호를 통해 제어 가능한 전자 제품(4)이 있는지 여부를 감지한다(S230).
즉, 각 청소 구역 내에 거리 감지부(131)의 IR 센서로부터의 IR 신호를 발생하고 해당 IR 신호에 대한 회신을 수신하여, 각 청소 구역 내에 존재하는 전자 제품(4)의 유무를 감지한다.
이와 같은 IR 신호에 대한 회신 감지는 거리 감지부(131)의 IR 센서를 통해 진행될 수 있으나, 이를 위한 별도의 IR 센서를 구비하고 있을 수 있다.
제어부(140)는 IR 신호에 대한 회신을 분석하여 각 회신의 전자 제품(4)의 ID와해당 전자 제품(4)의 위치에 대한 데이터를 매칭하여 저장할 수 있다.
이때, 로봇 청소기(100)는 해당 데이터를 서버(2)에 전송하여 저장하도록 유도할 수 있다(S240).
마지막 청소 구역까지 이동하여 청소를 진행하면, 청소를 완료하고, 마지막 청소 구역까지에 대한 맵핑을 도 7과 같이 수행한다(S250).
이때, 제어부(140)는 각 분할 구역 내에 위치하는 각 전자 제품(4)에 대하여 해당 전자 제품(4)의 위치에 대응하도록 기초맵에 표시하는 최종 맵을 작성할 수 있다.
이와 같은 최종 맵의 복수의 전자 제품(4)의 위치는 도 9와 같이 하나의 청소 구역이 5개의 분할 구역으로 구획될 때, 각 분할 구역 내에 점 또는 별 등으로 표시하는 표시점으로 나타낼 수 있으며, 각 표시점 옆에 해당 전자 제품(4)에 대한 ID를 간략하게 표시 가능하다.
제어부(140)가 최종 맵을 완성하면, 서버(2) 및 사용자 단말(3)에 제공할 수 있다(S260).
다음으로, 사용자 단말(3)은 로봇 청소기(100)로부터의 최종 맵에 대한 데이터를 수신하고, 도 10과 같이 로봇 청소기(100)의 제어 어플리케이션을 실행할 때, 도 9와 같은 최종 맵을 사용자에게 표시하여 제공한다(S270).
이때, 사용자 단말(3)의 어플리케이션은 사용자가 최종 맵에서 특정 위치를 선택하는 경우, 해당 특정 위치가 포함되는 분할 영역 내에 포함되는 전자 제품(4)을 리스트로 제공한다.
즉, 사용자가 터치 등으로 특정 위치를 선택할 때, 예를 들어, 도 10과 같이 제2 분할 영역(P2) 내의 특정 위치를 선택하면, 어플리케이션으로 해당 분할 영역인 제2 분할 영역(P2) 내의 제어가능한 전자 제품(4)의 리스트가 제공된다.
예를 들어, 제2 분할 영역(P2) 내에 IR 신호로 제어 가능한 전자 제품(4)이 전등(Light2), 공기조화기(Airconditioner 2) 및 TV(TV2)가 도 10과 같이 제공될 수 있다.
이때, 사용자가 특정 전자 제품(4)에 대한 선택을 수행하면(S280), 사용자 단말(3)은 이에 대한 선택 정보를 어플리케이션을 통해 상기 로봇 청소기(100)에 바로 전송한다(S290).
특정 전자 제품(4)에 대한 선택 정보를 수신하면, 로봇 청소기(100)는 특정 전자 제품(4)이 있는 위치로 이동한다(S300).
일 예로, 도 10의 리스트에서 사용자가 터치로 전등(Light2)을 선택하면, 로봇 청소기(100)는 제2 분할 영역(P2) 내로 이동하여 전등으로 IR 신호를 전송할 수 있는 거리까지 이동한다.
다음으로, 로봇 청소기(100)는 이동한 위치에서 해당 전자 제품(4), 예로 들은 전등(Light 2)으로 조작 신호를 IR 신호로 전송한다(S310).
이때, IR 신호로 전등(Light 2)의 온/오프를 제어할 수 있으나, 이에 한정되는 것은 아니다.
다음으로, 로봇 청소기(100)는 해당 전자 제품(4)으로부터 IR 신호에 대한 회신을 수신하여 제대로 조작이 되었는지 판단하고(S320), 사용자 단말(3)의 어플리케이션으로 해당 조작 완료 신호를 전송한다(S330).
사용자 단말(3)은 어플리케이션을 통해 상기 조작 명령에 대한 청소 구역 내의 전자 제품(4)에 대한 조작이 완료되었음을 표시하고 사용자 알람할 수 있다.
이와 같이, 로봇 청소기(100)가 청소 구역을 주행하면서 청소를 진행할 때, 해당 청소 구역 내에 IR 신호로 제어 가능한 종속 전자 제품(4)의 존재를 감지하고, 이를 청소 구역의 지도에 반영하여 제공할 수 있다.
따라서, 원거리에 위치한 각종 전자 제품(4)에 대한 원거리 제어가 로봇 청소기(100)의 제어만으로 가능하며, 로봇 청소기(100)가 직접 해당 전자 제품(4) 근거리로 이동하여 IR 신호로 조작함으로써 실제로 리모컨과 유사하게 활용될 수 있다.
또한, 각종 전자 제품(4)에 대하여 스마트 제어가 직접적으로 되지 않는 경우에도 로봇 청소기(100)가 직접 이동하여 IR 신호로 제어함으로써 통합적인 스마트 관리가 가능하다.
2: 서버 3: 사용자 단말
100 : 로봇 청소기 120 : 센싱부
140 : 제어부 150 : 저장부
160 : 주행부 135: 영상 감지부
180 : 청소부 200 : 충전대

Claims (16)

  1. 본체를 이동시키는 주행부;
    청소 기능을 수행하는 청소부;
    주변 환경을 감지하는 센싱부;
    청소 구역 내의 적어도 하나의 전자 제품과 IR 신호를 송수신하는 IR 센서부; 및
    청소 구역에 청소를 진행하여, 상기 센싱부를 통해 감지된 정보를 기초로 상기 청소 구역에 대한 물리적 정보와 상기 IR 신호로 제어가능한 적어도 하나의 종속 전자제품에 대한 정보가 포함된 지도를 생성하고, 외부로부터의 명령에 따라 특정 종속 전자제품을 조작하도록 제어하는 제어부;
    를 포함하는 로봇 청소기.
  2. 제1항에 있어서,
    상기 지도는
    상기 청소 구역에 대한 물리적인 정보 및 상기 IR 신호로 제어가능한 적어도 하나의 종속 전자제품의 위치 및 ID가 함께 표시되는 것을 특징으로 하는 로봇 청소기.
  3. 제2항에 있어서,
    상기 제어부는,
    상기 센싱부로부터 수득된 감지된 정보로부터 상기 청소 구역에 대한 물리적인 정보만을 가지는 기초 맵을 작성하는 것을 특징으로 하는, 로봇 청소기.
  4. 제3항에 있어서,
    상기 제어부는,
    상기 청소 구역의 기초 맵에서 상기 송수신부로부터의 무선 네트워크 가능 영역을 별도로 표시하는 지도를 생성하는 것을 특징으로 하는, 로봇 청소기.
  5. 제4항에 있어서,
    상기 제어부는,
    상기 청소 구역에서 주기적으로 주변에 IR 신호를 발송하여 수득되는 IR 신호를 판단하여 상기 IR 신호로 제어가능한 종속 전자 제품에 대한 정보 및 위치를 저장하는 것을 특징으로 하는, 로봇 청소기.
  6. 제5항에 있어서,
    상기 제어부는,
    외부로부터 상기 종속 전자 제품에 대한 제어 명령을 수득하면, 상기 종속 전자 제품이 있는 영역으로 이동하도록 상기 주행부를 제어하는 것을 특징으로 하는, 로봇 청소기.
  7. 제6항에 있어서,
    상기 종속 전자 제품이 있는 영역으로 이동하고, 상기 종속 전자 제품으로 IR신호를 발송하여 제어하는 것을 특징으로 하는, 로봇 청소기.
  8. 제7항에 있어서,
    상기 제어부는 외부로 상기 종속 전자 제품의 제어 완료에 대한 정보를 전송하는 것을 특징으로 하는, 로봇 청소기.
  9. 제1항에 있어서,
    상기 로봇 청소기는,
    엣지 모드 또는 지그재그 모드로 청소를 진행하면서 상기 청소 구역에 대한 정보 및 IR 신호에 대한 정보를 수집하는 것을 특징으로 하는, 로봇 청소기.
  10. 청소 구역에 청소를 진행하여, 센싱부를 통해 감지 신호를 수득하고, IR 센서부로부터 상기 청소 구역 내의 적어도 하나의 전자 제품로부터의 IR 신호를 수득하는 단계
    상기 감지 신호, 및 IR 신호를 기초로 상기 청소 구역에 대한 지도를 생성하는 단계; 및
    외부로부터의 명령에 따라 특정 종속 전자제품의 위치로 이동하여 상기 특정 종속 전자 제품을 제어하는 단계
    를 포함하는 로봇 청소기의 제어 방법.
  11. 제10항에 있어서,
    상기 지도는
    상기 청소 구역에 대한 물리적인 정보 및 상기 IR 신호로 제어가능한 적어도 하나의 종속 전자제품의 위치 및 ID가 함께 표시되는 것을 특징으로 하는 로봇 청소기의 제어 방법.
  12. 제11항에 있어서,
    상기 지도를 생성하는 단계는, 상기 센싱부로부터 수득된 감지된 정보로부터 상기 청소 구역에 대한 물리적인 정보만을 가지는 기초 맵을 작성하는 단계를 포함하는 것을 특징으로 하는, 로봇 청소기의 제어 방법.
  13. 제12항에 있어서,
    상기 지도를 생성하는 단계는, 상기 청소 구역의 기초 맵에서 상기 송수신부로부터의 무선 네트워크 가능 영역을 별도로 표시하는 지도를 생성하는 단계를 더 포함하는 것을 특징으로 하는, 로봇 청소기의 제어 방법.
  14. 제13항에 있어서,
    IR 신호를 수득하는 단계는,
    상기 청소 구역에서 주기적으로 주변에 IR 신호를 발송하여 수득되는 IR 신호를 판단하여 상기 IR 신호로 제어가능한 종속 전자 제품에 대한 정보 및 위치를 저장하는 것을 특징으로 하는, 로봇 청소기의 제어 방법.
  15. 제14항에 있어서,
    상기 종속 전자 제품이 있는 영역으로 이동하고, 상기 종속 전자 제품으로 IR신호를 발송하여 제어하는 것을 특징으로 하는, 로봇 청소기의 제어 방법.
  16. 제15항에 있어서,
    외부로 상기 종속 전자 제품의 제어 완료에 대한 정보를 전송하는 단계를 더 포함하는 것을 특징으로 하는, 로봇 청소기의 제어 방법.
KR1020200002652A 2020-01-08 2020-01-08 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법 KR20210089463A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200002652A KR20210089463A (ko) 2020-01-08 2020-01-08 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200002652A KR20210089463A (ko) 2020-01-08 2020-01-08 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법

Publications (1)

Publication Number Publication Date
KR20210089463A true KR20210089463A (ko) 2021-07-16

Family

ID=77150944

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200002652A KR20210089463A (ko) 2020-01-08 2020-01-08 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법

Country Status (1)

Country Link
KR (1) KR20210089463A (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150124535A (ko) 2014-04-28 2015-11-06 한국전자통신연구원 실내지도와 와이파이맵 동시 생성 방법 및 시스템
KR20170004493A (ko) 2015-07-02 2017-01-11 주식회사 스마트올웨이즈온 Ir 신호를 학습하여 종속 전자 장치를 제어하거나 종속 전자 장치의 제어를 지원하기 위한 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150124535A (ko) 2014-04-28 2015-11-06 한국전자통신연구원 실내지도와 와이파이맵 동시 생성 방법 및 시스템
KR20170004493A (ko) 2015-07-02 2017-01-11 주식회사 스마트올웨이즈온 Ir 신호를 학습하여 종속 전자 장치를 제어하거나 종속 전자 장치의 제어를 지원하기 위한 방법 및 장치

Similar Documents

Publication Publication Date Title
EP3727122B1 (en) Robot cleaners and controlling method thereof
KR102470532B1 (ko) 복수의 자율주행 이동 로봇
KR102021833B1 (ko) 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
KR101976424B1 (ko) 이동 로봇
KR102275300B1 (ko) 이동 로봇 및 그 제어방법
TWI739100B (zh) 複數個移動式機器人及其控制方法
KR102423573B1 (ko) 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
WO2017141536A1 (ja) 自律走行体
US11700989B2 (en) Mobile robot using artificial intelligence and controlling method thereof
WO2018087951A1 (ja) 自律走行体
TWI731555B (zh) 移動式機器人及控制複數個移動式機器人的方法
US20220032450A1 (en) Mobile robot, and control method of mobile robot
US20220257074A1 (en) Mobile robot using artificial intelligence and controlling method thereof
US11571817B2 (en) Mobile robot and method for operating the same
KR102428216B1 (ko) 인공지능을 이용한 이동 로봇, 이동 로봇의 제어방법, 및 이동 로봇의 제어 시스템
KR20210041312A (ko) 로봇 청소기 및 그 제어 방법
KR102360875B1 (ko) 복수의 로봇 청소기 및 그 제어방법
KR20210089461A (ko) 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
KR20200142865A (ko) 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
KR20210089463A (ko) 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
KR20210113902A (ko) 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
TWI760881B (zh) 清掃機器人及其控制方法
KR102203438B1 (ko) 이동 로봇 및 이동 로봇의 제어방법
KR20210089464A (ko) 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
KR102245953B1 (ko) 복수의 전자기기의 제어방법