KR20170103556A - 이동 로봇 및 그 제어방법 - Google Patents

이동 로봇 및 그 제어방법 Download PDF

Info

Publication number
KR20170103556A
KR20170103556A KR1020160026616A KR20160026616A KR20170103556A KR 20170103556 A KR20170103556 A KR 20170103556A KR 1020160026616 A KR1020160026616 A KR 1020160026616A KR 20160026616 A KR20160026616 A KR 20160026616A KR 20170103556 A KR20170103556 A KR 20170103556A
Authority
KR
South Korea
Prior art keywords
dimensional
camera sensor
main body
mobile robot
dimensional camera
Prior art date
Application number
KR1020160026616A
Other languages
English (en)
Other versions
KR101897775B1 (ko
Inventor
박성길
전형신
이정현
최혁두
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020160026616A priority Critical patent/KR101897775B1/ko
Publication of KR20170103556A publication Critical patent/KR20170103556A/ko
Application granted granted Critical
Publication of KR101897775B1 publication Critical patent/KR101897775B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 이동 로봇에 관한 것으로서, 보다 상세하게는, 자율 주행을 수행하는 청소기에 관한 것으로서, 본체, 상기 본체를 이동시키기 위한 구동력을 제공하는 구동부, 상기 본체의 일면에 부착되어, 상기 본체의 주위와 관련된 3차원 좌표 정보를 생성하는 3차원 카메라 센서, 상기 생성된 3차원 좌표 정보에 근거하여, 상기 본체의 주위에 분포된 복수의 지점과 상기 본체의 일 지점 사이의 거리를 산출하고, 상기 산출된 복수의 거리 값을 이용하여, 상기 본체의 주위에 존재하는 지형 및 장애물 중 적어도 하나와 관련된 정보를 검출하고, 상기 검출된 정보에 근거하여 상기 구동부를 제어하는 제어부를 포함한다.

Description

이동 로봇 및 그 제어방법{MOVING ROBOT AND CONTROLLING METHOD THEREOF}
본 발명은 이동 로봇 및 그 제어 방법에 관한 것으로서, 보다 상세하게는, 자율 주행을 수행하는 청소기 및 그 제어 방법에 관한 것이다.
일반적으로 로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다.
상기 가정용 로봇의 대표적인 예는 로봇 청소기로서, 일정 영역을 스스로 주행하면서 주변의 먼지 또는 이물질을 흡입하여 청소하는 가전기기의 일종이다. 이러한 로봇 청소기는 일반적으로 충전 가능한 배터리를 구비하고, 주행 중 장애물을 피할 수 있는 장애물 센서를 구비하여 스스로 주행하며 청소할 수 있다.
최근에는, 로봇 청소기가 청소 영역을 단순히 자율적으로 주행하여 청소를 수행하는 것에서 벗어나 로봇 청소기를 헬스 케어, 스마트홈, 원격제어 등 다양한 분야에 활용하기 위한 연구가 활발하게 이루어지고 있다.
구체적으로, 기존의 로봇 청소기는 장애물과 관련된 정보를 검출하기 위해, 적외선 센서, 초음파 센서, RF 센서(Radio Frequency Sensor), 광 센서, 또는 2차원 영상을 획득하는 카메라 센서만을 구비한다. 따라서, 기존의 로봇 청소기에서는 정확한 장애물 정보를 얻기 어려운 문제점이 있다.
특히, 기존의 로봇 청소기는 일반적으로 2차원 카메라 센서에 의해 획득된 2차원 영상 정보를 이용하여 장애물을 검출하는데, 이러한 2차원 영상 정보만으로는 장애물과 로봇 본체 사이의 거리, 장애물의 입체적 형태 등을 정확하게 검출하기 어렵다.
또한, 기존의 로봇 청소기는 장애물 정보를 검출하기 위해 2차원 영상 정보로부터 특징점을 추출하는데, 2차원 영상 정보가 특징점 추출이 불리하도록 형성된 경우에는 검출된 장애물 정보의 정확도가 현저히 저하된다.
한편, 기존의 로봇 청소기는 바닥면의 재질과 관련된 정보를 검출하기 위해, 구동모터의 출력 값에 근거하여, 바닥면의 재질에 따른 로봇 청소기의 구동모터의 출력 레벨을 결정하거나 로봇 청소기가 정상적으로 작동중인지 여부를 판단한다. 그러나, 바닥면의 재질에 따라 구동모터의 출력 값이 변화하는 정도가 일정하지 않으므로, 이러한 판단방법은 정확도가 떨어지는 문제점이 있다.
이와 같은 문제점을 해결하기 위해 3차원 카메라 센서를 탑재한 로봇 청소기의 필요성이 대두되고 있다.
다만, 3차원 카메라 센서는 2차원 카메라 센서에 비해 시야각이 좁으므로, 3차원 카메라 센서를 이용하는 로봇 청소기가 일 시점에서 장애물 정보를 획득할 수 있는 영역이 다소 제한적인 문제점이 발생한다.
또한, 3차원 카메라 센서는 2차원 카메라 센서에 비해 더 많은 양의 데이터를 획득하므로, 3차원 카메라 센서를 이용하는 로봇 청소기의 연산량이 과도하게 증가할 수 있다.
로봇 청소기의 연산량이 과도하게 증가하게 되면, 장애물 정보를 검출하고 그에 대응되는 주행 알고리즘을 결정하기까지 소요되는 시간이 증가하기 때문에, 주변 장애물에 대해 즉각적으로 반응하기 어려운 문제점이 있다.
본 발명이 해결하고자 하는 기술적 과제는, 이동 로봇 또는 로봇 청소기 주변의 지형 또는 그 주변에 위치하는 장애물과 관련된 3차원 좌표정보를 획득하는 3차원 카메라 센서를 이용하여, 로봇의 위치를 인식하거나 장애물 회피 주행을 수행하는 자율주행을 수행하는 청소기 및 그의 제어방법을 제공하는 것이다.
또한, 본 발명의 목적은 3차원 카메라 센서에서 획득된 3차원 좌표정보를 이용하여 바닥면과 관련된 정보를 검출하는 과정에서, 연산량을 감소시켜 장애물에 즉각적으로 대응할 수 있는 자율주행을 수행하는 청소기 및 그의 제어방법을 제공하는 것이다.
또한, 본 발명의 목적은 3차원 카메라 센서에서 획득된 3차원 좌표정보를 이용하여 바닥면과 관련된 정보를 검출하는 과정에서, 노이즈 정보에 의한 영향을 감소시켜 보다 정확하게 평면을 추출할 수 있는 자율주행을 수행하는 청소기 및 그의 제어방법을 제공하는 것이다.
또한, 본 발명의 목적은 3차원 카메라 센서를 이용하여, 장애물과 본체 사이의 거리와 장애물의 형태를 보다 정확하게 검출할 수 있는 자율주행을 수행하는 청소기 및 그의 제어방법을 제공하는 것이다.
또한, 본 발명의 목적은 3차원 카메라 센서의 시점이 변경되는 경우에도, 장애물과 관련된 정보를 정확하게 검출할 수 있는 자율주행을 수행하는 청소기 및 그의 제어방법을 제공하는 것이다.
본 발명의 기술적 과제를 해결하기 위해, 본 발명에 따른 자율주행을 수행하는 청소기는 본체와, 상기 본체를 이동시키기 위한 구동력을 제공하는 구동부와, 상기 본체의 일면에 부착되어, 상기 본체의 주위와 관련된 3차원 좌표 정보를 생성하는 3차원 카메라 센서를 구비한다.
아울러, 본 발명에 따른 자율주행을 수행하는 청소기는 상기 생성된 3차원 좌표 정보에 근거하여, 상기 본체의 주위에 분포된 복수의 지점과 상기 본체의 일 지점 사이의 거리를 산출하고, 상기 산출된 복수의 거리 값을 이용하여, 상기 본체의 주위에 존재하는 지형 및 장애물 중 적어도 하나와 관련된 정보를 검출하고, 상기 검출된 정보에 근거하여 상기 구동부를 제어하는 제어부를 포함한다.
일 실시예에 있어서, 상기 3차원 카메라 센서는 상기 본체의 진행방향 측에 위치하는 바닥면과 관련된 영상을 촬영하고, 상기 바닥면과 관련된 영상에 포함된 복수의 지점에 각각 대응되는 복수의 3차원 좌표 정보를 생성하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 복수의 지점은, 상기 촬영된 영상의 기준 지점으로부터 소정의 거리 이내에 위치하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 복수의 지점은, 상기 기준 지점을 포함하는 격자를 형성하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 제어부는 상기 복수의 3차원 좌표 정보를 이용하여, 상기 본체의 일 지점으로부터, 상기 복수의 지점까지의 거리를 각각 산출하고, 상기 산출된 복수의 거리 값들의 산포도(degree of scattering)에 근거하여, 상기 구동부의 출력 레벨을 설정하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 제어부는 상기 산출된 복수의 거리 값들의 평균 값과, 분산을 산출하고, 상기 산출된 평균 값 및 분산에 근거하여, 상기 구동부의 출력 레벨을 설정하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 바닥면과 본체 사이의 거리 값과 관련된 데이터베이스를 저장하는 메모리를 더 포함하고, 상기 제어부는 상기 산출된 복수의 거리 값들을 이용하여 상기 데이터베이스를 업데이트하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 제어부는 상기 산출된 분산이 기 설정된 기준 분산 값보다 크면, 상기 구동력을 증가시키도록 상기 구동부를 제어하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 구동부의 출력과 관련된 정보를 감지하는 출력감지수단을 더 포함하고, 상기 제어부는 상기 출력감지수단을 이용하여, 단위시간 동안의 상기 구동부의 출력 변화가 기 설정된 임계 값을 초과하는지 여부를 판단하고, 상기 출력 변화와 관련된 판단결과에 따라, 상기 본체의 진행방향 측에 위치하는 바닥면과 관련된 영상을 촬영하도록 상기 3차원 카메라 센서를 제어하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 3차원 카메라 센서와 상기 본체 상호 간 결합되고, 상기 3차원 카메라 센서가 지향하는 방향을 변경시키는 연결부재를 더 포함하고, 상기 연결부재는 상기 3차원 카메라 센서를 틸팅(tilting)시키는 제1 회전 모터와, 상기 3차원 카메라 센서를 패닝(pannign)시키는 제2 회전 모터를 포함하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 제어부는 상기 3차원 좌표 정보에 근거하여, 상기 본체의 주위에 배치된 장애물과 관련된 정보를 검출하고, 검출된 장애물에 대해 회피 주행을 수행하도록 상기 구동부를 제어하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 제어부는 상기 회피 주행을 수행하는 경우, 상기 본체의 이동 방향을 예측하고, 예측된 이동 방향에 근거하여 상기 3차원 카메라 센서가 지향하는 방향이 변경되도록 상기 연결부재를 제어하는 것을 특징으로 한다.
일 실시예에 있어서, 상기 제어부는 상기 예측된 이동 방향과 반대 방향으로 상기 3차원 카메라 센서를 회전시키는 것을 특징으로 한다.
일 실시예에 있어서, 상기 제어부는 상기 회피 주행이 완료되면, 상기 3차원 카메라 센서가 지향하는 방향을 상기 본체의 이동 방향으로 회귀시키는 것을 특징으로 한다.
일 실시예에 있어서, 상기 제어부는 상기 생성된 3차원 좌표 정보 중 어느 하나에 대해, 이웃하는 3차원 좌표 정보를 이용하여 법선 벡터 정보를 생성하고, 생성된 벡터 정보에 근거하여 평면을 형성하는 영역을 검출하며, 검출된 영역 중 바닥면에 해당하는 영역을 검출하는 것을 특징으로 한다.
본 발명에 따르면, 이동 로봇이 3차원 카메라 센서를 이용하여 장애물과 관련된 3차원 좌표 정보를 획득할 수 있으므로, 이동 로봇이 이동 로봇의 주변에 위치하는 지형 또는 장애물과 관련된 정보를 보다 정확하게 획득할 수 있는 효과가 도출된다.
또한, 본 발명에 따르면, 이동 로봇이 3차원 좌표 정보를 이용하여 이동 로봇의 주변에 위치하는 장애물과 이동 로봇 사이의 거리를 실시간으로 검출할 수 있으므로, 이동 로봇과 장애물의 충돌을 방지할 수 있는 효과가 도출된다.
또한, 본 발명에 따르면, 3차원 카메라 센서를 이용하는 이동 로봇의 연산량을 감소시킴으로써, 이동 로봇이 장애물을 회피하기 위한 장애물 회피 운전을 신속하게 수행할 수 있으므로, 이동 로봇의 장애물 회피 운전 성능이 향상된다. 즉, 본 발명에 따르면 이동 로봇이 장애물을 회피하기 위해 즉각적으로 이동 방향을 변경시킬 수 있으므로, 이동 로봇과 장애물의 충돌을 방지할 수 있다.
또한, 본 발명에 따르면, 이동 로봇이 주변에 위치하는 지형 또는 장애물 정보를 검출하는 때, 3차원 카메라 센서에서 생성되는 노이즈의 영향을 감소시킬 수 있으므로, 이동 로봇이 이동 로봇의 주변에 위치하는 지형 또는 장애물과 관련된 정보를 보다 정확하게 획득할 수 있는 효과가 도출된다.
또한, 본 발명에 따르면, 이동 로봇이 주행중인 바닥의 재질 또는 형태를 보다 정확하게 검출할 수 있다.
또한, 본 발명에 따르면, 이동 로봇의 이동이나 3차원 카메라 센서의 회전에 의해, 3차원 카메라 센서의 시점이 변경되는 경우에도, 이동 로봇의 주변에 위치하는 지형 또는 장애물과 관련된 정보를 정확하게 검출할 수 있다.
또한, 본 발명에 따르면, 시야각이 비교적 좁은 3차원 카메라 센서를 이용하여 장애물 또는 지형 정보를 검출하는 이동 로봇이, 3차원 카메라 센서의 시야각보다 넓은 각도에 위치한 장애물을 회피하며 청소를 수행할 수 있는 효과가 도출된다.
도 1a는 본 발명의 일 실시예에 따른 이동 로봇의 구성요소를 나타내는 블록도이다.
도 1b는 본 발명의 이동 로봇에 포함된 센싱부(140)의 보다 상세한 구성요소를 나타내는 블록도이다.
도 2a 내지 도 2d는 본 발명에 따르는 3차원 카메라 센서를 구비한 이동 로봇의 일 실시예를 나타내는 개념도이다.
도 3a 및 도 3b는 본 발명에 따르는 이동 로봇에 구비된 3차원 카메라 센서가 이동 로봇의 본체에 대해 상대적으로 지향하는 방향을 변경시키는 연결부재를 나타내는 개념도이다.
도 4a 및 도 4b는 본 발명에 따르는 이동 로봇에서 3차원 좌표 정보를 이용하여 바닥면을 검출하는 방법을 나타내는 개념도이다.
도 4c는 3차원 좌표 정보를 이용하여 바닥면을 검출하는 방법을 나타내는 흐름도이다.
도 5는 본 발명에 따르는 이동 로봇에서 3차원 좌표 정보를 이용하여 바닥면을 검출하는 방법을 나타내는 흐름도이다.
도 6은 본 발명에 따르는 이동 로봇이 험지 주행하는 경우, 시간에 따른 구동모터의 출력 값의 변화를 나타내는 그래프이다.
도 7a 및 도 7b는 본 발명에 따르는 이동 로봇이 3차원 카메라 센서를 이용하여 바닥면의 재질과 관련된 정보를 검출하는 방법을 나타내는 개념도이다.
도 7c는 본 발명에 따르는 이동 로봇이 3차원 카메라 센서를 이용하여 바닥면의 재질과 관련된 정보를 검출하는 방법을 나타내는 흐름도이다.
도 8a 및 도 8b는 본 발명에 따르는 이동 로봇에 구비된 3차원 카메라 센서가 촬영 각도를 변경하면서 장애물을 회피하는 방법을 나타내는 개념도이다.
도 8c는 본 발명에 따르는 이동 로봇이 3차원 카메라 센서에 의해 획득된 3차원 좌표 정보에 근거하여 3차원 카메라 센서가 지향하는 방향을 변경시키는 방법을 나타내는 흐름도이다.
도 9a 내지 도 9c에서는 본 발명에 따르는 이동 로봇의 3차원 카메라 센서가 생성하는 3차원 좌표 정보와 관련된 3차원 좌표계를 결정하는 일 실시예를 나타내는 개념도이다.
이하의 도 1a에서는 본 발명의 일 실시예에 따른 이동 로봇의 구성요소가 상세히 설명된다.
도 1a에 도시된 바와 같이, 본 발명의 일 실시 예에 따른 이동 로봇은, 통신부(110), 입력부(120), 구동부(130), 센싱부(140), 출력부(150), 전원부(160), 메모리(170) 및 제어부(180) 중 적어도 하나 또는 이들의 조합을 포함할 수 있다.
이때, 도 1a에 도시한 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 로봇 청소기가 구현될 수 있음은 물론이다. 이하, 각 구성요소들에 대해 살펴보기로 한다.
우선, 전원부(160)는 외부 상용 전원에 의해 충전 가능한 배터리를 구비하여 이동 로봇 내로 전원을 공급한다. 전원부(160)는 이동 로봇에 포함된 각 구성들에 구동 전원을 공급하여, 이동 로봇이 주행하거나 특정 기능을 수행하는데 요구되는 동작 전원을 공급할 수 있다.
이때, 제어부(180)는 배터리의 전원 잔량을 감지하고, 전원 잔량이 부족하면 외부 상용 전원과 연결된 충전대로 이동하도록 제어하여, 충전대로부터 충전 전류를 공급받아 배터리를 충전할 수 있다. 배터리는 배터리 감지부와 연결되어 배터리 잔량 및 충전 상태가 제어부(180)에 전달될 수 있다. 출력부(150)은 제어부에 의해 상기 배터리 잔량을 화면에 표시할 수 있다.
배터리는 로봇 청소기 중앙의 하부에 위치할 수도 있고, 좌, 우측 중 어느 한쪽에 위치할 수도 있다. 후자의 경우, 이동 로봇은 배터리의 무게 편중을 해소하기 위해 균형추를 더 구비할 수 있다.
한편, 구동부(130)는 모터를 구비하여, 상기 모터를 구동함으로써, 좌, 우측 주바퀴를 양 방향으로 회전시켜 본체를 회전 또는 이동시킬 수 있다. 구동부(130)는 이동 로봇의 본체를 전후좌우로 진행시키거나, 곡선주행시키거나, 제자리 회전시킬 수 있다.
한편, 입력부(120)는 사용자로부터 로봇 청소기에 대한 각종 제어 명령을 입력받는다. 입력부(120)는 하나 이상의 버튼을 포함할 수 있고, 예를 들어, 입력부(120)는 확인버튼, 설정버튼 등을 포함할 수 있다. 확인버튼은 감지 정보, 장애물 정보, 위치 정보, 맵 정보를 확인하는 명령을 사용자로부터 입력받기 위한 버튼이고, 설정버튼은 상기 정보들을 설정하는 명령을 사용자로부터 입력받기 위한 버튼이다.
또한, 입력부(120)는 이전 사용자 입력을 취소하고 다시 사용자 입력을 받기 위한 입력재설정버튼, 기 설정된 사용자 입력을 삭제하기 위한 삭제버튼, 작동 모드를 설정하거나 변경하는 버튼, 충전대로 복귀하도록 하는 명령을 입력받는 버튼 등을 포함할 수 있다.
또한, 입력부(120)는 하드 키나 소프트 키, 터치패드 등으로 이동 로봇의 상부에 설치될 수 있다. 또, 입력부(120)는 출력부(150)와 함께 터치 스크린의 형태를 가질 수 있다.
한편, 출력부(150)는, 이동 로봇의 상부에 설치될 수 있다. 물론 설치 위치나 설치 형태는 달라질 수 있다. 예를 들어, 출력부(150)는 배터리 상태 또는 주행 방식 등을 화면에 표시할 수 있다.
또한, 출력부(150)는, 센싱부(140)가 검출한 이동 로봇 내부의 상태 정보, 예를 들어 이동 로봇에 포함된 각 구성들의 현재 상태를 출력할 수 있다. 또, 출력부(150)는 센싱부(140)가 검출한 외부의 상태 정보, 장애물 정보, 위치 정보, 지도 정보 등을 화면에 디스플레이할 수 있다. 출력부(150)는 발광 다이오드(Light Emitting Diode; LED), 액정 표시 장치(Liquid Crystal Display; LCD), 플라즈마 표시 패널(Plasma Display Panel), 유기 발광 다이오드(Organic Light Emitting Diode; OLED) 중 어느 하나의 소자로 형성될 수 있다.
출력부(150)는, 제어부(180)에 의해 수행되는 이동 로봇의 동작 과정 또는 동작 결과를 청각적으로 출력하는 음향 출력 수단을 더 포함할 수 있다. 예를 들어, 출력부(150)는 제어부(180)에 의해 생성된 경고 신호에 따라 외부에 경고음을 출력할 수 있다.
한편, 통신부(110)는 단말 장치 및/또는 특정 영역 내 위치한 타 기기(본 명세서에서는 "가전 기기"라는 용어와 혼용하기로 한다)와 유선, 무선, 위성 통신 방식들 중 하나의 통신 방식으로 연결되어 신호와 데이터를 송수신한다.
통신부(110)는 특정 영역 내에 위치한 타 기기와 데이터를 송수신할 수 있다. 이때, 타 기기는 네트워크에 연결하여 데이터를 송수신할 수 있는 장치이면 어느 것이어도 무방하며, 일 예로, 공기 조화 장치, 난방 장치, 공기 정화 장치, 전등, TV, 자동차 등과 같은 장치일 수 있다. 또한, 상기 타 기기는, 문, 창문, 수도 밸브, 가스 밸브 등을 제어하는 장치 등일 수 있다. 또한, 상기 타 기기는, 온도, 습도, 기압, 가스 등을 감지하는 센서 등일 수 있다.
따라서, 제어부(180)는 통신부(110)를 통해 상기 타 기기에 제어 신호를 전송할 수 있고, 이에 따라, 상기 타 기기는 수신한 제어 신호에 따라 동작할 수 있다. 일 예로, 상기 타 기기가 공기 조화 장치인 경우, 전원을 켜거나 제어 신호에 따라 특정 영역에 대하여 냉방 또는 난방을 수행할 수 있고, 창문을 제어하는 장치인 경우, 제어 신호에 따라 창문을 개폐하거나 일정 비율로 개방할 수 있다.
또한, 통신부(110)는 특정 영역 내에 위치한 적어도 하나의 타 기기로부터 각종 상태 정보 등을 수신할 수 있고, 일 예로, 통신부(110)는 공기 조화 장치의 설정 온도, 창문의 개폐 여부 또는 개폐 정도를 나타내는 개폐 정보, 온도 센서에 의해 감지되는 특정 영역의 현재 온도 등을 수신할 수 있다.
이에 따라, 제어부(180)는 상기 상태 정보, 입력부(120)를 통한 사용자 입력, 또는 단말 장치를 통한 사용자 입력에 따라 상기 타 기기에 대한 제어 신호를 생성할 수 있다.
이때, 통신부(110)는 적어도 하나의 타 기기와 통신하기 위해 라디오 주파수(RF) 통신, 블루투스(Bluetooth), 적외선 통신(IrDA), 무선 랜(LAN), 지그비(Zigbee) 등과 같은 무선 통신 방식 중 적어도 하나의 통신 방식을 채용할 수 있고, 이에 따라 상기 타 기기 및 이동 로봇(100)은 적어도 하나의 네트워크를 구성할 수 있다. 이때, 상기 네트워크는, 인터넷(internet)인 것이 바람직하다.
통신부(110)는 단말 장치로부터 제어 신호를 수신할 수 있다. 이에 따라, 제어부(180)는 상기 통신부(110)를 통해 수신한 제어 신호에 따라 다양한 작업과 관련된 제어 명령을 수행할 수 있다. 또한, 통신부(110)는 상기 단말 장치로 이동 로봇의 상태 정보, 장애물 정보, 위치 정보, 영상 정보, 지도 정보 등을 전송할 수 있다.
한편, 메모리(170)는 로봇 청소기를 제어 또는 구동하는 제어 프로그램 및 그에 따른 데이터를 저장한다. 메모리(170)는 오디오 정보, 영상 정보, 장애물 정보, 위치 정보, 지도 정보 등을 저장할 수 있다. 또, 메모리(170)는 주행 패턴과 관련된 정보를 저장할 수 있다.
상기 메모리(170)는 비휘발성 메모리를 주로 사용한다. 여기서, 상기 비휘발성 메모리(Non-Volatile Memory, NVM, NVRAM)는 전원이 공급되지 않아도 저장된 정보를 계속 유지할 수 있는 저장 장치로서, 일 예로, 롬(ROM), 플래시 메모리(Flash Memory), 마그네틱 컴퓨터 기억 장치(예를 들어, 하드 디스크, 디스켓 드라이브, 마그네틱 테이프), 광디스크 드라이브, 마그네틱 RAM, PRAM 등일 수 있다.
한편, 도 1b를 참조하면, 센싱부(140)는, 외부 신호 감지 센서(141), 전방 감지 센서(142), 낭떠러지 감지 센서(143), 하부 카메라 센서(144), 상부 카메라 센서(145) 및 3차원 카메라 센서(146) 중 적어도 하나를 포함할 수 있다.
외부 신호 감지 센서(141)는 이동 로봇의 외부 신호를 감지할 수 있다. 외부 신호 감지 센서(141)는, 일 예로, 적외선 센서(Infrared Ray Sensor), 초음파 센서(Ultra Sonic Sensor), RF 센서(Radio Frequency Sensor) 등일 수 있다.
이동 로봇은 외부 신호 감지 센서(141)를 이용하여 충전대가 발생하는 안내 신호를 수신하여 충전대의 위치 및 방향을 확인할 수 있다. 이때, 충전대는 이동 로봇이 복귀 가능하도록 방향 및 거리를 지시하는 안내 신호를 발신할 수 있다. 즉, 이동 로봇은 충전대로부터 발신되는 신호를 수신하여 현재의 위치를 판단하고 이동 방향을 설정하여 충전대로 복귀할 수 있다.
또한, 이동 로봇은 외부 신호 감지 센서(141)를 이용하여 리모컨, 단말기 등의 원격 제어 장치가 발생하는 신호를 감지할 수 있다.
외부 신호 감지 센서(141)는 이동 로봇의 내부나 외부의 일 측에 구비될 수 있다. 일 예로, 적외선 센서는 이동 로봇 내부 또는 출력부(150)의 하부 또는 상부 카메라 센서(145) 또는 3차원 카메라 센서(146)의 주변에 설치될 수 있다.
한편, 전방 감지 센서(142)는, 이동 로봇의 전방, 구체적으로 이동 로봇의 측면 외주면을 따라 일정 간격으로 설치될 수 있다. 전방 감지 센서(142)는 이동 로봇의 적어도 일 측면에 위치하여, 전방의 장애물을 감지하기 위한 것으로서, 전방 감지 센서(142)는 이동 로봇의 이동 방향에 존재하는 물체, 특히 장애물을 감지하여 검출 정보를 제어부(180)에 전달할 수 있다. 즉, 전방 감지 센서(142)는, 이동 로봇의 이동 경로 상에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어부(180)에 전달할 수 있다.
전방 감지 센서(142)는, 일 예로, 적외선 센서, 초음파 센서, RF 센서, 지자기 센서 등일 수 있고, 이동 로봇은 전방 감지 센서(142)로 한 가지 종류의 센서를 사용하거나 필요에 따라 두 가지 종류 이상의 센서를 함께 사용할 수 있다.
일 예로, 초음파 센서는 일반적으로 원거리의 장애물을 감지하는 데에 주로 사용될 수 있다. 초음파 센서는 발신부와 수신부를 구비하여, 제어부(180)는 발신부를 통해 방사된 초음파가 장애물 등에 의해 반사되어 수신부에 수신되는 지의 여부로 장애물의 존부를 판단하고, 초음파 방사 시간과 초음파 수신 시간을 이용하여 장애물과의 거리를 산출할 수 있다.
또한, 제어부(180)는 발신부에서 방사된 초음파와, 수신부에 수신되는 초음파를 비교하여, 장애물의 크기와 관련된 정보를 검출할 수 있다. 예를 들어, 제어부(180)는 수신부에 더 많은 초음파가 수신될수록, 장애물의 크기가 큰 것으로 판단할 수 있다.
일 실시 예에서, 복수(일 예로, 5개)의 초음파 센서가 이동 로봇의 전방 측면에 외주면을 따라 설치될 수 있다. 이때, 바람직하게 초음파 센서는 발신부와 수신부가 교대로 이동 로봇의 전면에 설치될 수 있다.
즉, 발신부는 본체의 전면 중앙으로부터 좌, 우측에 이격되도록 배치될 수 있고, 수신부의 사이에 하나 또는 둘 이상의 발신부가 배치되어 장애물 등으로부터 반사된 초음파 신호의 수신 영역을 형성할 수 있다. 이와 같은 배치로 센서의 수를 줄이면서 수신 영역을 확장할 수 있다. 초음파의 발신 각도는 크로스토크(crosstalk) 현상을 방지하도록 서로 다른 신호에 영향을 미치지 아니하는 범위의 각을 유지할 수 있다. 또한, 수신부들의 수신 감도는 서로 다르게 설정될 수 있다.
또한, 초음파 센서에서 발신되는 초음파가 상향으로 출력되도록 초음파 센서는 일정 각도만큼 상향으로 설치될 수 있고, 이때, 초음파가 하향으로 방사되는 것을 방지하기 위해 소정의 차단 부재를 더 포함할 수 있다.
한편, 전방 감지 센서(142)는, 전술한 바와 같이, 두 가지 종류 이상의 센서를 함께 사용할 수 있고, 이에 따라, 전방 감지 센서(142)는 적외선 센서, 초음파 센서, RF 센서 등 중 어느 한 가지 종류의 센서를 사용할 수 있다.
일 예로, 전방 감지 센서(142)는 초음파 센서 이외에 다른 종류의 센서로 적외선 센서를 포함할 수 있다.
적외선 센서는 초음파 센서와 함께 이동 로봇의 외주면에 설치될 수 있다. 적외선 센서 역시, 전방이나 측면에 존재하는 장애물을 감지하여 장애물 정보를 제어부(180)에 전달할 수 있다. 즉, 적외선 센서는, 이동 로봇의 이동 경로 상에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어부(180)에 전달한다. 따라서, 이동 로봇은 본체가 장애물과의 충돌없이 특정 영역 내에서 이동할 수 있다.
한편, 낭떠러지 감지 센서(143)(또는 클리프 센서(Cliff Sensor))는, 다양한 형태의 광 센서를 주로 이용하여, 이동 로봇의 본체를 지지하는 바닥의 장애물을 감지할 수 있다.
즉, 낭떠러지 감지 센서(143)는, 바닥의 이동 로봇의 배면에 설치되되, 이동 로봇의 종류에 따라 다른 위치에 설치될 수 있음은 물론이다. 낭떠러지 감지 센서(143)는 이동 로봇의 배면에 위치하여, 바닥의 장애물을 감지하기 위한 것으로서, 낭떠러지 감지 센서(143)는 상기 장애물 감지 센서와 같이 발광부와 수광부를 구비한 적외선 센서, 초음파 센서, RF 센서, PSD(Position Sensitive Detector) 센서 등일 수 있다.
일 예로, 낭떠러지 감지 센서(143) 중 어느 하나는 이동 로봇의 전방에 설치되고, 다른 두 개의 낭떠러지 감지 센서(143)는 상대적으로 뒤쪽에 설치될 수 있다.
예를 들어, 낭떠러지 감지 센서(143)는 PSD 센서일 수 있으나, 복수의 서로 다른 종류의 센서로 구성될 수도 있다.
PSD 센서는 반도체 표면저항을 이용해서 1개의 p-n접합으로 입사광의 단장거리 위치를 검출한다. PSD 센서에는 일축 방향만의 광을 검출하는 1차원 PSD 센서와, 평면상의 광위치를 검출할 수 있는 2차원 PSD 센서가 있으며, 모두 pin 포토 다이오드 구조를 가질 수 있다. PSD 센서는 적외선 센서의 일종으로서, 적외선을 이용하여, 적외선을 송신한 후 장애물에서 반사되어 돌아오는 적외선의 각도를 측정하여 거리를 측정한다. 즉, PSD 센서는 삼각측량방식을 이용하여, 장애물과의 거리를 산출한다.
PSD 센서는 장애물에 적외선을 발광하는 발광부와, 장애물로부터 반사되어 돌아오는 적외선을 수광하는 수광부를 구비하되, 일반적으로 모듈 형태로 구성된다. PSD 센서를 이용하여, 장애물을 감지하는 경우, 장애물의 반사율, 색의 차이에 상관없이 안정적인 측정값을 얻을 수 있다.
제어부(180)는 낭떠러지 감지 센서(143)가 지면을 향해 발광한 적외선의 발광신호와 장애물에 의해 반사되어 수신되는 반사신호 간의 적외선 각도를 측정하여, 낭떠러지를 감지하고 그 깊이를 분석할 수 있다.
한편, 제어부(180)는 낭떠러지 감지 센서(143)를 이용하여 감지한 낭떠러지의 지면 상태에 따라 통과 여부를 판단할 수 있고, 판단 결과에 따라 낭떠러지의 통과 여부를 결정할 수 있다. 예를 들어, 제어부(180)은 낭떠러지 감지 센서(143)를 통해 낭떠러지의 존재 여부 및 낭떠러지 깊이를 판단한 다음, 낭떠러지 감지 센서(143)를 통해 반사 신호를 감지한 경우에만 낭떠러지를 통과하도록 한다.
다른 예로, 제어부(180)은 낭떠러지 감지 센서(143)를 이용하여 이동 로봇의 들림 현상을 판단할 수도 있다.
한편, 하부 카메라 센서(144)는, 이동 로봇의 배면에 구비되어, 이동 중 하방, 즉, 바닥면(또는 피청소면)에 대한 이미지 정보를 획득한다. 하부 카메라 센서(144)는, 다른 말로 옵티컬 플로우 센서(Optical Flow Sensor)라 칭하기도 한다. 하부 카메라 센서(144)는, 센서 내에 구비된 이미지 센서로부터 입력되는 하방 영상을 변환하여 소정 형식의 영상 데이터를 생성한다. 생성된 영상 데이터는 메모리(170)에 저장될 수 있다.
하부 카메라 센서(144)는, 렌즈(미도시)와 상기 렌즈를 조절하는 렌즈 조절부(미도시)를 더 구비할 수 있다. 상기 렌즈로는 초점거리가 짧고 심도가 깊은 팬포커스형 렌즈를 사용하는 것이 좋다. 상기 렌즈 조절부는 전후 이동되도록 하는 소정 모터와 이동수단을 구비하여 상기 렌즈를 조절한다.
또한, 하나 이상의 광원이 이미지 센서에 인접하여 설치될 수 있다. 하나 이상의 광원은, 이미지 센서에 의해 촬영되는 바닥면의 소정 영역에 빛을 조사한다. 즉, 이동 로봇이 바닥면을 따라 특정 영역을 이동하는 경우에, 바닥면이 평탄하면 이미지 센서와 바닥면 사이에는 일정한 거리가 유지된다. 반면, 이동 로봇이 불균일한 표면의 바닥면을 이동하는 경우에는 바닥면의 요철 및 장애물에 의해 일정 거리 이상 멀어지게 된다. 이때 하나 이상의 광원은 조사되는 빛의 양을 조절하도록 제어부(180)에 의해 제어될 수 있다. 상기 광원은 광량 조절이 가능한 발광 소자, 예를 들어 LED(Light Emitting Diode) 등일 수 있다.
하부 카메라 센서(144)를 이용하여, 제어부(180)는 이동 로봇의 미끄러짐과 무관하게 이동 로봇의 위치를 검출할 수 있다. 제어부(180)은 하부 카메라 센서에 의해 촬영된 영상 데이터를 시간에 따라 비교 분석하여 이동 거리 및 이동 방향을 산출하고, 이를 근거로 이동 로봇의 위치를 산출할 수 있다. 하부 카메라 센서(144)를 이용하여 이동 로봇의 하방에 대한 이미지 정보를 이용함으로써, 제어부(180)는 다른 수단에 의해 산출한 이동 로봇의 위치에 대하여 미끄러짐에 강인한 보정을 할 수 있다.
한편, 상부 카메라 센서(145)는 이동 로봇의 상방이나 전방을 향하도록 설치되어 이동 로봇 주변을 촬영할 수 있다. 이동 로봇이 복수의 상부 카메라 센서(145)들을 구비하는 경우, 카메라 센서들은 일정 거리 또는 일정 각도로 이동 로봇의 상부나 옆면에 형성될 수 있다.
상부 카메라 센서(145)는 피사체의 초점을 맞추는 렌즈와, 카메라 센서를 조절하는 조절부와, 상기 렌즈를 조절하는 렌즈 조절부를 더 포함할 수 있다. 상기 렌즈는 소정의 위치에서도 주변의 모든 영역, 예를 들어 천장의 모든 영역이 촬영될 수 있도록 화각이 넓은 렌즈를 사용한다. 예를 들어 화각이 일정 각, 예를 들어 160도, 이상인 렌즈를 포함한다.
3차원 카메라 센서(146)는 이동 로봇의 본체 일면 또는 일부분에 부착되어, 상기 본체의 주위와 관련된 3차원 좌표 정보를 생성할 수 있다.
즉, 3차원 카메라 센서(146)는 이동 로봇과 피촬영 대상체의 원근거리를 산출하는 3차원 뎁스 카메라(3D Depth Camera)일 수 있다.
구체적으로, 3차원 카메라 센서(146)는 본체의 주위와 관련된 2차원 영상을 촬영할 수 있으며, 촬영된 2차원 영상에 대응되는 복수의 3차원 좌표 정보를 생성할 수 있다.
일 실시예에서 3차원 카메라 센서(146)는 기존의 2차원 영상을 획득하는 카메라를 2개 이상 구비하여, 상기 2개 이상의 카메라에서 획득되는 2개 이상의 영상을 조합하여, 3차원 좌표 정보를 생성하는 스테레오 비전 방식으로 형성될 수 있다.
또 다른 실시예에서 3차원 카메라 센서(146)는 단일 카메라와 함께 적외선 패턴을 조사하는 적외선 패턴 방출부를 구비하고, 적외선 패턴 방출부에서 조사된 적외선 패턴이 피촬영 대상체에 투영된 모양을 캡쳐함으로써, 3차원 카메라 센서(146)와 피촬영 대상체 사이의 거리를 측정할 수 있다. 이러한 3차원 카메라 센서(146)는 IR(Infra Red) 방식의 3차원 카메라 센서일 수 있다.
또 다른 실시예에서 3차원 카메라 센서(146)는 단일 카메라와 함께 빛을 방출하는 발광부를 구비하고, 발광부에서 방출되는 레이저 중 피촬영 대상체로부터 반사되는 일부를 수신하며, 수신된 레이저를 분석함으로써, 3차원 카메라 센서(146)와 피촬영 대상체 사이의 거리를 측정할 수 있다. 이러한 3차원 카메라 센서(146)는 TOF(Time of Flight) 방식의 3차원 카메라 센서일 수 있다.
이하의 도 2a 내지 도 2d에서는 본 발명에 따르는 3차원 카메라 센서(146)를 구비한 이동 로봇의 일 실시예가 설명된다.
도 2a 및 도 2b를 비교하면, 3차원 카메라 센서(146)는 이동 로봇(100)의 본체에 고정적으로 설치될 수도 있고, 상기 3차원 카메라 센서(146)가 지향하는 방향이 변경 가능하도록 설치될 수도 있다. 즉, 3차원 카메라 센서(146)는 지평면에 대하여 상하로 틸팅(Tilting)시킴으로써, 3차원 카메라 센서(146)가 본체에 대해 상대적으로 지향하는 방향을 상하로 변경시킬 수 있다.
구체적으로 도 2a를 참조하면, 3차원 카메라 센서(146)가 지향하는 방향은 이동 로봇(100)의 본체의 전방 또는 지면에 평행하는 방향과 실질적으로 대응될 수 있다. 이로써, 3차원 카메라 센서(146)는 본체의 전방에 위치하는 장애물(201)을 지향할 수 있으며, 장애물(201)과 관련된 3차원 좌표 정보를 생성할 수 있다.
또한, 도 2b를 참조하면, 3차원 카메라 센서(146)는 이동 로봇(100)이 주행 중인 지면 또는 바닥면의 일 지점을 지향할 수 있다. 이로써 3차원 카메라 센서(146)는 이동 로봇(100)의 진행방향 측에 위치하는 지면 또는 바닥면과 관련된 3차원 좌표 정보를 생성할 수 있다. 아울러, 3차원 카메라 센서(146)는 지면 또는 바닥면에 놓여있는 장애물(202)과 관련된 3차원 좌표 정보를 생성할 수 있다.
일 실시예에서, 제어부(180)는 이동 로봇(100)의 주행 조건과 관련된 정보를 검출할 수 있으며, 검출된 주행 조건에 따라, 본체에 대해 상대적으로 3차원 카메라 센서(146)가 지향하는 방향을 설정할 수 있다.
즉, 제어부(180)는 이동 로봇(100)이 험지 영역에 진입한 것으로 주행 조건을 검출하면, 3차원 카메라 센서(146)가 본체에 대해 하방을 지향하도록 3차원 카메라 센서(146)의 지향하는 방향을 변경시킬 수 있다.
또한, 제어부(180)는 이동 로봇(100)의 진행 방향 상에 장애물(201)이 존재하는 것으로 주행 조건을 검출하면, 3차원 카메라 센서(146)가 최대한 멀리 위치하는 지점까지 촬영할 수 있도록, 상기 3차원 카메라 센서(146)의 지향하는 방향을 지면 또는 바닥면에 평행하는 방향으로 변경시킬 수 있다.
예를 들어, 제어부(180)는 3차원 카메라 센서(146)와 함께 센싱부(140)에 포함된 외부 신호 감지 센서(141), 전방 감지 센서(142), 낭떠러지 감지 센서(143), 하부 카메라 센서(145) 및 상부 카메라 센서(145) 중 적어도 하나를 이용하여, 상기 이동 로봇(100)의 주행 조건과 관련된 정보를 검출할 수 있다. 바람직하게, 제어부(180)는 이동 로봇(100)의 주행 조건을 정상 조건, 험지 조건 등으로 구분할 수 있다.
아울러, 제어부(180)는 검출된 주행 조건에 따라, 3차원 카메라 센서(146)가 지향하는 방향을 유지시킬 수도 있고, 변경시킬 수도 있다.
도 2c 및 도 2d에 도시된 것과 같이, 3차원 카메라 센서(146)는 본체의 전방을 지향할 수도 있고, 본체의 전방으로부터 임의의 각도만큼 틀어진 방향을 지향할 수도 있다. 즉, 제어부(180)는 3차원 카메라 센서(146)를 본체에 대하여 좌우로 패닝(Panning)시킴으로써, 3차원 카메라 센서(146)가 본체에 대해 상대적으로 지향하는 방향을 좌우로 변경시킬 수 있다.
도 2c 및 도 2d를 참조하면, 3차원 카메라 센서(146)의 시야각은 소정 각도(θ)일 수 있다. 일 예로, 상기 시야각은 50˚ 내지 60˚ 범위에 포함될 수 있으며, 바람직하게는 57˚이다.
일 실시예에서, 제어부(180)는 이동 로봇(100)이 장애물(203)에 대한 회피 운전을 수행중이면, 3차원 카메라 센서(146)가 상기 장애물(203)을 지향하도록 상기 3차원 카메라 센서(146)를 패닝시킬 수 있다. 즉, 도 2c 및 도 2d를 참조하면, 제어부(180)는 3차원 카메라 센서(146)가 장애물(203)을 지향하는 상태로, 장애물(203)에 대한 회피 운전을 수행하도록, 상기 3차원 카메라 센서(146)를 좌우로 패닝시키거나 또는 상하로 틸팅시킬 수 있다.
이로써, 이동 로봇(100)이 장애물(203)에 대한 회피 주행을 수행함에 따라 이동 방향이 변경되는 경우에도, 3차원 카메라 센서(146)는 계속적으로 장애물(203)을 지향할 수 있으며, 장애물(203)과 관련된 3차원 좌표 정보를 생성할 수 있다.
이하의 도 3a 및 도 3b에서는 본 발명에 따르는 이동 로봇에 구비된 3차원 카메라 센서가 이동 로봇의 본체에 대해 상대적으로 지향하는 방향을 변경시키는 연결부재에 대한 일 실시예가 설명된다.
도 3a에 도시된 것과 같이, 이동 로봇(100)의 본체의 일부분에는 3차원 카메라 센서(미도시)와 본체를 상호 결합시키는 연결부재(1460)가 설치될 수 있다.
도 3a를 참조하면, 연결부재(1460)는 본체의 직진 방향을 기준으로, 본체의 전방에 배치될 수 있다. 다만, 연결부재(1460)의 설치 위치는 이에 제한되지 않으며, 이동 로봇(100)의 주위를 촬영할 수 있는 본체 외부 중 임의의 위치일 수 있다.
한편, 도 3a에 도시되지는 않았으나, 연결부재(1460)는 본체의 내부에 위치하여, 외부로 돌출되지 않도록 형성될 수도 있다.
도 3b에 도시된 것과 같이 연결부재(1460)는 제1 연결부재(1461), 제1 회전모터(1462), 제2 연결부재(1463) 및 제2 회전모터(1464)를 포함할 수 있다.
구체적으로, 제1 연결부재(1461)는 3차원 카메라 센서와 연결될 수 있으며, 제1 회전모터(1462)의 구동에 따라 회전하는 축에 연결될 수 있다. 즉, 제1 회전모터(1462)의 구동에 따라, 3차원 카메라 센서가 지향하는 방향이 지평면으로 기준으로 하방 또는 상방으로 변경될 수 있다. 따라서, 제1 회전모터(1462)는 3차원 카메라 센서(146)를 틸팅시킬 수 있다.
또한, 제2 연결부재는 제1 연결부재(1461)와 제1 회전모터(1462)의 결합체에 연결될 수 있으며, 제2 회전모터(1464)의 구동에 따라 회전하는 축에 연결될 수 있다. 즉, 제2 회전모터(1464)의 구동에 따라, 3차원 카메라 센서가 지향하는 방향이 본체의 직진방향을 기준으로 좌 또는 우로 변경될 수 있다. 따라서, 제2 회전모터(1464)는 3차원 카메라 센서(146)를 패닝시킬 수 있다.
한편, 도 3b에 도시되지는 않았으나, 연결부재(1460)는 3차원 카메라 센서의 지향하는 방향을 안정적으로 유지하기 위해, 3차원 카메라 센서의 틸팅 또는 패닝 각도를 기계적으로 구속하기 위해 구속부재(미도시)를 포함할 수 있다.
이하의 도 4a 및 도 4b는 본 발명에 따르는 이동 로봇에서 3차원 좌표 정보를 이용하여 바닥면을 검출하는 방법과 관련된 일 실시예가 설명된다.
도 4a를 참조하면, 3차원 카메라 센서(146)는 이동 로봇(100)의 본체 주위와 관련된 복수의 3차원 좌표 정보(401, 402)를 생성할 수 있다. 제어부(180)는 3차원 카메라 센서(146)에서 생성된 복수의 3차원 좌표 정보(401, 402)를 이용하여, 본체의 주위에 존재하는 지형 및 장애물 중 적어도 하나와 관련된 정보를 검출할 수 있다.
구체적으로 도 4a에 도시된 것과 같이, 제어부(180)는 임의의 3차원 좌표 정보(401)마다 이웃하는 3차원 좌표 정보(402)를 이용하여, 상기 임의의 3차원 좌표 정보(401)에 각각 대응되는 법선벡터 정보(403)를 생성할 수 있다.
도 4b에는 임의의 영상에 대해, 도 4a에 도시된 법선벡터 정보(403) 검출 방법을 적용한 실시예가 도시된다. 도 4b에 도시된 점은 3차원 카메라 센서(146)는 2차원 영상에 대응되는 3차원 좌표 정보를 표시한 것이며, 상기 3차원 좌표 정보마다 법선벡터 정보(403)가 생성될 수 있다.
이하의 도 4c에서는 3차원 좌표 정보 및 법선벡터 정보를 이용하여 바닥면을 검출하는 방법이 설명된다.
도 4c에 도시된 것과 같이, 3차원 카메라 센서(146)는 이동 로봇(100)의 주위와 관련된 2차원 영상을 촬영할 수 있으며, 촬영된 2차원 영상에 대응되는 복수의 3차원 좌표 정보를 획득할 수 있다(S401).
아울러, 제어부(180)는 3차원 카메라 센서(146)에서 획득된 복수의 3차원 좌표 정보 중 어느 하나마다, 이웃하는 3차원 좌표정보와 비교하여, 상기 어느 하나의 3차원 좌표 정보에 대응되는 법선벡터 정보를 생성할 수 있다(S402).
또한, 제어부(180)는 생성된 법선벡터 정보에 근거하여, 평면을 형성하는 영역과 관련된 정보를 검출할 수 있다(S403).
이후, 제어부(180)는 평면을 형성하는 것으로 검출된 영역 중 이동 로봇(100)이 이동 가능한 바닥면에 해당하는 부분을 검출할 수 있다(S404).
한편, 도 5에서는 본 발명에 따르는 이동 로봇에서 3차원 좌표 정보를 이용하여 바닥면을 검출하는 방법과 관련된 또 다른 실시예가 설명된다.
3차원 카메라 센서(146)는 이동 로봇(100)의 주위와 관련된 2차원 영상을 촬영할 수 있으며, 촬영된 2차원 영상에 대응되는 복수의 3차원 좌표 정보를 획득할 수 있다(S501).
제어부(180)는 상기 2차원 영상을 단위영역으로 분할할 수 있다(S502).
일 예로, 상기 2차원 영상은 320 픽셀 X 240 픽셀로 형성될 수 있으며, 상기 단위영역은 20 픽셀 X 20 픽셀일 수 있다. 또 다른 예에서, 상기 단위영역은 정사각형으로 형성될 수 있으며, 정사각형의 일 변의 길이는, 2차원 영상의 가로길이와 세로길이 중 짧은 길이의 10%에 대응될 수 있다. 또 다른 예에서, 제어부(180)는 상기 2차원 영상을 미리 정해진 개수로 분할할 수도 있다. 또 다른 예에서, 제어부(180)는 2차원 영상에 대응되는 3차원 좌표 정보를 기준으로, 상기 2차원 영상을 단위영역으로 분할할 수 있다.
다음으로, 제어부(180)는 분할된 단위영역 중 적어도 일부분에 해당하는 3차원 좌표 정보를 이용하여, 상기 법선벡터 정보를 생성할 수 있다(S503).
구체적으로, 제어부(180)는 분할된 단위영역 중 어느 하나의 단위영역에 대응되는 3차원 좌표 정보를 이용하여, 상기 어느 하나의 단위영역에 관련된 법선벡터 정보를 생성할 수 있다.
또한, 제어부(180)는 상기 어느 하나의 단위영역의 중심점을 포함하는 일부영역에 대응되는 3차원 좌표 정보를 이용하여, 상기 어느 하나의 단위영역에 관련된 법선벡터 정보를 생성할 수 있다.
제어부(180)는 생성된 법선벡터 정보에 근거하여, 분할된 단위영역이 평면인지 여부를 판단할 수 있다(S504).
즉, 제어부(180)는 어느 하나의 단위영역에 관련된 법선벡터 정보에 근거하여, 상기 어느 하나의 단위영역이 평면인지 여부를 판단할 수 있다.
도 5를 참조하면, 도 4c에 도시된 법선벡터 정보 생성 방법(S402)과 달리, 제어부(180)는 분할된 단위영역 중 어느 하나에 대응되는 3차원 좌표 정보를 이용하여 법선 벡터를 생성하며, 상기 어느 하나의 단위영역에 대해 생성된 법선 벡터를 이용하여 상기 어느 하나의 단위영역이 평면인지 여부에 대해 판단할 수 있다. 즉, 도 5에 도시된 방법에 따르면, 제어부(180)가 법선 벡터를 생성하기 위해 고려해야하는 3차원 좌표 정보의 개수와, 단위 영역이 평면인지 여부를 검출하기 위해 필요한 계산량이 현저히 감소할 수 있다.
제어부(180)는 분할된 단위영역의 평면 여부에 대한 판단결과를 이용하여, 2차원 영상에서 바닥면에 해당하는 영역을 검출할 수 있다(S505).
즉, 제어부(180)는 분할된 단위영역마다 평면인지 여부에 대해 판단하고, 이러한 판단결과를 이용하여, 바닥면에 해당하는 단위영역과, 장애물에 해당하는 단위영역을 구별할 수 있다.
위와 같이, 3차원 좌표 정보를 이용하여 이동 로봇(100)의 주위에 존재하는 지형, 바닥면, 장애물 등과 관련된 정보를 검출함에 있어서, 2차원 영상을 단위영역으로 분할하고, 분할된 단위영역에서 일부에 해당하는 3차원 좌표 정보만을 사용하는 경우, 제어부(180)의 계산량이 현저히 감소하는 효과가 도출될 수 있다.
아울러, 제어부(180)의 계산량이 현저히 감소하면, 이동 로봇(100)이 주행 중에 본체 주위의 지형, 장애물의 변화에 따라 빠르게 반응할 수 있는 장점이 있다.
이하의 도 6에서는 본 발명에 따르는 이동 로봇이 험지 주행하는 경우, 시간에 따른 구동모터의 출력 값의 변화를 나타내는 그래프가 도시된다.
본 발명에 따르는 이동 로봇(100)은 구동모터의 출력 값 또는 출력 변화를 감지하는 출력감지수단(미도시)을 포함할 수 있으며, 출력감지수단은 도 6에 도시된 것과 같이, 소정의 주기로 구동모터의 출력 값(601)을 감지할 수 있다.
구체적으로 구동모터는 구동바퀴에 구동력을 전달하기 위해 본체 내부에 설치될 수 있다. 또한, 구동모터는 이동 로봇 청소기의 흡입헤드 내측에 회전가능하게 배치되는 에지테이터에 구동력을 전달할 수도 있다.
아울러, 제어부(180)는 감지된 복수의 출력 값(601)을 샘플링하여, 구동 모터의 출력 변화와 관련된 데이터(602)를 생성할 수 있다.
또한, 제어부(180)는 출력감지수단에서 감지된 구동모터의 출력 값에 근거하여, 구동 모터의 초당 회전수를 검출할 수 있다. 즉, 제어부(180)는 출력감지수단의 출력 값에 근거하여, 에지테이터의 회전수를 검출할 수 있다.
기존의 이동 로봇은 이와 같은 출력 값(601) 또는 출력 변화와 관련된 데이터(602)만을 이용하여, 이동 로봇이 주행 중인 바닥의 재질과 관련된 정보를 검출하였다.
다만, 이와 같은 방법은 바닥재질에 따라 모터의 출력변화가 일정하지 않으므로, 구동모터의 출력 값 또는 그의 변화만을 이용하여 검출한 바닥재질과 관련된 정보는 정확도가 떨어지는 문제점이 있다.
따라서, 본원발명에서는 3차원 카메라 센서에서 생성된 3차원 좌표 정보를 이용하거나, 구동모터의 출력 값 또는 그 변화와 함께 3차원 좌표 정보를 이용하여, 바닥면의 재질과 관련된 정보를 검출하는 방법을 제안한다.
도 7a를 참조하면, 제어부(180)는 바닥면의 재질을 검출하기 위해, 3차원 카메라 센서(146)를 지평선에서 소정의 각도(θ')만큼 하방으로 지향시킬 수 있으며, 이때, 3차원 카메라 센서(146)는 바닥면과 관련된 영상(700)을 촬영할 수 있다.
도 7a에 도시된 것과 같이, 바닥면과 관련된 영상(700)은 소정의 높이(d1)와 소정의 너비(d2)로 형성될 수 있다. 예를 들어, 바닥면과 관련된 영상(700)은 320픽셀 X 240 픽셀로 형성될 수 있다.
즉, 3차원 카메라 센서(146)는 이동 로봇(100)의 본체의 진행방향 또는 본체의 전방 측에 위치하는 바닥면과 관련된 영상(700)을 촬영하고, 상기 바닥면과 관련된 영상에 포함된 복수의 지점에 각각 대응되는 복수의 3차원 좌표 정보를 생성할 수 있다.
도 7a를 참조하면, 상기 복수의 지점은 바닥면과 관련되어 촬영된 영상(700)의 기준 지점으로부터 소정의 거리 이내에 위치할 수 있다.
즉, 3차원 카메라 센서(146)는 바닥면과 관련되어 촬영된 영상(700)의 중심점 또는 기 설정된 세로 축(r1) 및 가로 축(r2)의 교차점으로부터 소정의 거리 내에 위치하는 지점에 대응하는 3차원 좌표 정보를 생성할 수 있다. 예를 들어, 상기 세로 축(r1)과 가로 축(r2)은 각각 영상(700)의 중심 지점을 포함할 수 있다.
일 실시예에서, 상기 복수의 지점은 상기 기준 지점을 포함하는 격자를 형성할 수 있다. 도 7a를 참조하면, 복수의 지점은 기준 지점을 포함하는 25개의 지점으로 형성되며, 각각 동일한 간격으로 분포되어 격자 형태로 형성될 수 있다.
예를 들어, 3차원 카메라 센서(146)는 320 픽셀 X 240 픽셀인 바닥면 영상(700)의 중심 지점에 위치하는 중심 픽셀과, 상기 중심 픽셀로부터 소정 거리 내에 위치하는 주변 픽셀들에 대응하는 3차원 좌표 정보를 생성할 수 있다.
이로써, 3차원 카메라 센서(146)가 바닥면과 관련된 영상(700)에 대응되는 모든 3차원 좌표 정보를 생성하는 것이 아니라, 특정 일부에 대응되는 3차원 좌표 정보만을 생성하게 함으로써, 3차원 카메라 센서(146)의 계산량을 감소시킬 수 있다.
또한, 제어부(180)는 3차원 카메라 센서(146)에서 생성된 복수의 3차원 좌표 정보를 이용하여, 이동 로봇(100)의 본체의 일 지점으로부터 바닥면과 관련된 영상(700)에 포함된 복수의 지점까지의 거리를 산출할 수 있다.
예를 들어, 도 7b를 참조하면, 바닥면과 관련된 영상(700)에 포함된 25개의 지점으로부터 본체의 일 지점 사이의 거리 값들을 포함하는 테이블(720)이 도시된다.
제어부(180)는 산출된 복수의 거리 값들의 산포도(Degree of Scattering)에 근거하여, 상기 구동부의 출력 레벨을 설정할 수 있다. 본 발명의 제어부(180)에서는 산포도의 일 예로 복수의 거리 값들의 분산 값을 이용할 수 있다.
구체적으로, 제어부(180)는 산출된 복수의 거리 값들에 대해, 평균 값과 분산을 산출할 수 있다. 제어부(180)는 산출된 평균 값 및 분산에 근거하여, 구동부의 출력 레벨을 설정할 수 있다.
예를 들어, 제어부(180)는 산출된 분산이 0 내지 3 범위에 포함되면 구동모터의 출력을 최대 출력의 70%로 제어하고, 산출된 분산이 3 내지 4 범위에 포함되면 구동모터의 출력을 최대 출력의 80%로 제어하고, 산출된 분산이 4 내지 5 범위에 포함되면 구동모터의 출력을 최대 출력의 90%로 제어할 수 있다.
또 다른 예에서, 제어부(180)는 산출된 분산이 증가할수록 구동모터의 출력 레벨을 증가시킬 수 있다.
또 다른 예에서, 제어부(180)는 산출된 분산이 기 설정된 기준 분산 값보다 크면, 구동모터의 구동력을 증가시키도록 구동부를 제어할 수 있다.
한편, 제어부(180)는 산출된 복수의 거리 값들의 산포도에 근거하여, 에지테이터의 회전 속도를 설정할 수 있다. 즉, 제어부(180)는 산출된 복수의 거리 값들의 분산 값에 근거하여, 에지테이터의 회전 속도를 설정할 수 있다.
예를 들어, 제어부(180)는 산출된 분산이 증가할수록 에지테이터의 회전 속도를 증가시킬 수 있다.
또 다른 예에서, 제어부(180)는 산출된 분산이 기 설정된 기준 분산 값보다 크면, 에지테이터의 회전 속도를 증가시키도록 구동부를 제어할 수 있다.
한편, 이동 로봇(100)의 메모리(170)는 바닥면에 포함된 복수의 지점과 본체 사이의 거리 값과 관련된 데이터베이스를 저장할 수 있다.
아울러, 제어부(180)는 바닥면과 관련된 영상(700)이 촬영될 때마다, 또는 바닥면과 관련된 영상(700)에 대응되는 3차원 좌표 정보가 생성될 때마다, 또는 바닥면과 관련된 영상(700)에 포함된 복수의 지점과 본체의 일 지점 사이의 거리가 산출될 때마다, 상기 데이터베이스를 업데이트할 수 있다.
이하의 도 7c에서는 도 7a 및 도 7b에 도시된 이동 로봇의 제어방법이 설명된다.
이동 로봇(100)의 3차원 카메라 센서(146)는 바닥면과 관련된 영상을 촬영할 수 있다(S701).
구체적으로, 제어부(180)는 이동 로봇(100)의 주행 조건과 관련된 정보를 검출할 수 있고, 검출된 주행 조건에 따라, 3차원 카메라 센서(146)가 바닥면과 관련된 영상을 촬영하도록, 3차원 카메라 센서(146)의 지향하는 방향을 변경시킬 수 있다. 즉, 제어부(180)는 검출된 주행 조건이, 3차원 카메라 센서(146)가 바닥면을 촬영하기 위한 주행 조건인 경우, 상기 3차원 카메라 센서(146)와 이동 로봇(100)의 본체를 상호 결합시키는 연결부재(1460)의 제1 및 제2 회전모터를 구동시킬 수 있다.
즉, 제어부(180)는 이동 로봇(100)이 험지 영역에 진입한 것으로 주행 조건을 검출하면, 3차원 카메라 센서(146)가 본체에 대해 하방을 지향하여 바닥면과 관련된 영상을 촬영하도록, 3차원 카메라 센서(146)의 지향하는 방향을 변경시킬 수 있다.
예를 들어, 제어부(180)는 구동모터의 출력 값에 근거하여, 이동 로봇(100)이 험지 영역에 진입한 것으로 판단할 수 있다. 즉, 제어부(180)는 구동모터의 출력 값이 기준 출력 값을 초과하면 험지 영역에 진입한 것으로 판단하고, 험지 영역에 진입한 것으로 판단되면 3차원 카메라 센서(146)가 바닥면과 관련된 영상(700)을 촬영하도록 상기 3차원 카메라 센서(146) 및 3차원 카메라 센서(146)와 본체에 상호 연결된 연결부재(1460)를 제어할 수 있다. 아울러, 제어부(180)는 구동모터의 출력 값이 단위시간 내에 제1 임계값 이상 변화하면, 험지 영역에 진입한 것으로 판단하여, 3차원 카메라 센서(146)가 바닥면과 관련된 영상을 촬영하도록 상기 3차원 카메라 센서(146)를 제어할 수 있다.
또 다른 예에서, 제어부(180)는 에지테이터의 회전 속도에 근거하여, 이동 로봇(100)이 험지 영역에 진입한 것으로 판단할 수 있다. 즉, 제어부(180)는 에지테이터의 회전 속도가 기준 회전 속도를 초과하면, 험지 영역에 진입한 것으로 판단하여, 3차원 카메라 센서(146)로 하여금 바닥면과 관련된 영상을 촬영하도록 상기 3차원 카메라 센서(146)를 제어할 수 있다. 아울러, 제어부(180)는 에지테이터의 회전 속도가 단위시간 내에 제2 임계값 이상 변화하면, 험지 영역에 진입한 것으로 판단하여, 3차원 카메라 센서(146)가 바닥면과 관련된 영상을 촬영하도록 상기 3차원 카메라 센서(146)를 제어할 수 있다.
이후, 3차원 카메라 센서(146)는 바닥면과 관련된 영상(700)에 포함된 복수의 지점에 각각 대응되는 3차원 좌표정보를 검출할 수 있다(S702). 예를 들어, 3차원 카메라 센서(146)는 본체의 진행방향 또는 본체의 전방에 위치하는 바닥면 상의 복수의 지점에 각각 대응되는 3차원 좌표 정보를 검출할 수 있다. 상기 복수의 지점은 이동 로봇(100)이 본체가 이동할 예정인 바닥면에 위치할 수 있다.
제어부(180)는 검출된 3차원 좌표정보를 이용하여, 본체의 일 지점으로부터 바닥면과 관련된 영상에 포함된 지점까지의 거리를 산출할 수 있다(S703).
예를 들어, 본체의 일 지점은 3차원 카메라 센서(146)의 렌즈의 전면에 위치할 수 있다. 또 다른 예에서, 본체의 일 지점은 이동 로봇(100)의 무게 중심과 대응될 수도 있다.
제어부(180)는 본체의 일 지점에 대한 3차원 좌표 정보를 기 설정된 3차원 좌표 축에 근거하여 설정하고, 바닥면과 관련된 영상으로부터 생성된 3차원 좌표 정보를 상기 기 설정된 3차원 좌표축으로 변환시킬 수 있다. 제어부(180)는 본체의 일 지점에 대한 3차원 좌표 정보와 변환된 3차원 좌표 정보를 이용하여, 본체의 일지점과 바닥면 상의 복수의 지점 사이의 거리를 각각 산출할 수 있다.
또한, 제어부(180)는 산출된 복수의 거리 값에 대한 분산을 산출할 수 있다(S704). 제어부(180)는 산출된 분산 값에 근거하여 자율 주행을 수행하는 청소기의 동작을 제어할 수 있다(S705).
위에서 분산을 산출하는 것은 복수의 거리 값에 대한 산포도(Degree of Scattering)를 이용하여 청소기를 제어하기 위함이다. 따라서, 본원 발명에 따른 이동 로봇 또는 자율 주행을 수행하는 청소기의 제어부(180)는 분산 외에, 표준편차, 평균편차, 사분편차 등을 산출할 수도 있다.
이하의 도 8a 및 8b에서는 본 발명에 따르는 이동 로봇에 구비된 3차원 카메라 센서가 촬영 각도를 변경하면서 장애물을 회피하는 방법이 설명된다.
도 8a를 참조하면, 이동 로봇(100)의 일부분에 설치된 3차원 카메라 센서(146)는, 이동 로봇(100)의 일반 주행 모드에서, 이동 로봇(100)이 직진주행을 수행하는 제1 방향(810) 또는 이동 로봇(100)의 본체의 전방을 지향할 수 있다.
제어부(180)는 3차원 카메라 센서(146)에서 생성된 3차원 좌표정보를 이용하여 이동 로봇(100)의 진행방향 상에 위치하는 장애물(801)을 검출할 수 있으며, 장애물(801)에 대한 회피 주행을 수행하도록 구동부를 제어할 수 있다.
즉, 제어부(180)는 장애물(801)에 대한 회피 주행을 수행하기 위해, 본체의 진행방향이 제2 방향(820)으로 변경되도록 구동부를 제어할 수 있다. 이 경우 제2 방향(820)는 제1 방향(810)으로부터 소정의 각도만큼 좌측 또는 우측으로 틀어진 방향일 수 있다.
아울러, 제어부(180)는 이동 로봇(100)이 회피 주행을 수행하는 경우, 이동 로봇(100)의 본체의 이동 방향을 예측할 수 있으며, 예측된 이동 방향에 근거하여 3차원 카메라 센서(146)가 지향하는 방향을 변경할 수 있다.
구체적으로, 제어부(180)는 장애물(801)과 본체 사이의 거리, 장애물(801)의 너비, 이동 로봇(100)의 현재 속도, 장애물(801)의 주변지형과 관련된 정보 중 적어도 하나를 이용하여, 이동 로봇(100)의 본체의 이동 방향을 예측할 수 있다.
도 8b를 참조하면, 제어부(180)는 예측된 이동 방향과 반대 방향으로 3차원 카메라 센서(146)를 회전시킬 수 있다. 또한, 제어부(180)는 이동 로봇(100)의 이동 방향이 변경된 방향과 반대 방향으로 3차원 카메라 센서(146)를 회전시킬 수 있다.
구체적으로, 장애물(801)을 회피하기 위해 이동 로봇(100)의 주행 방향이 제1 방향(810)에서 좌측으로 틀어져 제2 방향(820)으로 이동하면, 제어부(180)는 3차원 카메라 센서(146)를 우측으로 소정의 각도(α)만큼 회전시킬 수 있다.
예를 들어, 제1 방향(810)과 제2 방향(820)이 형성하는 각도는 상기 소정의 각도(α)에 대응될 수 있다.
또 다른 예에서, 제어부(180)는 제1 방향(810)과 제2 방향(820)이 형성하는 각도가 증가할수록 3차원 카메라 센서(146)의 회전 각도를 증가시킬 수 있다. 즉, 제어부(180)는 장애물(801)에 대한 회피 운전에 의해, 본체의 이동 방향이 틀어진 각도가 커질 수록, 3차원 카메라 센서(146)를 큰 각도로 회전시킬 수 있다.
이로써, 본원 발명의 이동 로봇(100)에 따르면 장애물에 대한 회피 운전을 수행하는 중에도, 시야각이 다소 좁은 3차원 카메라 센서(146)가 장애물에 대한 정보를 계속적으로 감지할 수 있다.
도 8a 및 도 8b에 도시되지는 않았으나, 제어부(180)는 장애물(801)에 대한 회피 주행이 완료된 것으로 판단되면, 3차원 카메라 센서가 지향하는 방향을 본체의 이동 방향에 대응시킬 수 있다. 즉, 제어부(180)는 장애물(801)에 대한 회피 주행이 완료되면, 3차원 카메라 센서가 본체의 전방을 지향하거나, 본체의 이동방향 또는 직진방향을 지향하도록 상기 3차원 카메라 센서가 지향하는 방향을 회귀시킬 수 있다.
이하의 도 9a 내지 도 9c에서는 본 발명에 따르는 이동 로봇의 3차원 카메라 센서(146)가 생성하는 3차원 좌표 정보와 관련된 3차원 좌표계를 결정하는 방법이 설명된다.
도 9a에 도시된 것과 같이, 카메라 좌표계(Xc, Yc, Zc)는 3차원 카메라 센서(146)의 렌즈가 지향하는 방향에 의하여 정의될 수 있다. 즉, 카메라 좌표계(Xc, Yc, Zc)는 3차원 카메라 센서(146)의 시점에 의해 결정될 수 있다.
도 9b를 참조하면, 글로벌 좌표계(X, Y, Z)는 이동 로봇의 주위 지형에 의해 결정될 수 있다. 글로벌 좌표계(X, Y, Z)는 3차원 카메라 센서(146)의 렌즈와 별도로 정의될 수 있다. 즉, 가상 좌표계(X, Y, Z)는 3차원 카메라 센서(146)의 시점과 상관없이 결정될 수 있다.
제어부(180)는 이동 로봇(100)의 본체 주위와 관련된 3차원 좌표 정보에 근거하여, 상기 글로벌 좌표계(X, Y, Z)와 관련된 정보를 설정할 수 있다.
구체적으로, 제어부(180)는 3차원 좌표 정보를 이용하여 본체 주위의 바닥면을 검출할 수 있고, 바닥면의 법선 벡터를 상기 글로벌 좌표계의 일 축으로 설정할 수 있다. 예를 들어, 제어부(180)는 바닥면의 법선 벡터를 글로벌 좌표계의 Z 축으로 설정할 수 있다.
이후, 제어부(180)는 상기 글로벌 좌표계의 또 다른 일 축을 설정하기 위해, 이동 로봇(100)의 본체 주위와 관련된 복수의 3차원 좌표 정보를 이용할 수 있다.
일 실시예에서, 제어부(180)는 상기 복수의 3차원 좌표 정보 각각에 대응되는 법선 벡터를 검출하고, 상기 바닥면에 정사영(Orthogonal Projection)된 각각의 법선 벡터와 상기 Z 축 사이의 각도를 산출할 수 있다. 제어부(180)는 각각의 법선 벡터마다 산출된 각도 값 중 최빈 값에 대응되는 법선 벡터를 상기 글로벌 좌표계의 또 다른 일 축으로 설정할 수 있다.
한편, 제어부(180)는 복수의 3차원 좌표 정보마다 검출된 각각의 법선 벡터와 상기 Z 축의 내적(Inner Product) 값을 산출하며, 산출된 내적 값을 기 설정된 임계 값과 비교할 수 있다. 제어부(180)는 비교결과에 근거하여 각각의 법선 벡터와 상기 Z 축 사이의 각도를 산출할 수 있다.
즉, 제어부(180)는 특정 3차원 좌표 정보에 대응되는 법선 벡터와 Z 축에 의해 산출되는 내적 값이 상기 임계 값보다 작은 것으로 판단되면, 상기 특정 법선 벡터와 Z 축 사이의 각도를 산출하지 않는다.
이로써, 제어부(180)는 법선 벡터와 Z 축의 내적 값을 상기 임계 값보다 크게 형성하는 법선 벡터를 이용하여 상기 Z 축 외의 글로벌 좌표계의 또 다른 일 축과 관련된 정보를 설정할 수 있다.
이와 같이 글로벌 좌표계의 두 축이 결정되면, 제어부(180)는 상기 두 축의 외적(Cross Product) 값을 산출하여, 글로벌 좌표계의 나머지 한 축과 관련된 정보를 설정할 수 있다.
도 9c를 참조하면, 제어부(180)는 카메라 좌표계(Xc, Yc, Zc) 및 글로벌 좌표계(X, Y, Z)와 관련된 정보를 이용하여, 3차원 카메라 센서(146)에서 생성된 3차원 좌표 정보를 글로벌 좌표계(X, Y, Z)의 좌표 정보로 변환시킬 수 있다.
구체적으로, 제어부(180)는 글로벌 좌표계 및 카메라 좌표계가 형성하는 각도에 근거하여, 카메라 좌표계로 형성된 3차원 좌표 정보를, 글로벌 좌표로 변환시킬 수 있다.
제어부(180)는 변환된 3차원 좌표 정보를 이용하여, 바닥면을 다시 검출할 수도 있다. 특히, 제어부(180)는 글로벌 좌표계로 변환된 3차원 좌표 정보를 이용하여 본체 주위의 지형 또는 장애물 정보를 갱신할 수 있다.
위와 같이 글로벌 좌표계(X, Y, Z)가 설정된 후, 제어부(180)는 3차원 카메라 센서(146)와 장애물 사이의 거리가 제1 거리일 때 생성된 3차원 좌표 정보와, 상기 제1 거리와 상이한 제2 거리일 때 생성된 3차원 좌표 정보를 동일한 좌표 정보로 변환시킬 수 있다.
또한, 제어부(180)는 3차원 카메라 센서(146)가 장애물의 제1 면을 마주할 때 생성된 3차원 좌표 정보와, 상기 제1 면과 상이한 제2 면일 때 생성된 3차원 좌표 정보를 동일한 좌표 정보로 변환시킬 수 있다.
이와 같은 구성에 의해, 본원발명의 이동 로봇은 3차원 카메라 센서(146)가 지향하는 방향이 변경되더라도, 일관된 좌표계로 형성된 3차원 좌표 정보를 획득할 수 있으므로, 3차원 좌표 정보에 대한 처리 작업의 정확도가 향상될 수 있다.
위와 같은 본 발명에 따르면, 이동 로봇이 3차원 카메라 센서를 이용하여 장애물과 관련된 3차원 좌표 정보를 획득할 수 있으므로, 이동 로봇이 이동 로봇의 주변에 위치하는 지형 또는 장애물과 관련된 정보를 보다 정확하게 획득할 수 있는 효과가 도출된다.
또한, 본 발명에 따르면, 이동 로봇이 3차원 좌표 정보를 이용하여 이동 로봇의 주변에 위치하는 장애물과 이동 로봇 사이의 거리를 실시간으로 검출할 수 있으므로, 이동 로봇과 장애물의 충돌을 방지할 수 있는 효과가 도출된다.
또한, 본 발명에 따르면, 3차원 카메라 센서를 이용하는 이동 로봇의 연산량을 감소시킴으로써, 이동 로봇이 장애물을 회피하기 위한 장애물 회피 운전을 신속하게 수행할 수 있으므로, 이동 로봇의 장애물 회피 운전 성능이 향상된다. 즉, 본 발명에 따르면 이동 로봇이 장애물을 회피하기 위해 즉각적으로 이동 방향을 변경시킬 수 있으므로, 이동 로봇과 장애물의 충돌을 방지할 수 있다.
또한, 본 발명에 따르면, 이동 로봇이 주변에 위치하는 지형 또는 장애물 정보를 검출하는 때, 3차원 카메라 센서에서 생성되는 노이즈의 영향을 감소시킬 수 있으므로, 이동 로봇이 이동 로봇의 주변에 위치하는 지형 또는 장애물과 관련된 정보를 보다 정확하게 획득할 수 있는 효과가 도출된다.
또한, 본 발명에 따르면, 이동 로봇이 주행중인 바닥의 재질 또는 형태를 보다 정확하게 검출할 수 있다.
또한, 본 발명에 따르면, 이동 로봇의 이동이나 3차원 카메라 센서의 회전에 의해, 3차원 카메라 센서의 시점이 변경되는 경우에도, 이동 로봇의 주변에 위치하는 지형 또는 장애물과 관련된 정보를 정확하게 검출할 수 있다.
또한, 본 발명에 따르면, 시야각이 비교적 좁은 3차원 카메라 센서를 이용하여 장애물 또는 지형 정보를 검출하는 이동 로봇이, 3차원 카메라 센서의 시야각보다 넓은 각도에 위치한 장애물을 회피하며 청소를 수행할 수 있는 효과가 도출된다.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (20)

  1. 본체;
    상기 본체를 이동시키기 위한 구동력을 제공하는 구동부;
    상기 본체의 일면에 부착되어, 상기 본체의 주위와 관련된 3차원 좌표 정보를 생성하는 3차원 카메라 센서;
    상기 생성된 3차원 좌표 정보에 근거하여, 상기 본체의 주위에 분포된 복수의 지점과 상기 본체의 일 지점 사이의 거리를 산출하고,
    상기 산출된 복수의 거리 값을 이용하여, 상기 본체의 주위에 존재하는 지형 및 장애물 중 적어도 하나와 관련된 정보를 검출하고,
    상기 검출된 정보에 근거하여 상기 구동부를 제어하는 제어부를 포함하는 자율주행을 수행하는 청소기.
  2. 제1항에 있어서,
    상기 3차원 카메라 센서는,
    상기 본체의 진행방향 측에 위치하는 바닥면과 관련된 영상을 촬영하고,
    상기 바닥면과 관련된 영상에 포함된 복수의 지점에 각각 대응되는 복수의 3차원 좌표 정보를 생성하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  3. 제2항에 있어서,
    상기 복수의 지점은, 상기 촬영된 영상의 기준 지점으로부터 소정의 거리 이내에 위치하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  4. 제3항에 있어서,
    상기 복수의 지점은, 상기 기준 지점을 포함하는 격자를 형성하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  5. 제2항에 있어서,
    상기 제어부는,
    상기 복수의 3차원 좌표 정보를 이용하여, 상기 본체의 일 지점으로부터, 상기 복수의 지점까지의 거리를 각각 산출하고,
    상기 산출된 복수의 거리 값들의 산포도(degree of scattering)에 근거하여, 상기 구동부의 출력 레벨을 설정하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  6. 제5항에 있어서,
    상기 제어부는,
    상기 산출된 복수의 거리 값들의 평균 값과, 분산을 산출하고,
    상기 산출된 평균 값 및 분산에 근거하여, 상기 구동부의 출력 레벨을 설정하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  7. 제6항에 있어서,
    상기 바닥면과 본체 사이의 거리 값과 관련된 데이터베이스를 저장하는 메모리를 더 포함하고,
    상기 제어부는,
    상기 산출된 복수의 거리 값들을 이용하여 상기 데이터베이스를 업데이트하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  8. 제6항에 있어서,
    상기 제어부는,
    상기 산출된 분산이 기 설정된 기준 분산 값보다 크면, 상기 구동력을 증가시키도록 상기 구동부를 제어하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  9. 제2항에 있어서,
    상기 구동부의 출력과 관련된 정보를 감지하는 출력감지수단을 더 포함하고,
    상기 제어부는,
    상기 출력감지수단을 이용하여, 단위시간 동안의 상기 구동부의 출력 변화가 기 설정된 임계 값을 초과하는지 여부를 판단하고,
    상기 출력 변화와 관련된 판단결과에 따라, 상기 본체의 진행방향 측에 위치하는 바닥면과 관련된 영상을 촬영하도록 상기 3차원 카메라 센서를 제어하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  10. 제1항에 있어서,
    상기 3차원 카메라 센서와 상기 본체 상호 간 결합되고, 상기 3차원 카메라 센서가 지향하는 방향을 변경시키는 연결부재를 더 포함하고,
    상기 연결부재는,
    상기 3차원 카메라 센서를 틸팅(tilting)시키는 제1 회전 모터와,
    상기 3차원 카메라 센서를 패닝(pannign)시키는 제2 회전 모터를 포함하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  11. 제10항에 있어서,
    상기 제어부는,
    상기 3차원 좌표 정보에 근거하여, 상기 본체의 주위에 배치된 장애물과 관련된 정보를 검출하고,
    검출된 장애물에 대해 회피 주행을 수행하도록 상기 구동부를 제어하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  12. 제11항에 있어서,
    상기 제어부는
    상기 회피 주행을 수행하는 경우, 상기 본체의 이동 방향을 예측하고,
    예측된 이동 방향에 근거하여 상기 3차원 카메라 센서가 지향하는 방향이 변경되도록 상기 연결부재를 제어하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  13. 제12항에 있어서,
    상기 제어부는,
    상기 예측된 이동 방향과 반대 방향으로 상기 3차원 카메라 센서를 회전시키는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  14. 제13항에 있어서,
    상기 제어부는,
    상기 회피 주행이 완료되면, 상기 3차원 카메라 센서가 지향하는 방향을 상기 본체의 이동 방향으로 회귀시키는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  15. 제1항에 있어서,
    상기 제어부는,
    상기 생성된 3차원 좌표 정보 중 어느 하나에 대해, 이웃하는 3차원 좌표 정보를 이용하여 법선 벡터 정보를 생성하고,
    생성된 벡터 정보에 근거하여 평면을 형성하는 영역을 검출하며,
    검출된 영역 중 바닥면에 해당하는 영역을 검출하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  16. 제15항에 있어서,
    상기 3차원 카메라 센서는,
    상기 본체의 주위와 관련된 2차원 영상을 촬영하고,
    상기 2차원 영상에 대응되는 복수의 3차원 좌표 정보를 획득하고,
    상기 제어부는,
    상기 2차원 영상을 단위 영역으로 분할하고,
    상기 분할된 단위 영역 중 적어도 일부분에 해당하는 3차원 좌표 정보를 이용하여, 상기 법선 벡터 정보를 생성하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  17. 제16항에 있어서,
    상기 제어부는,
    상기 생성된 법선 벡터 정보에 근거하여, 상기 분할된 단위영역이 평면인지 여부를 판단하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  18. 제17항에 있어서,
    상기 제어부는,
    상기 분할된 단위 영역이 평면인지 여부에 대한 판단결과를 이용하여, 상기 2차원 영상에서 바닥면에 해당하는 영역을 검출하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  19. 제2항에 있어서,
    상기 제어부는,
    상기 3차원 좌표 정보를 이용하여, 글로벌 좌표계와 관련된 정보를 설정하는 것을 특징으로 하는 자율주행을 수행하는 청소기.
  20. 제19항에 있어서,
    상기 제어부는,
    상기 글로벌 좌표계와 관련된 정보에 근거하여, 상기 3차원 카메라 센서에서 생성된 3차원 좌표 정보를 상기 글로벌 좌표계로 변환시키는 것을 특징으로 하는 자율주행을 수행하는 청소기.
KR1020160026616A 2016-03-04 2016-03-04 이동 로봇 및 그 제어방법 KR101897775B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160026616A KR101897775B1 (ko) 2016-03-04 2016-03-04 이동 로봇 및 그 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160026616A KR101897775B1 (ko) 2016-03-04 2016-03-04 이동 로봇 및 그 제어방법

Publications (2)

Publication Number Publication Date
KR20170103556A true KR20170103556A (ko) 2017-09-13
KR101897775B1 KR101897775B1 (ko) 2018-09-12

Family

ID=59967861

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160026616A KR101897775B1 (ko) 2016-03-04 2016-03-04 이동 로봇 및 그 제어방법

Country Status (1)

Country Link
KR (1) KR101897775B1 (ko)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020222490A3 (ko) * 2019-04-30 2020-12-30 에브리봇 주식회사 이동 로봇
CN113217071A (zh) * 2021-05-10 2021-08-06 中煤科工集团重庆研究院有限公司 井下作业自动吸尘罩
WO2021177540A1 (ko) * 2020-03-04 2021-09-10 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
WO2021215688A1 (en) * 2020-04-22 2021-10-28 Samsung Electronics Co., Ltd. Robot cleaner and controlling method thereof
WO2022059937A1 (ko) * 2020-09-21 2022-03-24 삼성전자 주식회사 로봇 및 그의 제어 방법
US20220125255A1 (en) * 2019-01-17 2022-04-28 Lg Electronics Inc. Mobile robot and method of controlling mobile robot
WO2023038218A1 (ko) * 2021-09-07 2023-03-16 삼성전자주식회사 로봇 및 그 제어 방법
US11906973B2 (en) 2020-01-21 2024-02-20 Samsung Electronics Co., Ltd Electronic device and method for controlling robot
US12004702B2 (en) * 2019-01-17 2024-06-11 Lg Electronics Inc. Mobile robot and method of controlling mobile robot

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040045572A (ko) * 2002-11-25 2004-06-02 삼성광주전자 주식회사 로봇청소기의 회전각도 산출방법
KR20070045475A (ko) * 2005-10-27 2007-05-02 엘지전자 주식회사 로봇 청소기에 장착된 카메라의 제어 장치 및 방법
KR20150138889A (ko) * 2014-05-30 2015-12-11 동명대학교산학협력단 3차원 깊이정보기반 자율주행 로봇의 위치추정 장치 및 그 방법
KR20160003776A (ko) * 2013-09-12 2016-01-11 도요타지도샤가부시키가이샤 자세 추정 방법 및 로봇

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040045572A (ko) * 2002-11-25 2004-06-02 삼성광주전자 주식회사 로봇청소기의 회전각도 산출방법
KR20070045475A (ko) * 2005-10-27 2007-05-02 엘지전자 주식회사 로봇 청소기에 장착된 카메라의 제어 장치 및 방법
KR20160003776A (ko) * 2013-09-12 2016-01-11 도요타지도샤가부시키가이샤 자세 추정 방법 및 로봇
KR20150138889A (ko) * 2014-05-30 2015-12-11 동명대학교산학협력단 3차원 깊이정보기반 자율주행 로봇의 위치추정 장치 및 그 방법

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220125255A1 (en) * 2019-01-17 2022-04-28 Lg Electronics Inc. Mobile robot and method of controlling mobile robot
US12004702B2 (en) * 2019-01-17 2024-06-11 Lg Electronics Inc. Mobile robot and method of controlling mobile robot
WO2020222490A3 (ko) * 2019-04-30 2020-12-30 에브리봇 주식회사 이동 로봇
US11906973B2 (en) 2020-01-21 2024-02-20 Samsung Electronics Co., Ltd Electronic device and method for controlling robot
WO2021177540A1 (ko) * 2020-03-04 2021-09-10 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
KR20210112104A (ko) * 2020-03-04 2021-09-14 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
WO2021215688A1 (en) * 2020-04-22 2021-10-28 Samsung Electronics Co., Ltd. Robot cleaner and controlling method thereof
EP4057880A4 (en) * 2020-04-22 2023-01-11 Samsung Electronics Co., Ltd. CLEANING ROBOTS AND CONTROL METHOD THEREOF
US11653808B2 (en) 2020-04-22 2023-05-23 Samsung Electronics Co., Ltd. Robot cleaner and controlling method thereof
WO2022059937A1 (ko) * 2020-09-21 2022-03-24 삼성전자 주식회사 로봇 및 그의 제어 방법
CN113217071A (zh) * 2021-05-10 2021-08-06 中煤科工集团重庆研究院有限公司 井下作业自动吸尘罩
WO2023038218A1 (ko) * 2021-09-07 2023-03-16 삼성전자주식회사 로봇 및 그 제어 방법

Also Published As

Publication number Publication date
KR101897775B1 (ko) 2018-09-12

Similar Documents

Publication Publication Date Title
KR101897775B1 (ko) 이동 로봇 및 그 제어방법
US10966585B2 (en) Moving robot and controlling method thereof
JP6891289B2 (ja) 掃除機及びその制御方法
KR102398330B1 (ko) 이동 로봇 및 그 제어방법
US10591925B2 (en) Cleaner and controlling method thereof
US11029700B2 (en) Mobile robot and control method thereof
KR101822942B1 (ko) 로봇 청소기 및 이의 제어 방법
US11412907B2 (en) Cleaner and controlling method thereof
US11832782B2 (en) Vacuum cleaner and method for controlling same
KR101917701B1 (ko) 청소기 및 그 제어방법
KR101786516B1 (ko) 이동 로봇 및 그 제어방법
US20210244252A1 (en) Artificial intelligence vacuum cleaner and control method therefor
EP3795051B1 (en) Cleaner and method for controlling same
US11969136B2 (en) Vacuum cleaner and control method therefor
EP3795050A1 (en) Vacuum cleaner and control method thereof
KR102320560B1 (ko) 이동 로봇 및 이동 로봇의 제어방법
US11998159B2 (en) Vacuum cleaner and control method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant