KR20170047381A - 이동 로봇 - Google Patents

이동 로봇 Download PDF

Info

Publication number
KR20170047381A
KR20170047381A KR1020177008877A KR20177008877A KR20170047381A KR 20170047381 A KR20170047381 A KR 20170047381A KR 1020177008877 A KR1020177008877 A KR 1020177008877A KR 20177008877 A KR20177008877 A KR 20177008877A KR 20170047381 A KR20170047381 A KR 20170047381A
Authority
KR
South Korea
Prior art keywords
robot
light source
features
detection unit
illuminance
Prior art date
Application number
KR1020177008877A
Other languages
English (en)
Inventor
쯔 지
크리스토퍼 앤드루 스미스
Original Assignee
다이슨 테크놀러지 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 다이슨 테크놀러지 리미티드 filed Critical 다이슨 테크놀러지 리미티드
Publication of KR20170047381A publication Critical patent/KR20170047381A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D25/00Control of light, e.g. intensity, colour or phase
    • G05D25/02Control of light, e.g. intensity, colour or phase characterised by the use of electric means
    • G06K9/4661
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • H04N5/2256
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Electric Vacuum Cleaner (AREA)
  • Image Input (AREA)

Abstract

이동 로봇은 시각 시스템 및 제어 시스템을 포함하고, 상기 시각 시스템은 카메라 및 적어도 하나의 광원을 포함하고, 상기 광원은 상기 이동 로봇을 둘러싸는 영역에 조도를 제공하도록 배치되고, 상기 제어 시스템은 상기 시각 시스템에 의해 캡처된 영상 내의 피처를 검출하기 위한 피처 검출 유닛을 포함하고, 상기 광원에 의해 제공되는 조도는 상기 피처 검출 유닛에 의해 검출된 피처의 수에 대응하여 조절된다.

Description

이동 로봇{A MOBILE ROBOT}
본 발명은 이동 로봇, 구체적으로 주위를 조명할 수 있는 이동 로봇에 관한 것이다.
이동 로봇은 점점 흔해지고 있고, 우주 탐사, 잔디 깎기, 및 바닥 청소와 같은 다양한 분야에서 사용되고 있다. 최근 로봇 바닥 청소 장치, 특히 진공 청소기 분야에서 급속한 발전이 이루어져 왔고, 로봇 바닥 청소 장치의 주요 목적은 사용자의 집을 자율적으로 및 눈에 띄지 않게 내비게이팅하면서 바닥을 청소하는 것이다.
이러한 작업을 수행할 때 로봇 진공 청소기는 청소되어야 하는 영역을 내비게이팅해야 한다. 일부 로봇에는 가장 기본적인 내비게이션 시스템이 구비되고, 로봇은 소위 "랜덤 바운스(random bounce)" 방법으로 칭해지는 방법을 사용하고, 로봇은 장애물을 만날 때까지 임의의 주어진 방향으로 이동할 것이고, 장애물을 만났을 때 로봇은 방향을 전환하여 다른 장애물을 만날 때까지 다른 랜덤 방향으로 이동할 것이다. 시간이 지남에 따라 로봇이 가능한 한 청소되어야 하는 많은 바닥 공간을 커버할 것이 기대된다. 불행히도, 이러한 랜덤 바운스 내비게이션 계획은 부족하고, 종종 청소되어야 하는 바닥의 많은 영역이 완전히 생략되는 것으로 알려졌다.
따라서, 더 우수한 내비게이션 방법이 연구되고 이동 로봇에 적용되고 있다. 예컨대, 동시 로컬라이제이션 및 매핑(Simultaneous Localisation and Mapping; SLAM) 기법이 이제 일부 로봇에 적용되기 시작하고 있다. 이러한 SLAM 기법은 주위 영역을 보고, 이해하며, 인식함으로써 로봇이 더욱 체계적인 내비게이션 패턴을 채택하게 해준다. SLAM 기법을 사용하여, 더욱 체계적인 내비게이션 패턴이 얻어질 수 있고, 그 결과 로봇 진공 청소기의 경우에 로봇이 필요한 영역을 더욱 효과적으로 청소할 수 있다.
SLAM 기법을 이용하는 로봇은 주위 영역의 정지 또는 이동 영상을 캡처할 수 있는 시각 시스템을 필요로 한다. 테이블의 코너 또는 사진 프레임의 에지와 같은 영상 내의 고대비 피처(high contrast feature)(때로는 랜드마크 피처라고 칭해짐)가 SLAM 시스템에 의해 사용되어, 로봇이 그 영역의 지도를 형성하여 삼각측량을 이용하여 지도 내의 위치를 결정하는 것을 도와준다. 또한, 로봇은 피처의 속도와 이동을 분석하기 위하여 영상 내에서 검출하는 피처의 상대 운동을 이용할 수 있다.
SLAM 기법은 매우 강력하고, 매우 개선된 내비게이션 시스템을 허용한다. 그러나, SLAM 기법은 오직 시각 시스템에 의해 캡처된 영상 내에 충분한 피처를 검출할 수 있는 경우에만 제대로 기능할 수 있다. 따라서, 어떤 로봇은 빛이 적은 조건을 가진 방에서 또는 시각 시스템에 의해 캡처된 영상이 열악한 대비를 가지는 경우에 성공적으로 내비케이팅하는데 어려움을 겪는다는 것을 발견하였다. 따라서, 어떤 로봇은 충분한 주변 광이 이용가능한 낮 동안에 내비게이팅하도록 제한되어 있다. 로봇 바닥 청소기의 경우에, 이것은 바람직하지 않은데, 그 이유는 사용자가 로봇 바닥 청소기가 자신들이 자고 있는 밤에 청소하도록 계획하는 것을 원할 수 있기 때문이다. 이러한 문제점을 극복하기 위하여, 어떤 로봇에는 카메라에 의해 캡처되는 영상을 개선하는데 필요하여 온/오프가 가능한 헤드라이트로서 작동하는 라이트가 구비되어, 로봇이 자신이 이동하고 있는 방향을 보는 것을 도와준다. 이것의 일례는 US 2013/0056032에 설명되어 있다.
그러나, 로봇에 헤드라이트를 사용하는 것과 관련된 문제점이 존재한다. 자율주행 로봇이 가구와 같은 장애물을 포함할 수 있는 영역의 주위에서 자유롭게 내비게이팅할 수 있도록, 로봇에는 일반적으로 배터리 형태의 온보드 전력원이 구비된다. 헤드라이트의 사용은 로봇의 배터리 수명을 감소시킬 수 있고, 이것은 로봇이 더 짧은 시간 안에 충전 스테이션으로 복귀해야 된다는 것을 의미한다. 따라서, 이것은 로봇이 내비게이팅하기 위하여 헤드라이트를 사용할 필요가 없었다면 가능했었던 경우보다 충전 사이에 더 작은 영역만을 청소할 수 있다는 것을 의미한다.
본 발명은 이동 로봇을 제공하고, 상기 이동 로봇은 시각 시스템 및 제어 시스템을 포함하고, 상기 시각 시스템은 카메라 및 적어도 하나의 광원을 포함하고, 상기 광원은 상기 이동 로봇을 둘러싸는 영역에 조도(level of illumination)를 제공하도록 배치되고, 상기 제어 시스템은 상기 시각 시스템에 의해 캡처된 영상 내의 피처(feature)를 검출하기 위한 피처 검출 유닛을 포함하고, 상기 광원에 의해 제공되는 조도는 상기 피처 검출 유닛에 의해 검출된 피처의 수에 대응하여 조절된다.
그 결과, 로봇은 최적의 조도를 제공할 수 있고, 이것은 로봇이 저조도 또는 열악한 대비 조건에서도 성공적으로 내비게이팅하기에 충분한 피처한 검출되도록 해주지만, 반드시 전력을 낭비하지는 않는다. 따라서, 로봇은 개선된 내비게이션 시스템과 개선된 배터리 수명을 가질 것이다.
상기 제어 시스템은 검출된 피처의 수와 미리 정해진 최소 임계 피처의 수를 비교할 수 있고, 상기 조도는 상기 비교에 대응하여 조절될 수 있다. 그 결과, 최소 임계 피처의 수와의 비교를 이용하여, 로봇이 내비게이팅하기에 충분한 피처가 결정되도록 해주는 필요한 최소 조도를 신속하고 용이하게 결정할 수 있다.
상기 미리 정해진 최소 임계 피처의 수는 로봇이 성공적으로 내비게이팅하기 위해 요구되는 최소 피처의 수에 대응될 수 있다. 이것은 로봇에 의해 엄격히 요구되는 것보다 더 많은 조도를 제공하는데 에너지가 낭비되지 않도록 보장해줄 것이다.
비교한 결과 상기 영상 검출 유닛에 의해 검출된 피처의 수가 상기 최소 임계 피처의 수보다 적으면, 상기 영상 검출 유닛에 의해 검출된 피처의 수가 상기 최소 임계 피처의 수를 만족할 때까지 상기 조도가 증가될 수 있다. 비교한 결과 상기 영상 검출 유닛에 의해 검출된 피처의 수가 상기 최소 임계 피처의 수보다 많으면, 상기 영상 검출 유닛에 의해 검출된 피처의 수가 상기 최소 임계 피처의 수를 만족하거나 또는 상기 조도가 0에 도달할 때까지 상기 조도가 감소된다. 그 결과, 로봇의 내비게이션에 혼란을 주지 않고 최적의 조도가 신속하고 효율적으로 얻어진다.
상기 조도는 상기 비교에 대응하여 미리 정해진 양만큼 조절될 수 있다. 따라서, 조도는 올바른 수준에 도달할 때까지 설정량만큼 균일하게 조절될 것이다. 이것은 복잡한 절차를 요구하지 않고, 따라서 처리 전력을 증가시켜 최적의 조도에 도달하도록 하는 단순한 방법을 제공한다.
상기 비교는 상기 영상 검출 유닛에 의해 검출된 피처의 수와 상기 최소 임계 피처의 수 사이의 차이를 결정하는 것을 포함할 수 있고, 상기 조도는 상기 차이의 크기에 비례하도록 조절될 수 있다. 이것은 추가적인 처리 전력을 요구할 수 있지만, 현재의 조도가 최적의 조도에서 많이 벗어나 있는 경우 더 많이 조절될 수 있게 해줌으로써, 더욱 신속하게 최적의 조도를 달성할 것이다.
로봇이 작동하는 동안, 상기 피처 검출 유닛에 의해 검출된 피처의 수는 계속적으로 모니터링될 수 있고, 상기 광원에 의해 제공된 조도는 계속적으로 조절될 수 있다. 이것은 로봇이 주변환경을 내비게이팅하고 다양한 주변 조도를 접할 때, 로봇의 내비게이션에 대한 부정적인 영향 없이 이러한 변화하는 주변 조도에 신속하고 효율적으로 대처할 수 있음을 의미한다.
상기 광원에 의해 제공된 조도는 상기 광원에 공급된 파워를 조절함으로써 조절될 수 있다. 이것은 큰 조도를 제공할 필요가 없는 경우 광원에 제공되는 전력이 감소될 수 있게 해준다. 이러한 효율적인 전력의 사용은 로봇의 배터리 수명을 연장시킬 수 있다.
상기 카메라는 파노라마 환형 렌즈(panoramic annular lens; PAL) 카메라일 수 있다. 이것은 로봇을 둘러싸는 영역의 완전한 360도 시야를 제공하는 영상을 로봇이 캡처하도록 해주고, 따라서 근처 장애물에 의해 쉽게 가려지지 않는 더욱 개선된 내비게이션 시스템을 허용한다.
상기 광원은 발광다이오드(LED)를 포함할 수 있다. LED는 특히 에너지 효율적이고, 백열 전구와 같은 어떤 다른 유형의 광원보다 훨씬 더 적은 전력을 소모하고, 따라서 로봇의 배터리 수명이 더욱 연장될 수 있다.
상기 광원은 적외선(IR)을 방출할 수 있다. 그 결과, 광원은 로봇의 카메라가 검출할 수 있는 우수한 조명을 제공할 수 있지만, 가시광선을 비춤으로 인한 사용자에게 잠재적인 성가심을 유발하지 않는다.
상기 이동 로봇은 로봇 진공 청소기일 수 있다.
본 발명을 더욱 용이하게 이해할 수 있도록, 이하 예시로서 첨부된 도면을 참조하여 본 발명의 실시예들이 이제 설명될 것이다.
도 1은 이동 로봇의 구성요소의 개략적 예시이다.
도 2는 조도를 제어하는 프로세스를 보여주는 순서도이다.
도 3, 4, 및 5는 이동 로봇을 도시하고 있다.
도 6은 방 환경 내에 위치한 이동 로봇을 도시하고 있다.
도 7a 및 8a는 도 6에 도시된 이동 로봇의 카메라에 의해 캡처된 영상의 예시를 도시하고 있다.
도 7b 및 8b는 7a 및 8a의 캡처된 영상에서 사용되는 대응 LED 세기를 보여주는 그래프이다.
도 9, 10, 및 11은 이동 로봇의 추가 실시예를 도시하고 있다.
도 1은 이동 로봇(1)의 구성요소의 개략적 예시를 도시하고 있다. 이동 로봇(1)은 3개의 시스템: 시각 시스템(2), 제어 시스템(8), 및 구동 시스템(14)을 포함한다. 이러한 3개 시스템의 조합은 로봇(1)이 위치한 환경 주위를 로봇(1)이 보고, 해석하고, 내비케이팅하도록 해준다. 시각 시스템(2)은 카메라(3) 및 광원(4)을 포함한다. 카메라(3)는 이동 로봇()1)을 둘러싸는 영역의 영상을 캡처할 수 있다. 예컨대, 카메라(3)는 천장의 영상을 캡처하도록 위쪽으로 지향되는 카메라, 로봇(1)의 전방 이동 방향으로 영상을 캡처하는 전방 대향 카메라일 수 있거나, 또는 로봇(1)을 둘러싸는 영역의 360도 시야를 캡처하는 파노라마 환형 렌즈(PAL) 카메라일 수 있다. 로봇(1)이 저조도 조건을 가지는 환경에 위치할 때 또는 카메라(3)에 의해 캡처된 영상이 열악한 대비를 겪는 경우, 광원(4)은 카메라(3)에 의해 캡처된 영상의 질을 개선시킬 수 있다. 광원(4)은 임의의 광원일 수 있고, 예컨대 광원(4)은 발광다이오드(LED)이다. 광원(4)은 로봇(1)을 둘러싸는 영역에 조도를 제공할 수 있다. 광원(4)은 카메라(3)에 의해 캡처된 영상의 질을 개선시킬 수 있도록, 카메라의 센서가 검출할 수 있는 임의 대역의 광을 방출할 수 있다. 예컨대, 광원(4)에 의해 방출되는 광은 전자기적 스펙트럼의 가시광선, 근적외선(NIR), 또는 적외선(IR) 부분 내일 수 있다.
이동 로봇(1)의 시각 시스템(2)은 주위 환경에 대한 정보를 로봇(1)에 제공하는 수개의 다른 유형의 센서를 포함할 수 있다. 2개의 예시가 도 1에 도시되어 있는데: 위치 감응 장치(PSD)(5)와 물리적 접촉 센서(6)이다. PSD(5)는 근접 센서, 예컨대 IR 센서 또는 소나 센서일 수 있고, 로봇(1) 근처에 있을 수 있는 임의의 장애물을 표시할 수 있다. 이것은 로봇(1)이 장애물과 접촉하지 않고서도 장애물을 회피할 수 있게 해준다. 물리적 접촉 센서(6)는 로봇(1)이 장애물과 언제 접촉하는지를 알게 해준다. 물리적 접촉 센서(6)로부터의 신호에 대응하여, 로봇은 예컨대 자신의 위치 및 궤적을 정지 및/또는 조절할 수 있다. 이것은 특히 장애물이 PSD(5)에 의해 검출되지 않았을 때, 로봇(1)이 로봇 자체 또는 로봇이 접촉하는 장애물에 대한 임의의 손상을 발생시키는 것을 예방한다.
시각 시스템(2)에 의해 수집된 모든 정보와 데이터는 제어 시스템(8)에 제공된다. 제어 시스템(8)은 피처 검출 유닛(9)을 포함한다. 피처 검출 유닛(9)은 시각 시스템(2)에 의해 캡처된 영상을 수신하고, 이러한 영상을 분석하여 영상에 보여지는 로봇(1) 주위의 영역 내의 랜드마크 피처를 발견한다. 랜드마크 피처는 영상 내에서 쉽게 검출되는 고대비 피처, 예컨대 테이블의 에지, 또는 사진 프레임의 코너이다. 피처 검출 유닛(9)에 의해 검출된 랜드마크 피처는 국지적 환경 내에서 로봇의 위치를 삼각측량하고 결정하도록 내비게이션 유닛(10)과 매핑 유닛(11)에 의해 사용될 수 있다. 매핑 유닛(10)은 또한 로봇(1) 환경을 해석하고 내비게이팅하는 환경의 지도를 생성하기 위하여, 영상으로부터의 정보 및 시각 시스템(2)에 있는 다른 센서로부터 캡처된 데이터를 이용할 수 있다. 피처 검출 유닛(9), 매핑 유닛(10), 및 내비게이션 유닛(11)은 로봇(1)에서 단일의 망라하는 동시 로컬라이제이션 및 매핑(SLAM) 유닛의 일부를 형성할 수 있다.
명령이 제어 시스템(8)으로부터 로봇을 움직이게 하는 구동 시스템(14)으로 보내진다. 구동 시스템(14)은 좌측(LHS) 트랙션 유닛(15) 및 우측(RHS) 트랙션 유닛(16)을 포함하는 것으로 도 1에 도시되어 있다. 각각의 트랙션 유닛(15, 16)은 로봇(1)이 조향될 수 있도록 독립적으로 제어될 수 있다. 예컨대, RHS 트랙션 유닛(16)이 LHS 트랙션 유닛(15)보다 더 빨리 전방으로 구동되면, 로봇은 전방으로 진행함에 따라 좌측으로 방향 전환할 것이고, 또는 예컨대 LHS 및 RHS 트랙션 유닛(15, 16)이 동일한 속도이지만 반대 방향으로 각각 구동되면, 로봇(1)은 제자리에서 회전할 것이다. 구동 시스템(14)은 또한 제어 시스템(8)으로 다시 데이터를 전송할 수 있다. 예컨대, 구동 시스템으로부터 제어 시스템(8)으로 전송된 데이터는 트랙션 유닛에 의해 이동된 거리를 표시할 수 있다(예컨대, 휠의 회전수를 사용하여).
제어 시스템(8)은 또한 조명 제어 유닛(12)을 포함한다. 조명 제어 유닛(12)은 제어 신호와 같은 명령을 시간 시스템(2)에 전송하여, 광원(4)에 의해 제공되는 조도를 조절한다. 로봇(1)이 환경 주위를 성공적으로 내비게이팅할 수 있도록, 피처 검출 유닛(9)이 반드시 검출할 수 있는 최소 개수의 랜드마크 피처가 있다. 따라서, 로봇(1)이 저조도 조건에서 내비게이팅하는 것을 시도하고 있고 피처 검출 유닛(9)이 최소 개수의 피처를 검출할 수 없으면, 조명 제어 유닛(12)은 광원(4)의 세기를 증가시키도록 시각 시스템(2)에 명령을 전송한다.
만약 광원이 반드시 필요하지 않은 경우에 사용된다면(예컨대, 주변 조도가 최소 개수의 피처를 검출하기에 충분한 경우), 광원(4)은 배터리로부터 불필요한 전력을 사용하여 로봇(1)의 배터리 수명을 감소시킬 것이다. 따라서, 피처 검출 유닛(9)에 의해 검출된 랜드마크 피처의 개수가 성공적인 내비게이션을 위해 필요한 최소 개수보다 더 많다면, 조명 제어 유닛(12)은 또한 광원(4)의 세기를 감소시키도록 시각 시스템(2)에 명령을 전송한다.
조도의 증가와 감소는 다양한 방식으로 행해질 수 있다. 예컨대, 필요한 최적의 조도를 결정하는 알고리즘이 사용될 수 있다. 조명 제어 유닛(12)이 조도가 변화되도록 명령을 전송할 때, 매번 적은 양만큼 그렇게 되고, 프로세스는 허용가능한 조도에 도달할 때까지 반복된다. 조도는 광원(4)에 공급된 전력을 증가 또는 감소시킴으로써 조절되고, 이것은 광원(4)에 의해 방출되는 광의 세기 변화를 발생시킬 것이다. 따라서, 광원에 의해 제공된 조도를 조절한다고 말할 때, 이것은 광원에 공급되는 전력을 조절하는 것과 동일한 것으로 이해될 것이다. 더 낮은 조도가 필요할 때 광원(4)에 공급되는 전력을 감소시킴으로써, 로봇(1)의 에너지 효율과 배터리 수명이 증가될 수 있다.
피처 검출 유닛에 의해 검출되고 있는 피처의 수는 계속적으로 모니터링되고, 따라서 또한 조도가 계속적으로 제어된다. 작은 조절량이 미리 정해진 양일 수 있다. 대안적으로, 조절량이 검출되고 있는 피처의 수와 성공적인 내비게이션을 위해 필요한 최소 피처의 수 사이의 차이에 비례하도록 수시로 계산될 수 있다. 그러면 계산된 조절량은 조도를 변화시키는 명령과 함께 시각 시스템(2)으로 전송될 것이다.
도 2는 광원(4)으로부터 조도를 제어하는 프로세스를 보여주는 순서도이다. 시작 이후, 로봇은 검출된 피처의 개수(NDETECT)가 임계 개수(NTHRESH)보다 더 작은지 여부를 결정한다. NTHRESH 는 환경 주위를 내비게이팅하기 위하여 로봇이 SLAM 기법을 성공적으로 사용할 수 있도록 하는데 필요한 랜드마크 피처의 최저 개수에 대응하는 미리 정해진 임계 개수이다. NDETECT 가 NTHRESH 보다 더 작으면(NDETECT < NTHRESH), 조도는 설정량만큼 증가되고, 프로세스는 반복된다. NDETECT 가 NTHRESH 보다 더 작지 않으면, 로봇은 NDETECT 가 NTHRESH 와 동일한지 여부(NDETECT = NTHRESH)를 결정한다. NDETECT = NTHRESH 이면, 조도는 변화되지 않고, 로봇은 계속하여 내비게이팅한다. 대안적으로, NDETECT ≠ NTHRESH 이면, NDETECT 가 NTHRESH 보다 더 크다고(NDETECT > NTHRESH) 추론할 수 있다. 그러면 로봇은 조도가 이미 0인지 알기 위하여 확인한다. 조도가 0이 아니면, 조도는 설정량만큼 감소되고, 프로세스는 반복된다. 그러나, 조도가 이미 0이면, 로봇은 계속해서 내비게이팅한다.
도 2의 프로세스는 미리 정해진 설정량만큼 조도를 증가 및 감소시키지만, 앞서 설명한 바와 같이, 조도의 조절량은 변할 수 있고, 예컨대 NDETECT 와 NTHRESH 사이의 차이에 비례할 수 있다.
도 3은 본체(20)와 분리 장치(21)를 포함하는 로봇 진공 청소기(1)를 도시하고 있다. 본체(20)는 연속 탱크 트랙의 형태인 트랙션 유닛(22) 및 브러시바를 수용하는 청소기 헤드(23)를 포함하고, 청소기 헤드를 통해 더러운 공기가 로봇 진공 청소기(1) 내로 흡입되어 분리 장치(21) 내로 전달될 수 있다. 일단 분리 장치에서 먼지가 공기로부터 제거되면, 공기는 분리 장치(21)를 나와서, 기류를 발생시키기 위한 모터 및 팬을 수용하는 본체(21)를 통해 지나간다. 공기는 그런 다음 기계의 후방에 있는 통기부(27)를 통해 로봇(1)으로부터 배출된다. 통기부(27)는 제거될 수 있어서, 세척될 수 있도록 필터에 대한 접근 및 배터리 팩인 로봇(1)의 전력원에 대한 접근을 제공한다. 본체(20)는 또한 로봇(1)이 로봇(1)을 둘러싸는 영역의 영상을 캡처하는데 사용하는 카메라(24)를 포함한다. 카메라(24)는 파노라마 환형 렌즈(PAL) 카메라이고, 이것은 로봇을 둘러싸는 영역의 360도 영상을 캡처할 수 있는 전방향 카메라이다. 로봇 내에 포함된 소프트웨어 및 전자장비 내에서 구현되는 로봇의 제어 시스템은 동시 로컬라이제이션 및 매핑(SLAM) 기법을 사용할 수 있어서, 카메라(24)에 의해 캡처된 영상을 처리하고, 이것은 로봇(1)이 국지적 환경을 이해하고, 해석하며, 자율적으로 내비게이팅하도록 해준다.
센서 커버(28)는 PSD 센서와 같은, 본체(20)에 적재되는 다른 센서를 덮는다. 각각의 센서 커버(28) 아래에는 장애물이 로봇 전방 및 양측에서 검출될 수 있도록 서로 다른 방향으로 지향된 센서 어레이가 있다. 측면 PSD 센서는 로봇 주변에 있는 장애물을 픽업할 수 있고, 또한 벽 따라 움직이기 모드로 로봇이 내비게이팅하도록 도와주는데 사용될 수 있고, 벽 따라 움직이기 모드에서는 로봇이 가능한 방의 벽에 근접하여 평행하게 이동한다. 또한, 지면을 향하여 아래쪽으로 지향되는 PSD 센서도 존재하는데, 이것은 절벽 센서로서 작동하고, 로봇이 계단과 같은 낙하지점에 접근할 때는 검출한다. 낙하지점이 검출되면, 로봇은 낙하지점에 도달하기 전에 정지 및/또는 위험을 회피하도록 궤도를 조절할 수 있다. 물리적 접촉 센서는 도면에서 보이지 않는다. 어떤 로봇은 물리적 접촉 센서로서 가동 범퍼부를 사용하지만, 본 로봇은 장애물과의 물리적 접촉을 알아내기 위하여 본체(2)의 분리된 섀시와 바디부 사이의 상대 운동을 검출한다.
로봇(1)의 본체(20)는 본체(20)의 측면에 손잡이(25)를 포함한다. 본 도면에서는 보이지 않는 유사한 손잡이가 본체(20)의 다른 측면에 구비되어 있어서, 사용자는 로봇(1)을 집어 올릴 수 있도록 2개의 손잡이(25)를 사용할 수 있다. 손잡이(25)는 본체(20)의 측벽의 내향 돌출부를 포함한다. 이것은 사용자가 로봇을 견고하게 잡는 것을 용이하게 만들지만, 국지적 환경 내에 있는 가구 또는 다른 장애물에 쉽게 잡히거나 걸릴 수 있는 본체(20) 상에 외부 손잡이를 요구하지 않는다. 외측 방향으로 향하는 손잡이(25)의 내면(26)은 투명한 재료로 형성되어, 윈도우로서 역할한다. 도 4는 동일한 로봇(1)을 도시하고 있지만, 내면(26)이 제거되어 있다. 로봇의 본체(20)의 내부에서 내면(26) 후방에 광원(4)이 위치하고 있다. 도 4에 도시된 광원(4)은 발광다이오드(LED)이지만, 광을 방출하는 임의의 광원일 수 있고, 예컨대 백열 전구 또는 전자발광식 물질일 수 있다. 광원에 의해 방출되는 광은 카메라(24)에 의해 검출될 수 있는 임의의 대역을 가질 수 있다. 광은 인간에게 가시적 또는 비가시적일 수 있고, 예컨대 IR 또는 NIR 광일 수 있다.
LED 형태의 광원(4)이 로봇(1) 상에 배치되어, 카메라에 의해 캡처된 영상의 여러 영역에 부분에 대응하는 로봇 주위의 별도 영역을 조명할 것이다. 각각의 손잡이는 로봇(1)의 측면에 위치하여, 광원(4)은 로봇(1)의 전방 구동 방향에 대해 수직한 방향으로 로봇으로부터 광을 지향시키도록 위치된다. 본 문서의 문맥 내에서, 수직하다는 것은 대략적으로 본 문서의 문맥 내에서 기계의 좌측 및/또는 우측으로 나가는 것을 의미하는 것으로 의도되고, 천장 또는 바닥쪽으로 위 또는 아래로 수직한 것을 의미하지 않는다. 이것은 로봇(1)의 평면도를 도시하고 있는 도 5에 명확하게 도시되어 있다. 화살표 A는 로봇(1)의 전방 구동 방향을 가리키고, 쇄선 BLHS 및 BRHS는 좌측(LHS) 및 우측(RHS) 광원(4)이 가리키는 방향을 나타낸다. 쇄선 BLHS 및 BRHS는 로봇(1)의 양측에서 화살표 A에 대해 90도(수직)한 방향을 가리키는 것으로 도시되어 있다. 따라서, 로봇 이동의 전방 방향에 수직한 로봇(1)의 각 측면 영역이 조명될 수 있다.
카메라(24)가 전방향 PAL 카메라이기 때문에, 광원(4)은 로봇의 각 측면에 대응하지만, 반드시 로봇의 전방은 아닌 카메라에 의해 캡처된 영상의 일부를 조명할 것이다. 이것은 로봇이 내비게이팅하기 용이하게 만드는데, 그 이유는 전방 방향으로 이동할 때, 양측의 피처를 지나서 이동하고, 환경 내에서 로봇의 운동을 식별하기 위하여 영상의 이러한 부분 내의 피처의 운동이 트래킹하기 쉽기 때문이다. 만약 카메라가 내비게이팅하기 위하여 오직 전방에 있는 피처만을 사용할 수 있다면, 운동을 식별하기 위하여 물체의 상대적인 크기 변화를 이용해야 할 것이다. 이것은 훨씬 더 어렵고 덜 정확하다. 더군다나, 삼각측량하는데 사용되는 피처가 서로 가깝게 그룹지어 있는 것보다 서로 떨어져 있을 때가 삼각측량이 더욱 용이하다. 로봇의 시각 시스템이 전방으로부터 접근하는 장애물을 검출할 수 있는 것은 덜 중요한데, 그 이유는 로봇(1)에는 장애물이 조명될 필요 없이 로봇 전방에 있는 장애물을 검출할 수 있는 센서 커버(28) 후방의 센서 어레이가 구비되기 때문이다. 또한, 로봇(1)이 실제로 장애물과 접촉할 때를 검출할 수 있는 물리적 접촉 센서가 있다.
각각의 광원(4)은 각도 α 범위의 원추형 광(31, 32)을 방출한다. 각도 α는 로봇(1)을 위한 시각 시스템의 요구사항을 만족하는 임의의 각도일 수 있다. 도 5에 도시된 바와 같이 2개의 광원이 로봇에 구비될 때, 약 90도 내지 160도 범위 내에 있는 원추각 α가 시각 시스템을 위하여 우수한 조명 영역을 제공하는 것으로 알려져있다. 약 120도의 각도가 도 5에 도시된 로봇에서 채용된다.
광원에 의해 방출되는 원추형 광은 원뿔일 수 있다. 대안적으로, 원추형 광은 타원뿔일 수 있다. 일반적인 방의 치수는 벽의 높이보다 길이가 길고, 따라서 높이보다 폭이 더 넓은 타원뿔 광(즉, 수직방향 크기보다 수평방향 크기가 더 큼)이 더 효율적으로 방을 조명할 것이다.
전술한 바와 같이, 광원은 내비게이팅하는 동안 능동적으로 제어되어, 시각 시스템이 검출할 수 있는 피처의 수에 비례하여 로봇 주위의 영역에 조도를 제공한다. 그러나, 더욱 더 로봇의 전력 효율과 배터리 수명을 개선하기 위하여, 광원은 또한 서로 독립적으로 제어될 수 있어서, 각각의 광원에 의해 제공되는 조도가 독립적으로 조절될 수 있다. 이것은 로봇(1)의 우측 영역(전방 구동 방향 A에 대하여)이 어둡고 로봇(1)의 좌측 영역이 밝으면, 방향 BRHS를 지향하는 광원(4)으로의 전력이 독립적으로 증가될 수 있어서, 원추형 광(32)은 방향 BLHS를 지향하는 원추형 광(31)보다 더 높은 조도를 부여한다는 것을 의미한다. 이것은 만약 로봇(1)의 오직 일측에만 조명이 필요하면, 전력 및 배터리 수명이 불필요하게 로봇의 타측을 조명하는데 낭비되지 않는다는 것을 의미한다.
도 6은 방(40) 내부에 있는 로봇(1)을 도시하고 있다. 방(4)의 내부에는 로봇의 시각 시스템이 활용하도록 하는 랜드마크 피처를 제공할 수 있는 수개의 물체가 존재한다. 밝은 색상의 테이블(41)이 로봇의 좌측에 있고(로봇의 전방 구동 방향 A에 대하여), 어두운 색상의 테이블(42)이 우측에 있다. 윈도우(43)가 또한 테이블(42) 위쪽에서 로봇의 우측에 위치하고 있고, 사진 프레임(44)이 로봇의 뒤쪽 벽에 있다. 로봇(1)은 도 5에 도시된 동일한 로봇이고, 따라서 로봇의 각 측면에서 독립적으로 제어되는 원추형 광(31, 32)을 제공할 수 있는 2개의 광원을 가진다. 도 7a는 도 6에 도시된 환경에 있을 때 로봇(1) 상의 전방향 PAL 카메라에 의해 캡처된 360도 영상(50)을 나타내고 있다. 도 7b는 도 7a의 영상이 촬영되었을 때 로봇(1)의 측면에서 각각의 광원을 위한 사용되었던 LED 세기의 상대적인 레벨을 보여주는 그래프이다. LHS LED는 방향 BLHS를 지향하는 광원을 나타내고, RHS LED는 방향 BRHS를 지향하는 광원을 나타낸다. 양 LED 모두에 거의 전력이 공급되지 않고, 따라서 각각의 LED 세기는 매우 낮다. 이것은 매우 낮은 조도 로봇(1) 주위의 영역 상으로 비춰지고 있는 것을 의미한다. 영상(50)은 윈도우(43)로부터의 광이 방의 반대편을 충분히 조명하고 있고, 따라서 테이블(41)과 사진 프레임(44) 모두를 선명하게 볼 수 있다. 그러나, 윈도우(43)로 들어가는 광량 때문에, 윈도우(43) 주위는 열악한 대비를 가지고, 따라서 테이블(42)은 도 7A의 영상(50)에서는 볼 수 없다.
도 7a에 도시된 영상(50)이 로봇(1)이 성공적으로 내비게이팅하는데 충분한 검출가능 피처를 제공할 수도 있다. 그러나, 만약 제어 시스템이 열악한 대비로 인하여 로봇의 우측에 이용가능한 검출가능 피처가 충분하지 않다고 결정하면, 그쪽으로 조도를 증가시키기 위하여 시각 시스템으로 명령을 전송할 수 있다. 후속 상황은 도 8a 및 8b에 도시되어 있다. 도 8b는 LHS LED의 LED 세기가 변화되지 않았지만, RHS LED의 LED 세기는 증가된 것을 보여주고 있다. 그 결과, 로봇(1) 주위의 우측 영역은 원추형 광(32)에 의해 조명되고, 테이블(42)을 이제 도 8a의 영상(50)에서 볼 수 있다. 제어 시스템은 이제 환경 주위의 로봇(1)을 내비게이팅하기 위하여 가시적인 테이블(42)의 일부를 랜드마크 피처로서 사용할 수 있을 것이다.
지금까지 로봇(1)은 2개의 광원(4)을 포함하고, 각각의 광원은 장치의 좌측 및 우측에서 로봇 주위의 영역에 조도를 제공하는 것으로 도시되고 설명되었다. 그러나, 로봇에는 예컨대 도 9에 도시된 바와 같이 2개 이상의 광원이 구비될 수 있다. 도 9에서, 로봇(1)에 4개의 광원(4)이 구비되고, 각각의 광원(4)은 각도 β의 원추각을 가진 원추형 광을 방출한다. 모든 4개의 광원은 여전히 로봇의 좌측 및 우측 각각으로 조명을 제공하기 위하여 외측으로 지향되어 있다. 더 많은 광원이 존재하기 때문에, 각도 β는 전술한 원추각 α보다 더 작을 수 있다. 4개의 광원에 의해 조명되는 로봇 주위의 영역이 이전 실시예에서 2개의 광원에 의해 조명되던 것과 실질적으로 동일하지만, 전방향 PAL 카메라에 의해 캡처된 영상 내에서 독립적으로 조명될 수 있는 영역의 수가 두배가 되었다. 따라서, 더 많은 광원이 구비되었지만, 영상의 어느 부분이 조명되는지에 대한 제어가 더 많기 때문에, 더 많은 에너지가 절약되고, 배터리 수명이 더욱 연장될 수 있다. 이러한 모델은 필요한 경우 더 많은 광원을 포함하도록 확장될 수 있다.
도 10 및 11은 로봇(1) 주위의 서로 다른 사분면(Q1 내지 Q4 및 Q5 내지 Q8)을 효율적으로 조명하는 수개의 광원(미도시)을 포함하는 로봇(1)을 도시하고 있다. 따라서, 제어 시스템은 로봇 주위의 각각의 사분면에 제공되는 조도를 독립적으로 제어하도록 시각 시스템으로 명령을 전송할 수 있다. 도 10에서는 사분면이 로봇의 전방 구동 방향(화살표 A)가 2개의 사분면(Q1 및 Q2) 사이의 경계와 정렬되도록 위치하고 있다. 도 11은 로봇의 전방 구동 방향(화살표 A)가 사분면(Q7)의 중간을 통과하는 대안적 실시예를 도시하고 있다. 다른 실시예에서, 광원은 4개의 사분면보다 더 많거나 적은 영역을 독립적으로 조명하도록 배치될 수 있다.
지금까지 구체적인 실시예가 설명되었지만, 다양한 수정예가 청구항에 의해 정의된 본 발명의 범위를 벗어나지 않으면서 만들어질 수 있다는 것을 이해할 것이다.

Claims (13)

  1. 이동 로봇(mobile robot)으로서,
    시각 시스템 및 제어 시스템을 포함하고,
    상기 시각 시스템은 카메라 및 적어도 하나의 광원을 포함하고, 상기 광원은 상기 이동 로봇을 둘러싸는 영역에 조도(level of illumination)를 제공하도록 배치되고,
    상기 제어 시스템은 상기 시각 시스템에 의해 캡처된 영상 내의 피처(feature)를 검출하기 위한 피처 검출 유닛을 포함하고,
    상기 광원에 의해 제공되는 조도는 상기 피처 검출 유닛에 의해 검출된 피처의 수에 대응하여 조절되는, 이동 로봇.
  2. 제1항에 있어서,
    상기 제어 시스템은 검출된 피처의 수와 미리 정해진 최소 임계 피처의 수를 비교하고, 상기 조도는 상기 비교에 대응하여 조절되는, 이동 로봇.
  3. 제2항에 있어서,
    상기 미리 정해진 최소 임계 피처의 수는 로봇이 성공적으로 내비게이팅(navigating)하기 위해 필요한 최소 피처의 수에 대응하는, 이동 로봇.
  4. 제2항 또는 제3항에 있어서,
    비교한 결과 상기 영상 검출 유닛에 의해 검출된 피처의 수가 상기 최소 임계 피처의 수보다 적으면, 상기 영상 검출 유닛에 의해 검출된 피처의 수가 상기 최소 임계 피처의 수를 만족할 때까지 상기 조도가 증가되는, 이동 로봇.
  5. 제2항 또는 제3항에 있어서,
    비교한 결과 상기 영상 검출 유닛에 의해 검출된 피처의 수가 상기 최소 임계 피처의 수보다 많으면, 상기 영상 검출 유닛에 의해 검출된 피처의 수가 상기 최소 임계 피처의 수를 만족하거나 또는 상기 조도가 0에 도달할 때까지 상기 조도가 감소되는, 이동 로봇.
  6. 제2항 내지 제5항 중 어느 한 항에 있어서,
    상기 조도는 상기 비교에 대응하여 미리 정해진 양만큼 조절되는, 이동 로봇.
  7. 제2항 내지 제5항 중 어느 한 항에 있어서,
    상기 비교는 상기 영상 검출 유닛에 의해 검출된 피처의 수와 상기 최소 임계 피처의 수 사이의 차이를 결정하는 것을 포함하고, 상기 조도는 상기 차이의 크기에 비례하도록 조절되는, 이동 로봇.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    로봇이 작동하는 동안, 상기 피처 검출 유닛에 의해 검출된 피처의 수는 계속적으로 모니터링되고 상기 광원에 의해 제공된 조도는 계속적으로 조절되는, 이동 로봇.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 광원에 의해 제공된 조도는 상기 광원에 공급된 전력을 조절함으로써 조절되는, 이동 로봇.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서,
    상기 카메라는 파노라마 환형 렌즈(panoramic annular lens; PAL) 카메라인, 이동 로봇.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서,
    상기 광원은 발광다이오드(LED)를 포함하는, 이동 로봇.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서,
    상기 광원은 적외선(IR)을 방출하는, 이동 로봇.
  13. 제1항 내지 제12항 중 어느 한 항에 있어서,
    상기 이동 로봇은 로봇 진공 청소기인, 이동 로봇.
KR1020177008877A 2014-09-03 2015-08-11 이동 로봇 KR20170047381A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1415604.6 2014-09-03
GB1415604.6A GB2529846B (en) 2014-09-03 2014-09-03 Illumination Control of a Vision System for a Mobile Robot
PCT/GB2015/052325 WO2016034845A1 (en) 2014-09-03 2015-08-11 A mobile robot

Publications (1)

Publication Number Publication Date
KR20170047381A true KR20170047381A (ko) 2017-05-04

Family

ID=51752561

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177008877A KR20170047381A (ko) 2014-09-03 2015-08-11 이동 로봇

Country Status (8)

Country Link
US (1) US10112302B2 (ko)
EP (1) EP3189387A1 (ko)
JP (1) JP6103319B2 (ko)
KR (1) KR20170047381A (ko)
CN (1) CN105380563A (ko)
AU (1) AU2015310724B2 (ko)
GB (1) GB2529846B (ko)
WO (1) WO2016034845A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019017521A1 (ko) * 2017-07-21 2019-01-24 엘지전자 주식회사 청소기 및 그 제어방법
KR20190060742A (ko) * 2017-07-21 2019-06-03 엘지전자 주식회사 청소기 및 그 제어방법
WO2020197123A1 (ko) * 2019-03-26 2020-10-01 엘지전자 주식회사 로봇 청소기
KR20210089624A (ko) * 2019-05-24 2021-07-16 엘지전자 주식회사 청소기 및 그 제어방법

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2529847B (en) 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile Robot with Independently Adjustable Light Sources
GB2541884A (en) * 2015-08-28 2017-03-08 Imp College Of Science Tech And Medicine Mapping a space using a multi-directional camera
CN106506925B (zh) * 2016-12-07 2019-05-28 信利光电股份有限公司 一种全景摄像球
KR20180070932A (ko) * 2016-12-19 2018-06-27 삼성전자주식회사 이동체 및 이동체의 제어 방법
US10472090B2 (en) * 2017-04-27 2019-11-12 Qualcomm Incorporated Environmentally aware status LEDs for use in drones
WO2018216342A1 (ja) * 2017-05-24 2018-11-29 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN107229277A (zh) * 2017-05-31 2017-10-03 湖南海翼电子商务股份有限公司 一种悬崖检测电路及其扫地机器人
CN107728616B (zh) * 2017-09-27 2019-07-02 广东宝乐机器人股份有限公司 移动机器人的地图创建方法及移动机器人
US10926725B2 (en) * 2018-10-10 2021-02-23 Stocked Robotics, Inc. Non-destructive kit mounting system for driverless industrial vehicles
US20210247493A1 (en) * 2017-11-07 2021-08-12 Stocked Robotics, Inc. Non-destructive kit mounting system for driverless industrial vehicles
CN108205320A (zh) * 2017-12-18 2018-06-26 深圳市奇虎智能科技有限公司 地图数据处理方法及装置
KR102080515B1 (ko) 2018-03-14 2020-02-24 엘지전자 주식회사 청소기
GB2574417B (en) 2018-06-05 2021-03-03 Dyson Technology Ltd A vision system for a mobile robot
GB2574418B (en) * 2018-06-05 2022-08-31 Dyson Technology Ltd A mobile robot and method of controlling a mobile robot illumination system
CN108574804A (zh) * 2018-07-04 2018-09-25 珠海市微半导体有限公司 一种用于视觉机器人的光源补偿系统及方法
CN111374606A (zh) * 2018-12-29 2020-07-07 尚科宁家(中国)科技有限公司 一种扫地机器人
US20200231082A1 (en) * 2019-01-21 2020-07-23 Kevin Arnold Morran Remote controlled lighting apparatus
US11327483B2 (en) * 2019-09-30 2022-05-10 Irobot Corporation Image capture devices for autonomous mobile robots and related systems and methods
CN112641382B (zh) * 2019-10-12 2022-05-06 尚科宁家(中国)科技有限公司 一种扫地机器人补光控制方法及扫地机器人
US20210373558A1 (en) * 2020-05-29 2021-12-02 Irobot Corporation Contextual and user experience-based mobile robot scheduling and control
CN111820822B (zh) * 2020-07-30 2022-03-08 广东睿住智能科技有限公司 扫地机器人及其照明方法和计算机可读存储介质
KR102218120B1 (ko) * 2020-09-21 2021-02-22 주식회사 폴라리스쓰리디 자율 주행 모듈, 이를 포함하는 이동 로봇 및 이의 위치 추정 방법
CN113853049B (zh) * 2021-09-10 2024-01-09 深圳优地科技有限公司 机器人辅助灯光控制方法、机器人及系统

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2259823A (en) 1991-09-17 1993-03-24 Radamec Epo Limited Navigation system
JPH06139341A (ja) 1992-09-25 1994-05-20 Hitachi Koki Co Ltd 画像処理装置
JP3263724B2 (ja) 1993-04-16 2002-03-11 日本電信電話株式会社 2次元レーザパターンによる形状特徴抽出装置
JP3296105B2 (ja) 1994-08-26 2002-06-24 ミノルタ株式会社 自律移動ロボット
ES2172936T3 (es) * 1997-11-27 2002-10-01 Solar & Robotics Mejoras en los robots moviles y en su sistema de mando.
JP4132415B2 (ja) 1999-06-09 2008-08-13 株式会社豊田自動織機 清掃ロボット
US6496754B2 (en) * 2000-11-17 2002-12-17 Samsung Kwangju Electronics Co., Ltd. Mobile robot and course adjusting method thereof
EP1379155B1 (en) 2001-03-16 2013-09-25 Vision Robotics Corporation Autonomous mobile canister vacuum cleaner
JP2003136456A (ja) 2001-11-06 2003-05-14 Sony Corp ロボット装置、ロボット装置の明るさ検出方法、明るさ検出プログラム及び記録媒体
JP2004021774A (ja) 2002-06-19 2004-01-22 Matsushita Electric Ind Co Ltd 移動作業ロボット
KR100500842B1 (ko) 2002-10-31 2005-07-12 삼성광주전자 주식회사 로봇청소기와, 그 시스템 및 제어방법
AU2003300959A1 (en) * 2002-12-17 2004-07-22 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
US7336299B2 (en) 2003-07-03 2008-02-26 Physical Optics Corporation Panoramic video system with real-time distortion-free imaging
KR100552691B1 (ko) * 2003-09-16 2006-02-20 삼성전자주식회사 이동로봇의 자기위치 및 방위각 추정방법 및 장치
JP2006047067A (ja) 2004-08-03 2006-02-16 Funai Electric Co Ltd 人体検出装置及び人体検出方法
US20100222925A1 (en) 2004-12-03 2010-09-02 Takashi Anezaki Robot control apparatus
JP2006172108A (ja) 2004-12-15 2006-06-29 Funai Electric Co Ltd 自走式掃除機
NZ567040A (en) * 2005-09-02 2011-05-27 Neato Robotics Inc Mapping an operating environment to locate a robot, including traversing optical data and updating that data
WO2007051972A1 (en) * 2005-10-31 2007-05-10 Qinetiq Limited Navigation system
ES2706729T3 (es) 2005-12-02 2019-04-01 Irobot Corp Sistema de robot
JP2007193538A (ja) 2006-01-18 2007-08-02 Sharp Corp 自走式移動体
US8368759B2 (en) 2007-03-13 2013-02-05 Research Institute Of Industrial Science & Technology Landmark for position determination of mobile robot and apparatus and method using it
NL1033590C2 (nl) 2007-03-26 2008-09-29 Maasland Nv Onbemand voertuig voor het afgeven van voer aan een dier.
JP5190663B2 (ja) * 2007-03-27 2013-04-24 スタンレー電気株式会社 距離画像生成装置
KR100960650B1 (ko) * 2007-04-03 2010-06-07 엘지전자 주식회사 이동로봇 및 그 동작방법
EP2781178B1 (en) 2007-05-09 2021-04-21 iRobot Corporation Autonomous coverage robot
KR101337534B1 (ko) * 2007-07-24 2013-12-06 삼성전자주식회사 이동 로봇의 위치 인식 장치 및 방법
CN101358714A (zh) 2007-07-31 2009-02-04 上海申杰保洁管理有限公司 一种清扫机器人的照明灯
JP2009123045A (ja) 2007-11-16 2009-06-04 Toyota Motor Corp 移動ロボット及び移動ロボットの危険範囲の表示方法
KR101412751B1 (ko) 2008-03-14 2014-08-06 엘지전자 주식회사 이동로봇 및 그 동작방법
KR101470635B1 (ko) 2008-05-16 2014-12-08 엘지전자 주식회사 로봇 청소기 및 그 제어방법
KR20080090367A (ko) 2008-08-26 2008-10-08 엘지전자 주식회사 이동로봇 및 그 동작방법
KR101542498B1 (ko) 2009-03-02 2015-08-06 엘지전자 주식회사 로봇 청소기 및 그의 위치 검출 방법
KR101553950B1 (ko) 2009-03-02 2015-09-17 엘지전자 주식회사 로봇 청소기 및 그의 위치 검출 방법
EP2264560A1 (en) 2009-06-02 2010-12-22 Koninklijke Philips Electronics N.V. Appliance with luminous housing control depending on environment color
KR20110054472A (ko) 2009-11-17 2011-05-25 엘지전자 주식회사 로봇 청소기 및 그의 제어 방법
JP5588196B2 (ja) * 2010-02-25 2014-09-10 キヤノン株式会社 認識装置及びその制御方法、コンピュータプログラム
KR101487778B1 (ko) 2010-05-11 2015-01-29 삼성전자 주식회사 센싱 시스템 및 이를 갖춘 이동 로봇
US9400503B2 (en) * 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
KR20120021064A (ko) * 2010-08-31 2012-03-08 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
KR20120067888A (ko) * 2010-12-16 2012-06-26 한국전자통신연구원 스테레오 영상 처리 장치 및 그 방법
GB2509814B (en) 2010-12-30 2014-11-12 Irobot Corp A method of operating a mobile robot
JP5939699B2 (ja) 2011-03-07 2016-06-22 いすゞ自動車株式会社 画像認識システム
PL394570A1 (pl) 2011-04-15 2012-10-22 Robotics Inventions Spólka Z Ograniczona Odpowiedzialnoscia Robot do podlóg podniesionych i sposób serwisowania podlóg podniesionych
US8515580B2 (en) 2011-06-17 2013-08-20 Microsoft Corporation Docking process for recharging an autonomous mobile device
JP2013008460A (ja) * 2011-06-22 2013-01-10 Panasonic Corp 照明装置
KR101566207B1 (ko) 2011-06-28 2015-11-13 삼성전자 주식회사 로봇 청소기 및 그 제어방법
US9582000B2 (en) 2011-09-07 2017-02-28 Lg Electronics Inc. Robot cleaner, and system and method for remotely controlling the same
EP2631730B1 (en) 2012-02-24 2014-09-24 Samsung Electronics Co., Ltd Sensor assembly and robot cleaner having the same
KR20130097623A (ko) 2012-02-24 2013-09-03 삼성전자주식회사 센서 어셈블리 및 이를 구비한 로봇청소기
US9497393B2 (en) * 2012-03-02 2016-11-15 Express Imaging Systems, Llc Systems and methods that employ object recognition
US9020641B2 (en) 2012-06-07 2015-04-28 Samsung Electronics Co., Ltd. Obstacle sensing module and cleaning robot including the same
CN104487864B (zh) 2012-08-27 2017-06-23 伊莱克斯公司 机器人定位系统
US9020637B2 (en) 2012-11-02 2015-04-28 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US9398287B2 (en) * 2013-02-28 2016-07-19 Google Technology Holdings LLC Context-based depth sensor control
US8761594B1 (en) * 2013-02-28 2014-06-24 Apple Inc. Spatially dynamic illumination for camera systems
KR102020210B1 (ko) 2013-04-11 2019-11-05 삼성전자주식회사 센서 모듈 및 이를 구비하는 로봇 청소기
CN104117987B (zh) 2013-04-26 2017-05-10 恩斯迈电子(深圳)有限公司 移动机器人
US9037396B2 (en) * 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
EP2839769B1 (en) * 2013-08-23 2016-12-21 LG Electronics Inc. Robot cleaner and method for controlling the same
US20150098616A1 (en) * 2013-10-03 2015-04-09 Qualcomm Incorporated Object recognition and map generation with environment references
FR3012425B1 (fr) 2013-10-24 2017-03-24 European Aeronautic Defence & Space Co Eads France Robot collaboratif d'inspection visuelle d'un aeronef
US9427127B2 (en) * 2013-11-12 2016-08-30 Irobot Corporation Autonomous surface cleaning robot
DE102014100346A1 (de) 2014-01-14 2015-07-16 Haver & Boecker Ohg Packmaschine und Verfahren zum Füllen von Schüttgütern in Säcke
GB2529848B (en) 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile robot
GB2529847B (en) 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile Robot with Independently Adjustable Light Sources

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019017521A1 (ko) * 2017-07-21 2019-01-24 엘지전자 주식회사 청소기 및 그 제어방법
KR20190010301A (ko) * 2017-07-21 2019-01-30 엘지전자 주식회사 청소기 및 그 제어방법
KR20190060742A (ko) * 2017-07-21 2019-06-03 엘지전자 주식회사 청소기 및 그 제어방법
US10845819B2 (en) 2017-07-21 2020-11-24 Lg Electronics Inc. Cleaner and control method thereof
US11759075B2 (en) 2017-07-21 2023-09-19 Lg Electronics Inc. Cleaner and control method thereof
WO2020197123A1 (ko) * 2019-03-26 2020-10-01 엘지전자 주식회사 로봇 청소기
KR20200119927A (ko) * 2019-03-26 2020-10-21 엘지전자 주식회사 로봇 청소기
KR20210089624A (ko) * 2019-05-24 2021-07-16 엘지전자 주식회사 청소기 및 그 제어방법

Also Published As

Publication number Publication date
CN105380563A (zh) 2016-03-09
GB2529846A (en) 2016-03-09
US20160059420A1 (en) 2016-03-03
GB201415604D0 (en) 2014-10-15
EP3189387A1 (en) 2017-07-12
JP2016052514A (ja) 2016-04-14
AU2015310724A1 (en) 2017-03-09
WO2016034845A1 (en) 2016-03-10
GB2529846B (en) 2019-02-20
US10112302B2 (en) 2018-10-30
JP6103319B2 (ja) 2017-03-29
AU2015310724B2 (en) 2019-01-03

Similar Documents

Publication Publication Date Title
KR102153115B1 (ko) 이동 로봇
KR20170047381A (ko) 이동 로봇
KR20170047383A (ko) 이동 로봇
US11547255B2 (en) Cleaning robot
KR101850386B1 (ko) 로봇 청소기 및 이의 제어 방법
KR101637359B1 (ko) 청소기
JP7094396B2 (ja) 移動ロボット及び移動ロボットの照明システムを制御する方法
US10765284B2 (en) Cleaning robot
JP7128908B2 (ja) 移動ロボットのための視覚システム
KR101854337B1 (ko) 청소기 및 그 제어방법
CN113613536B (zh) 机器人清扫器
WO2016206716A1 (en) Remotely controlled robotic cleaning device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
NORF Unpaid initial registration fee