KR102006928B1 - 이동 로봇 - Google Patents

이동 로봇 Download PDF

Info

Publication number
KR102006928B1
KR102006928B1 KR1020177008878A KR20177008878A KR102006928B1 KR 102006928 B1 KR102006928 B1 KR 102006928B1 KR 1020177008878 A KR1020177008878 A KR 1020177008878A KR 20177008878 A KR20177008878 A KR 20177008878A KR 102006928 B1 KR102006928 B1 KR 102006928B1
Authority
KR
South Korea
Prior art keywords
robot
light source
light
camera
light sources
Prior art date
Application number
KR1020177008878A
Other languages
English (en)
Other versions
KR20170047382A (ko
Inventor
쯔 지
크리스토퍼 앤드루 스미스
Original Assignee
다이슨 테크놀러지 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 다이슨 테크놀러지 리미티드 filed Critical 다이슨 테크놀러지 리미티드
Publication of KR20170047382A publication Critical patent/KR20170047382A/ko
Application granted granted Critical
Publication of KR102006928B1 publication Critical patent/KR102006928B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • H04N5/2256
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/101Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using cameras with adjustable capturing direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Electric Vacuum Cleaner (AREA)

Abstract

시각 시스템을 포함하는 이동 로봇으로서, 상기 시각 시스템은 카메라 및 2개 이상의 광원을 포함하고, 각각의 광원은 상기 이동 로봇 주위의 영역에 조도를 제공하도록 배치되고, 상기 2개 이상의 광원은 상기 카메라에 의해 캡처된 영상의 서로 다른 섹션에 대응하는 로봇 주위의 별개의 영역을 조명하도록 배치되고, 각각의 광원에 의해 제공된 조도는 독립적으로 조절가능하다.

Description

이동 로봇{A MOBILE ROBOT}
본 발명은 이동 로봇, 구체적으로 주위를 조명할 수 있는 이동 로봇에 관한 것이다.
이동 로봇은 점점 흔해지고 있고, 우주 탐사, 잔디 깎기, 및 바닥 청소와 같은 다양한 분야에서 사용되고 있다. 최근 로봇 바닥 청소 장치, 특히 진공 청소기 분야에서 급속한 발전이 이루어져 왔고, 로봇 바닥 청소 장치의 주요 목적은 사용자의 집을 자율적으로 및 눈에 띄지 않게 내비게이팅하면서 바닥을 청소하는 것이다.
이러한 작업을 수행할 때 로봇 진공 청소기는 청소되어야 하는 영역을 내비게이팅해야 한다. 일부 로봇에는 가장 기본적인 내비게이션 시스템이 구비되고, 로봇은 소위 "랜덤 바운스(random bounce)" 방법으로 칭해지는 방법을 사용하고, 로봇은 장애물을 만날 때까지 임의의 주어진 방향으로 이동할 것이고, 장애물을 만났을 때 로봇은 방향을 전환하여 다른 장애물을 만날 때까지 다른 랜덤 방향으로 이동할 것이다. 시간이 지남에 따라 로봇이 가능한 한 청소되어야 하는 많은 바닥 공간을 커버할 것이 기대된다. 불행히도, 이러한 랜덤 바운스 내비게이션 계획은 부족하고, 종종 청소되어야 하는 바닥의 많은 영역이 완전히 생략되는 것으로 알려졌다.
따라서, 더 우수한 내비게이션 방법이 연구되고 이동 로봇에 적용되고 있다. 예컨대, 동시 로컬라이제이션 및 매핑(Simultaneous Localisation and Mapping; SLAM) 기법이 이제 일부 로봇에 적용되기 시작하고 있다. 이러한 SLAM 기법은 주위 영역을 보고, 이해하며, 인식함으로써 로봇이 더욱 체계적인 내비게이션 패턴을 채택하게 해준다. SLAM 기법을 사용하여, 더욱 체계적인 내비게이션 패턴이 얻어질 수 있고, 그 결과 로봇 진공 청소기의 경우에 로봇이 필요한 영역을 더욱 효과적으로 청소할 수 있다.
SLAM 기법을 이용하는 로봇은 주위 영역의 정지 또는 이동 영상을 캡처할 수 있는 시각 시스템을 필요로 한다. 테이블의 코너 또는 사진 프레임의 에지와 같은 영상 내의 고대비 피처(high contrast feature)(때로는 랜드마크 피처라고 칭해짐)가 SLAM 시스템에 의해 사용되어, 로봇이 그 영역의 지도를 형성하여 삼각측량을 이용하여 지도 내의 위치를 결정하는 것을 도와준다. 또한, 로봇은 피처의 속도와 이동을 분석하기 위하여 영상 내에서 검출하는 피처의 상대 운동을 이용할 수 있다.
SLAM 기법은 매우 강력하고, 매우 개선된 내비게이션 시스템을 허용한다. 그러나, SLAM 기법은 오직 시각 시스템에 의해 캡처된 영상 내에 충분한 피처를 검출할 수 있는 경우에만 제대로 기능할 수 있다. 따라서, 어떤 로봇은 빛이 적은 조건을 가진 방에서 또는 시각 시스템에 의해 캡처된 영상이 열악한 대비를 가지는 경우에 성공적으로 내비케이팅하는데 어려움을 겪는다는 것을 발견하였다. 따라서, 어떤 로봇은 충분한 주변 광이 이용가능한 낮 동안에 내비게이팅하도록 제한되어 있다. 로봇 바닥 청소기의 경우에, 이것은 바람직하지 않은데, 그 이유는 사용자가 로봇 바닥 청소기가 자신들이 자고 있는 밤에 청소하도록 계획하는 것을 원할 수 있기 때문이다. 이러한 문제점을 극복하기 위하여, 어떤 로봇에는 카메라에 의해 캡처되는 영상을 개선하는데 필요하여 온/오프가 가능한 헤드라이트로서 작동하는 라이트가 구비되어, 로봇이 자신이 이동하고 있는 방향을 보는 것을 도와준다. 이것의 일례는 US 2013/0056032에 설명되어 있다.
그러나, 로봇에 헤드라이트를 사용하는 것과 관련된 문제점이 존재한다. 자율주행 로봇이 가구와 같은 장애물을 포함할 수 있는 영역의 주위에서 자유롭게 내비게이팅할 수 있도록, 로봇에는 일반적으로 배터리 형태의 온보드 전력원이 구비된다. 헤드라이트의 사용은 로봇의 배터리 수명을 감소시킬 수 있고, 이것은 로봇이 더 짧은 시간 안에 충전 스테이션으로 복귀해야 된다는 것을 의미한다. 따라서, 이것은 로봇이 내비게이팅하기 위하여 헤드라이트를 사용할 필요가 없었다면 가능했었던 경우보다 충전 사이에 더 작은 영역만을 청소할 수 있다는 것을 의미한다.
본 발명은 시각 시스템을 포함하는 이동 로봇을 제공하는데, 상기 시각 시스템은 카메라 및 2개 이상의 광원을 포함하고, 각각의 광원은 상기 이동 로봇 주위의 영역에 조도(level of illumination)를 제공하도록 배치되고, 상기 2개 이상의 광원은 상기 카메라에 의해 캡처된 영상의 서로 다른 섹션에 대응하는 로봇 주위의 별개의 영역을 조명하도록 배치되고, 각각의 광원에 의해 제공된 조도는 독립적으로 조절가능하다.
그 결과, 로봇은 주변 광도에 변화가 있는 영역을 가진 환경 내에서 더 잘 내비게이팅할 수 있다. 주위 서로 다른 영역에 서로 다른 조도를 동시에 제공하는 것이 가능하고, 서로 다른 조도는 주변 광도 및 캡처된 영상 내의 이러한 영역에서의 대비도에 따라 특정된다. 이것은 더욱 에너지 효율적인 로봇으로 산출할 수 있는데, 그 이유는 필요하지 않은 영역에 불필요하게 높은 조도를 제공하지 않기 때문이고, 또한 로봇의 배터리 수명을 증가시킬 수 있다.
이동 로봇은 제어 시스템을 더 포함할 수 있고, 상기 제어 시스템은 상기 시각 시스템에 의해 캡처된 영상 내에 있는 피처(feature)를 검출하기 위한 피처 검출 유닛을 포함하고, 상기 2개 이상의 광원 중 각각에 의해 제공되는 조도는, 상기 카메라에 의해 캡처된 영상 내에 있는 상기 피처 검출 유닛에 의해 검출된 피처의 수에 대응하여 독립적으로 조절된다. 그 결과, 조도는 로봇이 성공적으로 내비게이팅하는 능력에 직접 대응하여 조절될 수 있다. 이러한 직접적인 연결 때문에, 광원에 공급되는 전력량이, 어떠한 여분 전력이 낭비되지 않으면서 항상 로봇이 제대로 기능하기 위해 필요한 절대 최소가 된다.
각각의 광원에 의해 제공된 조도는, 각각의 광원에 의해 조명된 영상의 대응 섹션 내에 있는 상기 피처 검출 유닛에 의해 검출된 피처의 수에 대응하여 독립적으로 조절될 수 있다. 따라서, 로봇은 복수의 광원 중에서 조도를 증가시키는데 사용할 광원을 선택할 수 있다. 이것은 로봇이 낮은 주변광 또는 열악한 대비를 가지는 특정 영역을 좀더 정확히 조명할 수 있기 때문에 더욱 효율적인 전력 사용이다.
2개 이상의 광원은 상기 카메라에 의해 캡처된 전체 영상의 1/4과 3/4 사이에 대응하는 조합 영역을 조명하도록 배치될 수 있다. 전체 영상의 완전한 조명이 로봇이 성공적으로 내비게이팅하기 위해 필요하지 않고, 따라서 전체 영상의 일부를 조명하는 능력만을 로봇에 제공함으로써, 더욱 에너지 효율적인 로봇이 얻어지고, 배터리 수명이 연장될 수 있다. 또한, 전체 영상의 일부만을 조명하는데 더 적은 광원이 필요하고, 따라서 로봇의 생산 비용이 낮아질 수 있다.
2개 이상의 광원은 로봇의 양측에 있는 별도 영역을 조명하도록 로봇 상에 배치될 수 있다. 이것은 로봇이 서로 떨어져 있는 영상 내에서 선택된 피처를 사용하여 내비게이팅할 수 있게 해준다. 서로 떨어져 있는 피처를 이용하는 삼각측량은 훨씬 더 정확한 내비게이션 시스템을 허용한다.
시각 시스템은 2개의 광원을 포함할 때, 각각의 광원은 다른 광원의 반대편 방향으로 광을 방출하도록 로봇의 양측에 배치될 수 있다. 따라서, 로봇은 환경 내에서 자신을 좀 더 정확하게 삼각측량할 수 있을 것이고, 또한 카메라에 의해 캡처된 서로 다른 영상 내에서 로봇의 각 측면에서 피처의 상대 운동을 이용할 수 있어서, 로봇의 속도와 궤적을 좀 더 정확하게 검출할 수 있다.
시각 시스템은 적어도 4개의 광원을 포함할 수 있고, 상기 적어도 4개의 광원은 로봇 주위의 서로 다른 사분면 영역을 조명하도록 배치된다. 이것은 어느 영역이 조명되는지에 대한 제어를 로봇에 좀 더 부여할 수 있고, 이것과 관련하여 이미 전술한 이점을 더욱 강화한다.
각각의 광원에 의해 제공된 조도는 각각의 광원에 제공된 전력을 증가시키고 감소시킴으로써 조절될 수 있다. 이것은 광원이 높은 조도를 제공할 필요가 없을 때 각각의 광원에 제공된 전력이 감소되도록 해준다. 이러한 효율적인 전력 사용은 로봇의 배터리 수명을 연장시킬 수 있다.
각각의 광원에 의해 제공된 조도는 제어 시스템에 의해 상기 시각 시스템으로 전송된 제어 신호에 대응하여 독립적으로 조절될 수 있다. 제어 시스템은 동시 로컬라이제이션 및 매핑(simultaneous localisation and mapping; SLAM) 유닛을 포함할 수 있다. 그 결과, 로봇 상에서 내비게이션을 책임지고 있는 시스템이 광원에 의해 제공된 조도에 대해 직접적으로 제어한다. 이것은 로봇의 내비게이션 요구사항에 대응하여 조도에 대한 조절의 반응성을 개선시킬 수 있다.
카메라는 파노라마 환형 렌즈(panoramic annular lens; PAL) 카메라일 수 있다. 이것은 로봇을 둘러싸는 영역의 완전한 360도 시야를 제공하는 영상을 로봇이 캡처하도록 해주고, 따라서 근처 장애물에 의해 쉽게 가려지지 않는 더욱 개선된 내비게이션 시스템을 허용한다.
광원은 발광다이오드(LED)를 포함할 수 있다. LED는 특히 에너지 효율적이고, 백열 전구와 같은 어떤 다른 유형의 광원보다 훨씬 더 적은 전력을 소모하고, 따라서 로봇의 배터리 수명이 더욱 연장될 수 있다.
광원은 적외선(IR)을 방출할 수 있다. 그 결과, 광원은 로봇의 카메라가 검출할 수 있는 우수한 조명을 제공할 수 있지만, 가시광선을 비춤으로 인한 사용자에게 잠재적인 성가심을 유발하지 않는다.
광원은 로봇 상에 제공된 손잡이 부분 내부에 위치할 수 있다. 이것은 로봇이 환경 주위를 내비게이팅할 때 장애물과의 충돌로 인한 손상으로부터 광원이 손잡이에 의해 보호되도록 해준다. 또한, 광원은 장애물에 쉽게 잡히거나 걸릴 수 있는 로봇 외부에 위치할 필요가 없다.
본 발명을 더욱 용이하게 이해할 수 있도록, 이하 예시로서 첨부된 도면을 참조하여 본 발명의 실시예들이 이제 설명될 것이다.
도 1은 이동 로봇의 구성요소의 개략적 예시이다.
도 2는 조도를 제어하는 프로세스를 보여주는 순서도이다.
도 3, 4, 및 5는 이동 로봇을 도시하고 있다.
도 6은 방 환경 내에 위치한 이동 로봇을 도시하고 있다.
도 7a 및 8a는 도 6에 도시된 이동 로봇의 카메라에 의해 캡처된 영상의 예시를 도시하고 있다.
도 7b 및 8b는 7a 및 8a의 캡처된 영상에서 사용되는 대응 LED 세기를 보여주는 그래프이다.
도 9, 10, 및 11은 이동 로봇의 추가 실시예를 도시하고 있다.
도 1은 이동 로봇(1)의 구성요소의 개략적 예시를 도시하고 있다. 이동 로봇(1)은 3개의 시스템: 시각 시스템(2), 제어 시스템(8), 및 구동 시스템(14)을 포함한다. 이러한 3개 시스템의 조합은 로봇(1)이 위치한 환경 주위를 로봇(1)이 보고, 해석하고, 내비케이팅하도록 해준다. 시각 시스템(2)은 카메라(3) 및 광원(4)을 포함한다. 카메라(3)는 이동 로봇()1)을 둘러싸는 영역의 영상을 캡처할 수 있다. 예컨대, 카메라(3)는 천장의 영상을 캡처하도록 위쪽으로 지향되는 카메라, 로봇(1)의 전방 이동 방향으로 영상을 캡처하는 전방 대향 카메라일 수 있거나, 또는 로봇(1)을 둘러싸는 영역의 360도 시야를 캡처하는 파노라마 환형 렌즈(PAL) 카메라일 수 있다. 로봇(1)이 저조도 조건을 가지는 환경에 위치할 때 또는 카메라(3)에 의해 캡처된 영상이 열악한 대비를 겪는 경우, 광원(4)은 카메라(3)에 의해 캡처된 영상의 질을 개선시킬 수 있다. 광원(4)은 임의의 광원일 수 있고, 예컨대 광원(4)은 발광다이오드(LED)이다. 광원(4)은 로봇(1)을 둘러싸는 영역에 조도를 제공할 수 있다. 광원(4)은 카메라(3)에 의해 캡처된 영상의 질을 개선시킬 수 있도록, 카메라의 센서가 검출할 수 있는 임의 대역의 광을 방출할 수 있다. 예컨대, 광원(4)에 의해 방출되는 광은 전자기적 스펙트럼의 가시광선, 근적외선(NIR), 또는 적외선(IR) 부분 내일 수 있다.
이동 로봇(1)의 시각 시스템(2)은 주위 환경에 대한 정보를 로봇(1)에 제공하는 수개의 다른 유형의 센서를 포함할 수 있다. 2개의 예시가 도 1에 도시되어 있는데: 위치 감응 장치(PSD)(5)와 물리적 접촉 센서(6)이다. PSD(5)는 근접 센서, 예컨대 IR 센서 또는 소나 센서일 수 있고, 로봇(1) 근처에 있을 수 있는 임의의 장애물을 표시할 수 있다. 이것은 로봇(1)이 장애물과 접촉하지 않고서도 장애물을 회피할 수 있게 해준다. 물리적 접촉 센서(6)는 로봇(1)이 장애물과 언제 접촉하는지를 알게 해준다. 물리적 접촉 센서(6)로부터의 신호에 대응하여, 로봇은 예컨대 자신의 위치 및 궤적을 정지 및/또는 조절할 수 있다. 이것은 특히 장애물이 PSD(5)에 의해 검출되지 않았을 때, 로봇(1)이 로봇 자체 또는 로봇이 접촉하는 장애물에 대한 임의의 손상을 발생시키는 것을 예방한다.
시각 시스템(2)에 의해 수집된 모든 정보와 데이터는 제어 시스템(8)에 제공된다. 제어 시스템(8)은 피처 검출 유닛(9)을 포함한다. 피처 검출 유닛(9)은 시각 시스템(2)에 의해 캡처된 영상을 수신하고, 이러한 영상을 분석하여 영상에 보여지는 로봇(1) 주위의 영역 내의 랜드마크 피처를 발견한다. 랜드마크 피처는 영상 내에서 쉽게 검출되는 고대비 피처, 예컨대 테이블의 에지, 또는 사진 프레임의 코너이다. 피처 검출 유닛(9)에 의해 검출된 랜드마크 피처는 국지적 환경 내에서 로봇의 위치를 삼각측량하고 결정하도록 내비게이션 유닛(10)과 매핑 유닛(11)에 의해 사용될 수 있다. 매핑 유닛(10)은 또한 로봇(1) 환경을 해석하고 내비게이팅하는 환경의 지도를 생성하기 위하여, 영상으로부터의 정보 및 시각 시스템(2)에 있는 다른 센서로부터 캡처된 데이터를 이용할 수 있다. 피처 검출 유닛(9), 매핑 유닛(10), 및 내비게이션 유닛(11)은 로봇(1)에서 단일의 망라하는 동시 로컬라이제이션 및 매핑(SLAM) 유닛의 일부를 형성할 수 있다.
명령이 제어 시스템(8)으로부터 로봇을 움직이게 하는 구동 시스템(14)으로 보내진다. 구동 시스템(14)은 좌측(LHS) 트랙션 유닛(15) 및 우측(RHS) 트랙션 유닛(16)을 포함하는 것으로 도 1에 도시되어 있다. 각각의 트랙션 유닛(15, 16)은 로봇(1)이 조향될 수 있도록 독립적으로 제어될 수 있다. 예컨대, RHS 트랙션 유닛(16)이 LHS 트랙션 유닛(15)보다 더 빨리 전방으로 구동되면, 로봇은 전방으로 진행함에 따라 좌측으로 방향 전환할 것이고, 또는 예컨대 LHS 및 RHS 트랙션 유닛(15, 16)이 동일한 속도이지만 반대 방향으로 각각 구동되면, 로봇(1)은 제자리에서 회전할 것이다. 구동 시스템(14)은 또한 제어 시스템(8)으로 다시 데이터를 전송할 수 있다. 예컨대, 구동 시스템으로부터 제어 시스템(8)으로 전송된 데이터는 트랙션 유닛에 의해 이동된 거리를 표시할 수 있다(예컨대, 휠의 회전수를 사용하여).
제어 시스템(8)은 또한 조명 제어 유닛(12)을 포함한다. 조명 제어 유닛(12)은 제어 신호와 같은 명령을 시간 시스템(2)에 전송하여, 광원(4)에 의해 제공되는 조도를 조절한다. 로봇(1)이 환경 주위를 성공적으로 내비게이팅할 수 있도록, 피처 검출 유닛(9)이 반드시 검출할 수 있는 최소 개수의 랜드마크 피처가 있다. 따라서, 로봇(1)이 저조도 조건에서 내비게이팅하는 것을 시도하고 있고 피처 검출 유닛(9)이 최소 개수의 피처를 검출할 수 없으면, 조명 제어 유닛(12)은 광원(4)의 세기를 증가시키도록 시각 시스템(2)에 명령을 전송한다.
만약 광원이 반드시 필요하지 않은 경우에 사용된다면(예컨대, 주변 조도가 최소 개수의 피처를 검출하기에 충분한 경우), 광원(4)은 배터리로부터 불필요한 전력을 사용하여 로봇(1)의 배터리 수명을 감소시킬 것이다. 따라서, 피처 검출 유닛(9)에 의해 검출된 랜드마크 피처의 개수가 성공적인 내비게이션을 위해 필요한 최소 개수보다 더 많다면, 조명 제어 유닛(12)은 또한 광원(4)의 세기를 감소시키도록 시각 시스템(2)에 명령을 전송한다.
조도의 증가와 감소는 다양한 방식으로 행해질 수 있다. 예컨대, 필요한 최적의 조도를 결정하는 알고리즘이 사용될 수 있다. 조명 제어 유닛(12)이 조도가 변화되도록 명령을 전송할 때, 매번 적은 양만큼 그렇게 되고, 프로세스는 허용가능한 조도에 도달할 때까지 반복된다. 조도는 광원(4)에 공급된 전력을 증가 또는 감소시킴으로써 조절되고, 이것은 광원(4)에 의해 방출되는 광의 세기 변화를 발생시킬 것이다. 따라서, 광원에 의해 제공된 조도를 조절한다고 말할 때, 이것은 광원에 공급되는 전력을 조절하는 것과 동일한 것으로 이해될 것이다. 더 낮은 조도가 필요할 때 광원(4)에 공급되는 전력을 감소시킴으로써, 로봇(1)의 에너지 효율과 배터리 수명이 증가될 수 있다.
피처 검출 유닛에 의해 검출되고 있는 피처의 수는 계속적으로 모니터링되고, 따라서 또한 조도가 계속적으로 제어된다. 작은 조절량이 미리 정해진 양일 수 있다. 대안적으로, 조절량이 검출되고 있는 피처의 수와 성공적인 내비게이션을 위해 필요한 최소 피처의 수 사이의 차이에 비례하도록 수시로 계산될 수 있다. 그러면 계산된 조절량은 조도를 변화시키는 명령과 함께 시각 시스템(2)으로 전송될 것이다.
도 2는 광원(4)으로부터 조도를 제어하는 프로세스를 보여주는 순서도이다. 시작 이후, 로봇은 검출된 피처의 개수(NDETECT)가 임계 개수(NTHRESH)보다 더 작은지 여부를 결정한다. NTHRESH 는 환경 주위를 내비게이팅하기 위하여 로봇이 SLAM 기법을 성공적으로 사용할 수 있도록 하는데 필요한 랜드마크 피처의 최저 개수에 대응하는 미리 정해진 임계 개수이다. NDETECT 가 NTHRESH 보다 더 작으면(NDETECT < NTHRESH), 조도는 설정량만큼 증가되고, 프로세스는 반복된다. NDETECT 가 NTHRESH 보다 더 작지 않으면, 로봇은 NDETECT 가 NTHRESH 와 동일한지 여부(NDETECT = NTHRESH)를 결정한다. NDETECT = NTHRESH 이면, 조도는 변화되지 않고, 로봇은 계속하여 내비게이팅한다. 대안적으로, NDETECT ≠ NTHRESH 이면, NDETECT 가 NTHRESH 보다 더 크다고(NDETECT > NTHRESH) 추론할 수 있다. 그러면 로봇은 조도가 이미 0인지 알기 위하여 확인한다. 조도가 0이 아니면, 조도는 설정량만큼 감소되고, 프로세스는 반복된다. 그러나, 조도가 이미 0이면, 로봇은 계속해서 내비게이팅한다.
도 2의 프로세스는 미리 정해진 설정량만큼 조도를 증가 및 감소시키지만, 앞서 설명한 바와 같이, 조도의 조절량은 변할 수 있고, 예컨대 NDETECT 와 NTHRESH 사이의 차이에 비례할 수 있다.
도 3은 본체(20)와 분리 장치(21)를 포함하는 로봇 진공 청소기(1)를 도시하고 있다. 본체(20)는 연속 탱크 트랙의 형태인 트랙션 유닛(22) 및 브러시바를 수용하는 청소기 헤드(23)를 포함하고, 청소기 헤드를 통해 더러운 공기가 로봇 진공 청소기(1) 내로 흡입되어 분리 장치(21) 내로 전달될 수 있다. 일단 분리 장치에서 먼지가 공기로부터 제거되면, 공기는 분리 장치(21)를 나와서, 기류를 발생시키기 위한 모터 및 팬을 수용하는 본체(21)를 통해 지나간다. 공기는 그런 다음 기계의 후방에 있는 통기부(27)를 통해 로봇(1)으로부터 배출된다. 통기부(27)는 제거될 수 있어서, 세척될 수 있도록 필터에 대한 접근 및 배터리 팩인 로봇(1)의 전력원에 대한 접근을 제공한다. 본체(20)는 또한 로봇(1)이 로봇(1)을 둘러싸는 영역의 영상을 캡처하는데 사용하는 카메라(24)를 포함한다. 카메라(24)는 파노라마 환형 렌즈(PAL) 카메라이고, 이것은 로봇을 둘러싸는 영역의 360도 영상을 캡처할 수 있는 전방향 카메라이다. 로봇 내에 포함된 소프트웨어 및 전자장비 내에서 구현되는 로봇의 제어 시스템은 동시 로컬라이제이션 및 매핑(SLAM) 기법을 사용할 수 있어서, 카메라(24)에 의해 캡처된 영상을 처리하고, 이것은 로봇(1)이 국지적 환경을 이해하고, 해석하며, 자율적으로 내비게이팅하도록 해준다.
센서 커버(28)는 PSD 센서와 같은, 본체(20)에 적재되는 다른 센서를 덮는다. 각각의 센서 커버(28) 아래에는 장애물이 로봇 전방 및 양측에서 검출될 수 있도록 서로 다른 방향으로 지향된 센서 어레이가 있다. 측면 PSD 센서는 로봇 주변에 있는 장애물을 픽업할 수 있고, 또한 벽 따라 움직이기 모드로 로봇이 내비게이팅하도록 도와주는데 사용될 수 있고, 벽 따라 움직이기 모드에서는 로봇이 가능한 방의 벽에 근접하여 평행하게 이동한다. 또한, 지면을 향하여 아래쪽으로 지향되는 PSD 센서도 존재하는데, 이것은 절벽 센서로서 작동하고, 로봇이 계단과 같은 낙하지점에 접근할 때는 검출한다. 낙하지점이 검출되면, 로봇은 낙하지점에 도달하기 전에 정지 및/또는 위험을 회피하도록 궤도를 조절할 수 있다. 물리적 접촉 센서는 도면에서 보이지 않는다. 어떤 로봇은 물리적 접촉 센서로서 가동 범퍼부를 사용하지만, 본 로봇은 장애물과의 물리적 접촉을 알아내기 위하여 본체(2)의 분리된 섀시와 바디부 사이의 상대 운동을 검출한다.
로봇(1)의 본체(20)는 본체(20)의 측면에 손잡이(25)를 포함한다. 본 도면에서는 보이지 않는 유사한 손잡이가 본체(20)의 다른 측면에 구비되어 있어서, 사용자는 로봇(1)을 집어 올릴 수 있도록 2개의 손잡이(25)를 사용할 수 있다. 손잡이(25)는 본체(20)의 측벽의 내향 돌출부를 포함한다. 이것은 사용자가 로봇을 견고하게 잡는 것을 용이하게 만들지만, 국지적 환경 내에 있는 가구 또는 다른 장애물에 쉽게 잡히거나 걸릴 수 있는 본체(20) 상에 외부 손잡이를 요구하지 않는다. 외측 방향으로 향하는 손잡이(25)의 내면(26)은 투명한 재료로 형성되어, 윈도우로서 역할한다. 도 4는 동일한 로봇(1)을 도시하고 있지만, 내면(26)이 제거되어 있다. 로봇의 본체(20)의 내부에서 내면(26) 후방에 광원(4)이 위치하고 있다. 도 4에 도시된 광원(4)은 발광다이오드(LED)이지만, 광을 방출하는 임의의 광원일 수 있고, 예컨대 백열 전구 또는 전자발광식 물질일 수 있다. 광원에 의해 방출되는 광은 카메라(24)에 의해 검출될 수 있는 임의의 대역을 가질 수 있다. 광은 인간에게 가시적 또는 비가시적일 수 있고, 예컨대 IR 또는 NIR 광일 수 있다.
LED 형태의 광원(4)이 로봇(1) 상에 배치되어, 카메라에 의해 캡처된 영상의 여러 영역에 부분에 대응하는 로봇 주위의 별도 영역을 조명할 것이다. 각각의 손잡이는 로봇(1)의 측면에 위치하여, 광원(4)은 로봇(1)의 전방 구동 방향에 대해 수직한 방향으로 로봇으로부터 광을 지향시키도록 위치된다. 본 문서의 문맥 내에서, 수직하다는 것은 대략적으로 본 문서의 문맥 내에서 기계의 좌측 및/또는 우측으로 나가는 것을 의미하는 것으로 의도되고, 천장 또는 바닥쪽으로 위 또는 아래로 수직한 것을 의미하지 않는다. 이것은 로봇(1)의 평면도를 도시하고 있는 도 5에 명확하게 도시되어 있다. 화살표 A는 로봇(1)의 전방 구동 방향을 가리키고, 쇄선 BLHS 및 BRHS는 좌측(LHS) 및 우측(RHS) 광원(4)이 가리키는 방향을 나타낸다. 쇄선 BLHS 및 BRHS는 로봇(1)의 양측에서 화살표 A에 대해 90도(수직)한 방향을 가리키는 것으로 도시되어 있다. 따라서, 로봇 이동의 전방 방향에 수직한 로봇(1)의 각 측면 영역이 조명될 수 있다.
카메라(24)가 전방향 PAL 카메라이기 때문에, 광원(4)은 로봇의 각 측면에 대응하지만, 반드시 로봇의 전방은 아닌 카메라에 의해 캡처된 영상의 일부를 조명할 것이다. 이것은 로봇이 내비게이팅하기 용이하게 만드는데, 그 이유는 전방 방향으로 이동할 때, 양측의 피처를 지나서 이동하고, 환경 내에서 로봇의 운동을 식별하기 위하여 영상의 이러한 부분 내의 피처의 운동이 트래킹하기 쉽기 때문이다. 만약 카메라가 내비게이팅하기 위하여 오직 전방에 있는 피처만을 사용할 수 있다면, 운동을 식별하기 위하여 물체의 상대적인 크기 변화를 이용해야 할 것이다. 이것은 훨씬 더 어렵고 덜 정확하다. 더군다나, 삼각측량하는데 사용되는 피처가 서로 가깝게 그룹지어 있는 것보다 서로 떨어져 있을 때가 삼각측량이 더욱 용이하다. 로봇의 시각 시스템이 전방으로부터 접근하는 장애물을 검출할 수 있는 것은 덜 중요한데, 그 이유는 로봇(1)에는 장애물이 조명될 필요 없이 로봇 전방에 있는 장애물을 검출할 수 있는 센서 커버(28) 후방의 센서 어레이가 구비되기 때문이다. 또한, 로봇(1)이 실제로 장애물과 접촉할 때를 검출할 수 있는 물리적 접촉 센서가 있다.
각각의 광원(4)은 각도 α 범위의 원추형 광(31, 32)을 방출한다. 각도 α는 로봇(1)을 위한 시각 시스템의 요구사항을 만족하는 임의의 각도일 수 있다. 도 5에 도시된 바와 같이 2개의 광원이 로봇에 구비될 때, 약 90도 내지 160도 범위 내에 있는 원추각 α가 시각 시스템을 위하여 우수한 조명 영역을 제공하는 것으로 알려져있다. 약 120도의 각도가 도 5에 도시된 로봇에서 채용된다.
광원에 의해 방출되는 원추형 광은 원뿔일 수 있다. 대안적으로, 원추형 광은 타원뿔일 수 있다. 일반적인 방의 치수는 벽의 높이보다 길이가 길고, 따라서 높이보다 폭이 더 넓은 타원뿔 광(즉, 수직방향 크기보다 수평방향 크기가 더 큼)이 더 효율적으로 방을 조명할 것이다.
전술한 바와 같이, 광원은 내비게이팅하는 동안 능동적으로 제어되어, 시각 시스템이 검출할 수 있는 피처의 수에 비례하여 로봇 주위의 영역에 조도를 제공한다. 그러나, 더욱 더 로봇의 전력 효율과 배터리 수명을 개선하기 위하여, 광원은 또한 서로 독립적으로 제어될 수 있어서, 각각의 광원에 의해 제공되는 조도가 독립적으로 조절될 수 있다. 이것은 로봇(1)의 우측 영역(전방 구동 방향 A에 대하여)이 어둡고 로봇(1)의 좌측 영역이 밝으면, 방향 BRHS를 지향하는 광원(4)으로의 전력이 독립적으로 증가될 수 있어서, 원추형 광(32)은 방향 BLHS를 지향하는 원추형 광(31)보다 더 높은 조도를 부여한다는 것을 의미한다. 이것은 만약 로봇(1)의 오직 일측에만 조명이 필요하면, 전력 및 배터리 수명이 불필요하게 로봇의 타측을 조명하는데 낭비되지 않는다는 것을 의미한다.
도 6은 방(40) 내부에 있는 로봇(1)을 도시하고 있다. 방(4)의 내부에는 로봇의 시각 시스템이 활용하도록 하는 랜드마크 피처를 제공할 수 있는 수개의 물체가 존재한다. 밝은 색상의 테이블(41)이 로봇의 좌측에 있고(로봇의 전방 구동 방향 A에 대하여), 어두운 색상의 테이블(42)이 우측에 있다. 윈도우(43)가 또한 테이블(42) 위쪽에서 로봇의 우측에 위치하고 있고, 사진 프레임(44)이 로봇의 뒤쪽 벽에 있다. 로봇(1)은 도 5에 도시된 동일한 로봇이고, 따라서 로봇의 각 측면에서 독립적으로 제어되는 원추형 광(31, 32)을 제공할 수 있는 2개의 광원을 가진다. 도 7a는 도 6에 도시된 환경에 있을 때 로봇(1) 상의 전방향 PAL 카메라에 의해 캡처된 360도 영상(50)을 나타내고 있다. 도 7b는 도 7a의 영상이 촬영되었을 때 로봇(1)의 측면에서 각각의 광원을 위한 사용되었던 LED 세기의 상대적인 레벨을 보여주는 그래프이다. LHS LED는 방향 BLHS를 지향하는 광원을 나타내고, RHS LED는 방향 BRHS를 지향하는 광원을 나타낸다. 양 LED 모두에 거의 전력이 공급되지 않고, 따라서 각각의 LED 세기는 매우 낮다. 이것은 매우 낮은 조도 로봇(1) 주위의 영역 상으로 비춰지고 있는 것을 의미한다. 영상(50)은 윈도우(43)로부터의 광이 방의 반대편을 충분히 조명하고 있고, 따라서 테이블(41)과 사진 프레임(44) 모두를 선명하게 볼 수 있다. 그러나, 윈도우(43)로 들어가는 광량 때문에, 윈도우(43) 주위는 열악한 대비를 가지고, 따라서 테이블(42)은 도 7A의 영상(50)에서는 볼 수 없다.
도 7a에 도시된 영상(50)이 로봇(1)이 성공적으로 내비게이팅하는데 충분한 검출가능 피처를 제공할 수도 있다. 그러나, 만약 제어 시스템이 열악한 대비로 인하여 로봇의 우측에 이용가능한 검출가능 피처가 충분하지 않다고 결정하면, 그쪽으로 조도를 증가시키기 위하여 시각 시스템으로 명령을 전송할 수 있다. 후속 상황은 도 8a 및 8b에 도시되어 있다. 도 8b는 LHS LED의 LED 세기가 변화되지 않았지만, RHS LED의 LED 세기는 증가된 것을 보여주고 있다. 그 결과, 로봇(1) 주위의 우측 영역은 원추형 광(32)에 의해 조명되고, 테이블(42)을 이제 도 8a의 영상(50)에서 볼 수 있다. 제어 시스템은 이제 환경 주위의 로봇(1)을 내비게이팅하기 위하여 가시적인 테이블(42)의 일부를 랜드마크 피처로서 사용할 수 있을 것이다.
지금까지 로봇(1)은 2개의 광원(4)을 포함하고, 각각의 광원은 장치의 좌측 및 우측에서 로봇 주위의 영역에 조도를 제공하는 것으로 도시되고 설명되었다. 그러나, 로봇에는 예컨대 도 9에 도시된 바와 같이 2개 이상의 광원이 구비될 수 있다. 도 9에서, 로봇(1)에 4개의 광원(4)이 구비되고, 각각의 광원(4)은 각도 β의 원추각을 가진 원추형 광을 방출한다. 모든 4개의 광원은 여전히 로봇의 좌측 및 우측 각각으로 조명을 제공하기 위하여 외측으로 지향되어 있다. 더 많은 광원이 존재하기 때문에, 각도 β는 전술한 원추각 α보다 더 작을 수 있다. 4개의 광원에 의해 조명되는 로봇 주위의 영역이 이전 실시예에서 2개의 광원에 의해 조명되던 것과 실질적으로 동일하지만, 전방향 PAL 카메라에 의해 캡처된 영상 내에서 독립적으로 조명될 수 있는 영역의 수가 두배가 되었다. 따라서, 더 많은 광원이 구비되었지만, 영상의 어느 부분이 조명되는지에 대한 제어가 더 많기 때문에, 더 많은 에너지가 절약되고, 배터리 수명이 더욱 연장될 수 있다. 이러한 모델은 필요한 경우 더 많은 광원을 포함하도록 확장될 수 있다.
도 10 및 11은 로봇(1) 주위의 서로 다른 사분면(Q1 내지 Q4 및 Q5 내지 Q8)을 효율적으로 조명하는 수개의 광원(미도시)을 포함하는 로봇(1)을 도시하고 있다. 따라서, 제어 시스템은 로봇 주위의 각각의 사분면에 제공되는 조도를 독립적으로 제어하도록 시각 시스템으로 명령을 전송할 수 있다. 도 10에서는 사분면이 로봇의 전방 구동 방향(화살표 A)가 2개의 사분면(Q1 및 Q2) 사이의 경계와 정렬되도록 위치하고 있다. 도 11은 로봇의 전방 구동 방향(화살표 A)가 사분면(Q7)의 중간을 통과하는 대안적 실시예를 도시하고 있다. 다른 실시예에서, 광원은 4개의 사분면보다 더 많거나 적은 영역을 독립적으로 조명하도록 배치될 수 있다.
지금까지 구체적인 실시예가 설명되었지만, 다양한 수정예가 청구항에 의해 정의된 본 발명의 범위를 벗어나지 않으면서 만들어질 수 있다는 것을 이해할 것이다.

Claims (15)

  1. 시각 시스템을 포함하는 이동 로봇으로서,
    상기 시각 시스템은 카메라 및 2개 이상의 광원을 포함하고, 각각의 광원은 상기 이동 로봇 주위의 영역에 조도(level of illumination)를 제공하도록 배치되고,
    상기 2개 이상의 광원은 상기 카메라에 의해 캡처된 영상의 서로 다른 섹션에 대응하는 로봇 주위의 별개의 영역을 조명하도록 배치되고, 각각의 광원에 의해 제공된 조도는 독립적으로 조절가능하며,
    상기 이동 로봇은 제어 시스템을 더 포함하고, 상기 제어 시스템은 상기 시각 시스템에 의해 캡처된 영상 내에 있는 피처(feature)를 검출하기 위한 피처 검출 유닛을 포함하고, 상기 2개 이상의 광원 중 각각에 의해 제공되는 조도는, 상기 카메라에 의해 캡처된 영상 내에 있는 상기 피처 검출 유닛에 의해 검출된 피처의 수에 대응하여 독립적으로 조절되는, 이동 로봇.
  2. 제1항에 있어서,
    각각의 광원에 의해 제공된 조도는, 각각의 광원에 의해 조명된 영상의 대응 섹션 내에 있는 상기 피처 검출 유닛에 의해 검출된 피처의 수에 대응하여 독립적으로 조절되는, 이동 로봇.
  3. 제1항 또는 제2항에 있어서,
    상기 2개 이상의 광원은 상기 카메라에 의해 캡처된 전체 영상의 1/4과 3/4 사이에 대응하는 조합 영역을 조명하도록 배치되는, 이동 로봇.
  4. 제1항 또는 제2항에 있어서,
    상기 2개 이상의 광원은 로봇의 양측에 있는 별도 영역을 조명하도록 로봇 상에 배치되는, 이동 로봇.
  5. 제1항 또는 제2항에 있어서,
    상기 시각 시스템은 2개의 광원을 포함하고, 각각의 광원은 다른 광원의 반대편 방향으로 광을 방출하도록 로봇의 양측에 배치되는, 이동 로봇.
  6. 제1항 또는 제2항에 있어서,
    상기 시각 시스템은 적어도 4개의 광원을 포함하는, 이동 로봇.
  7. 제6항에 있어서,
    상기 적어도 4개의 광원은 로봇 주위의 서로 다른 사분면 영역을 조명하도록 배치되는, 이동 로봇.
  8. 제1항 또는 제2항에 있어서,
    각각의 광원에 의해 제공된 조도는 각각의 광원에 제공된 전력을 증가시키고 감소시킴으로써 조절되는, 이동 로봇.
  9. 제1항 또는 제2항에 있어서,
    각각의 광원에 의해 제공된 조도는 제어 시스템에 의해 상기 시각 시스템으로 전송된 제어 신호에 대응하여 독립적으로 조절되는, 이동 로봇.
  10. 제9항에 있어서,
    상기 제어 시스템은 동시 로컬라이제이션 및 매핑(simultaneous localisation and mapping; SLAM) 유닛을 포함하는, 이동 로봇.
  11. 제1항 또는 제2항에 있어서,
    상기 카메라는 파노라마 환형 렌즈(PAL) 카메라인, 이동 로봇.
  12. 제1항 또는 제2항에 있어서,
    상기 광원은 발광다이오드(LED)를 포함하는, 이동 로봇.
  13. 제1항 또는 제2항에 있어서,
    상기 광원은 적외선(IR)을 방출하는, 이동 로봇.
  14. 제1항 또는 제2항에 있어서,
    상기 광원은 로봇 상에 제공된 내부 손잡이 부분 내에 위치하는, 이동 로봇.
  15. 삭제
KR1020177008878A 2014-09-03 2015-08-11 이동 로봇 KR102006928B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1415605.3A GB2529847B (en) 2014-09-03 2014-09-03 A mobile Robot with Independently Adjustable Light Sources
GB1415605.3 2014-09-03
PCT/GB2015/052324 WO2016034844A1 (en) 2014-09-03 2015-08-11 A mobile robot

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020197022315A Division KR102153115B1 (ko) 2014-09-03 2015-08-11 이동 로봇

Publications (2)

Publication Number Publication Date
KR20170047382A KR20170047382A (ko) 2017-05-04
KR102006928B1 true KR102006928B1 (ko) 2019-08-02

Family

ID=51752562

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020177008878A KR102006928B1 (ko) 2014-09-03 2015-08-11 이동 로봇
KR1020197022315A KR102153115B1 (ko) 2014-09-03 2015-08-11 이동 로봇

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020197022315A KR102153115B1 (ko) 2014-09-03 2015-08-11 이동 로봇

Country Status (8)

Country Link
US (1) US10144342B2 (ko)
EP (1) EP3189386A1 (ko)
JP (1) JP6144305B2 (ko)
KR (2) KR102006928B1 (ko)
CN (1) CN105380562B (ko)
AU (2) AU2015310723B2 (ko)
GB (1) GB2529847B (ko)
WO (1) WO2016034844A1 (ko)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105409197A (zh) 2013-03-15 2016-03-16 趣普科技公司 用于提供持久伙伴装置的设备和方法
US20150314454A1 (en) 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
USD746886S1 (en) * 2014-05-23 2016-01-05 JIBO, Inc. Robot
GB2529846B (en) 2014-09-03 2019-02-20 Dyson Technology Ltd Illumination Control of a Vision System for a Mobile Robot
GB2541884A (en) * 2015-08-28 2017-03-08 Imp College Of Science Tech And Medicine Mapping a space using a multi-directional camera
AU2017258264B2 (en) * 2016-04-29 2020-05-07 Lg Electronics Inc. Mobile robot and control method therefor
US10272828B2 (en) * 2016-08-16 2019-04-30 Irobot Corporation Light indicator system for an autonomous mobile robot
US9742996B1 (en) * 2016-10-07 2017-08-22 Sphericam Inc. Single unit 360-degree camera with an integrated lighting array
US9826152B1 (en) * 2016-10-07 2017-11-21 Sphericam Inc. Single-unit 360-degree camera with a multifunctional lumen
JP6382906B2 (ja) 2016-10-17 2018-08-29 ファナック株式会社 ロボット及びロボットにおける表示灯の設置方法
DE102017105724A1 (de) * 2017-03-16 2018-09-20 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Bodenbearbeitungsgerätes
JP6870574B2 (ja) * 2017-06-30 2021-05-12 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
JP7087290B2 (ja) 2017-07-05 2022-06-21 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
KR101984516B1 (ko) * 2017-07-21 2019-05-31 엘지전자 주식회사 청소기 및 그 제어방법
US10926725B2 (en) 2018-10-10 2021-02-23 Stocked Robotics, Inc. Non-destructive kit mounting system for driverless industrial vehicles
JP2019109854A (ja) * 2017-12-20 2019-07-04 東芝ライフスタイル株式会社 自律走行体
US10475196B2 (en) * 2018-03-22 2019-11-12 Microsoft Technology Licensing, Llc Hybrid depth detection and movement detection
US10728518B2 (en) * 2018-03-22 2020-07-28 Microsoft Technology Licensing, Llc Movement detection in low light environments
JP6981332B2 (ja) * 2018-03-23 2021-12-15 トヨタ自動車株式会社 移動体
JP7109253B2 (ja) * 2018-05-17 2022-07-29 三菱重工業株式会社 地図情報作成装置、地図情報表示システム、及び、地図情報表示方法
GB2574418B (en) * 2018-06-05 2022-08-31 Dyson Technology Ltd A mobile robot and method of controlling a mobile robot illumination system
GB2574417B (en) * 2018-06-05 2021-03-03 Dyson Technology Ltd A vision system for a mobile robot
CN111374606A (zh) * 2018-12-29 2020-07-07 尚科宁家(中国)科技有限公司 一种扫地机器人
US20200231082A1 (en) * 2019-01-21 2020-07-23 Kevin Arnold Morran Remote controlled lighting apparatus
KR102183098B1 (ko) * 2019-02-25 2020-11-25 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
US11599128B2 (en) 2020-04-22 2023-03-07 Boston Dynamics, Inc. Perception and fitting for a stair tracker
US11548151B2 (en) 2019-04-12 2023-01-10 Boston Dynamics, Inc. Robotically negotiating stairs
WO2020245944A1 (ja) * 2019-06-05 2020-12-10 八洲電業株式会社 自走式探査ロボット
US11327483B2 (en) * 2019-09-30 2022-05-10 Irobot Corporation Image capture devices for autonomous mobile robots and related systems and methods
CN111866396B (zh) * 2020-08-27 2022-04-12 路邦数码有限公司 一种协助拍摄机器人
CN112356023B (zh) * 2020-10-28 2021-12-07 深圳市云视机器人有限公司 运动状态识别方法、存储介质、识别装置及移动机器人
US20220270296A1 (en) * 2021-02-23 2022-08-25 Shanghai Ankobot Robot Co., Ltd Method for processing image, mobile robot and method for controlling mobile robot
CN114253269A (zh) * 2021-12-21 2022-03-29 合肥工业大学 一种基于多传感器的室内建图机器人

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200305679Y1 (ko) * 2002-11-09 2003-03-03 삼성광주전자 주식회사 조명장치를 갖는 로봇청소기

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2259823A (en) * 1991-09-17 1993-03-24 Radamec Epo Limited Navigation system
JPH06139341A (ja) 1992-09-25 1994-05-20 Hitachi Koki Co Ltd 画像処理装置
JP3263724B2 (ja) 1993-04-16 2002-03-11 日本電信電話株式会社 2次元レーザパターンによる形状特徴抽出装置
JP3296105B2 (ja) 1994-08-26 2002-06-24 ミノルタ株式会社 自律移動ロボット
JP4132415B2 (ja) 1999-06-09 2008-08-13 株式会社豊田自動織機 清掃ロボット
EP1379155B1 (en) 2001-03-16 2013-09-25 Vision Robotics Corporation Autonomous mobile canister vacuum cleaner
JP2003136456A (ja) * 2001-11-06 2003-05-14 Sony Corp ロボット装置、ロボット装置の明るさ検出方法、明るさ検出プログラム及び記録媒体
JP2004021774A (ja) 2002-06-19 2004-01-22 Matsushita Electric Ind Co Ltd 移動作業ロボット
KR100500842B1 (ko) 2002-10-31 2005-07-12 삼성광주전자 주식회사 로봇청소기와, 그 시스템 및 제어방법
US7145478B2 (en) 2002-12-17 2006-12-05 Evolution Robotics, Inc. Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system
US7336299B2 (en) * 2003-07-03 2008-02-26 Physical Optics Corporation Panoramic video system with real-time distortion-free imaging
KR100552691B1 (ko) 2003-09-16 2006-02-20 삼성전자주식회사 이동로봇의 자기위치 및 방위각 추정방법 및 장치
JP2006047067A (ja) * 2004-08-03 2006-02-16 Funai Electric Co Ltd 人体検出装置及び人体検出方法
US20100222925A1 (en) 2004-12-03 2010-09-02 Takashi Anezaki Robot control apparatus
JP2006172108A (ja) 2004-12-15 2006-06-29 Funai Electric Co Ltd 自走式掃除機
EP2806326B1 (en) * 2005-09-02 2016-06-29 Neato Robotics, Inc. Multi-function robotic device
WO2007051972A1 (en) 2005-10-31 2007-05-10 Qinetiq Limited Navigation system
ES2623920T3 (es) * 2005-12-02 2017-07-12 Irobot Corporation Sistema de robot.
JP2007193538A (ja) 2006-01-18 2007-08-02 Sharp Corp 自走式移動体
US8368759B2 (en) 2007-03-13 2013-02-05 Research Institute Of Industrial Science & Technology Landmark for position determination of mobile robot and apparatus and method using it
NL1033590C2 (nl) 2007-03-26 2008-09-29 Maasland Nv Onbemand voertuig voor het afgeven van voer aan een dier.
JP5190663B2 (ja) * 2007-03-27 2013-04-24 スタンレー電気株式会社 距離画像生成装置
KR100960650B1 (ko) * 2007-04-03 2010-06-07 엘지전자 주식회사 이동로봇 및 그 동작방법
KR101345528B1 (ko) * 2007-05-09 2013-12-27 아이로보트 코퍼레이션 자동 로봇
KR101337534B1 (ko) 2007-07-24 2013-12-06 삼성전자주식회사 이동 로봇의 위치 인식 장치 및 방법
CN101358714A (zh) 2007-07-31 2009-02-04 上海申杰保洁管理有限公司 一种清扫机器人的照明灯
JP2009123045A (ja) 2007-11-16 2009-06-04 Toyota Motor Corp 移動ロボット及び移動ロボットの危険範囲の表示方法
KR101412751B1 (ko) 2008-03-14 2014-08-06 엘지전자 주식회사 이동로봇 및 그 동작방법
KR101470635B1 (ko) 2008-05-16 2014-12-08 엘지전자 주식회사 로봇 청소기 및 그 제어방법
KR20080090367A (ko) 2008-08-26 2008-10-08 엘지전자 주식회사 이동로봇 및 그 동작방법
KR101542498B1 (ko) 2009-03-02 2015-08-06 엘지전자 주식회사 로봇 청소기 및 그의 위치 검출 방법
KR101553950B1 (ko) 2009-03-02 2015-09-17 엘지전자 주식회사 로봇 청소기 및 그의 위치 검출 방법
EP2264560A1 (en) 2009-06-02 2010-12-22 Koninklijke Philips Electronics N.V. Appliance with luminous housing control depending on environment color
KR20110054472A (ko) 2009-11-17 2011-05-25 엘지전자 주식회사 로봇 청소기 및 그의 제어 방법
JP5588196B2 (ja) 2010-02-25 2014-09-10 キヤノン株式会社 認識装置及びその制御方法、コンピュータプログラム
KR101487778B1 (ko) * 2010-05-11 2015-01-29 삼성전자 주식회사 센싱 시스템 및 이를 갖춘 이동 로봇
US8918213B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US9400503B2 (en) 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
KR20120021064A (ko) 2010-08-31 2012-03-08 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
JP2012064131A (ja) * 2010-09-17 2012-03-29 Tokyo Institute Of Technology 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置
KR20120067888A (ko) 2010-12-16 2012-06-26 한국전자통신연구원 스테레오 영상 처리 장치 및 그 방법
GB2509814B (en) * 2010-12-30 2014-11-12 Irobot Corp A method of operating a mobile robot
JP5939699B2 (ja) 2011-03-07 2016-06-22 いすゞ自動車株式会社 画像認識システム
PL394570A1 (pl) * 2011-04-15 2012-10-22 Robotics Inventions Spólka Z Ograniczona Odpowiedzialnoscia Robot do podlóg podniesionych i sposób serwisowania podlóg podniesionych
KR101798045B1 (ko) * 2011-05-12 2017-11-15 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
US8515580B2 (en) 2011-06-17 2013-08-20 Microsoft Corporation Docking process for recharging an autonomous mobile device
JP2013008460A (ja) 2011-06-22 2013-01-10 Panasonic Corp 照明装置
KR101566207B1 (ko) 2011-06-28 2015-11-13 삼성전자 주식회사 로봇 청소기 및 그 제어방법
US9582000B2 (en) * 2011-09-07 2017-02-28 Lg Electronics Inc. Robot cleaner, and system and method for remotely controlling the same
EP2631730B1 (en) * 2012-02-24 2014-09-24 Samsung Electronics Co., Ltd Sensor assembly and robot cleaner having the same
KR20130097623A (ko) * 2012-02-24 2013-09-03 삼성전자주식회사 센서 어셈블리 및 이를 구비한 로봇청소기
US9497393B2 (en) 2012-03-02 2016-11-15 Express Imaging Systems, Llc Systems and methods that employ object recognition
US9020641B2 (en) * 2012-06-07 2015-04-28 Samsung Electronics Co., Ltd. Obstacle sensing module and cleaning robot including the same
JP6202544B2 (ja) * 2012-08-27 2017-09-27 アクティエボラゲット エレクトロラックス ロボット位置決めシステム
US9020637B2 (en) * 2012-11-02 2015-04-28 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US9398287B2 (en) 2013-02-28 2016-07-19 Google Technology Holdings LLC Context-based depth sensor control
US8761594B1 (en) * 2013-02-28 2014-06-24 Apple Inc. Spatially dynamic illumination for camera systems
KR102020210B1 (ko) * 2013-04-11 2019-11-05 삼성전자주식회사 센서 모듈 및 이를 구비하는 로봇 청소기
CN104117987B (zh) * 2013-04-26 2017-05-10 恩斯迈电子(深圳)有限公司 移动机器人
US9037396B2 (en) * 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US20150098616A1 (en) 2013-10-03 2015-04-09 Qualcomm Incorporated Object recognition and map generation with environment references
FR3012425B1 (fr) 2013-10-24 2017-03-24 European Aeronautic Defence & Space Co Eads France Robot collaboratif d'inspection visuelle d'un aeronef
US9427127B2 (en) * 2013-11-12 2016-08-30 Irobot Corporation Autonomous surface cleaning robot
DE102014100346A1 (de) 2014-01-14 2015-07-16 Haver & Boecker Ohg Packmaschine und Verfahren zum Füllen von Schüttgütern in Säcke
GB2529848B (en) 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile robot
GB2529846B (en) 2014-09-03 2019-02-20 Dyson Technology Ltd Illumination Control of a Vision System for a Mobile Robot

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200305679Y1 (ko) * 2002-11-09 2003-03-03 삼성광주전자 주식회사 조명장치를 갖는 로봇청소기

Also Published As

Publication number Publication date
AU2015310723A1 (en) 2017-03-09
AU2019202299A1 (en) 2019-05-02
GB2529847A (en) 2016-03-09
CN105380562A (zh) 2016-03-09
WO2016034844A1 (en) 2016-03-10
KR102153115B1 (ko) 2020-09-07
AU2015310723B2 (en) 2019-01-03
US20160059770A1 (en) 2016-03-03
KR20170047382A (ko) 2017-05-04
JP6144305B2 (ja) 2017-06-07
EP3189386A1 (en) 2017-07-12
GB201415605D0 (en) 2014-10-15
GB2529847B (en) 2018-12-19
US10144342B2 (en) 2018-12-04
CN105380562B (zh) 2019-04-02
JP2016052515A (ja) 2016-04-14
KR20190091572A (ko) 2019-08-06

Similar Documents

Publication Publication Date Title
KR102006928B1 (ko) 이동 로봇
JP6103319B2 (ja) 移動式ロボット
JP6591544B2 (ja) 移動式ロボット
US11547255B2 (en) Cleaning robot
US10966585B2 (en) Moving robot and controlling method thereof
US20200409382A1 (en) Intelligent cleaning robot
TW201825037A (zh) 移動式清掃機器人及其控制方法
JP6905635B2 (ja) 掃除機及びその制御方法
US20210212541A1 (en) Vacuum cleaner and control method thereof
JP2021525429A (ja) 移動ロボット及び移動ロボットの照明システムを制御する方法
KR102637851B1 (ko) 청소 로봇
US20210361132A1 (en) Cleaner and method for controlling same
CN113613536B (zh) 机器人清扫器
WO2016206716A1 (en) Remotely controlled robotic cleaning device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant