KR100735565B1 - 구조광을 이용한 물체 검출 방법 및 이를 이용한 로봇 - Google Patents

구조광을 이용한 물체 검출 방법 및 이를 이용한 로봇 Download PDF

Info

Publication number
KR100735565B1
KR100735565B1 KR1020060044419A KR20060044419A KR100735565B1 KR 100735565 B1 KR100735565 B1 KR 100735565B1 KR 1020060044419 A KR1020060044419 A KR 1020060044419A KR 20060044419 A KR20060044419 A KR 20060044419A KR 100735565 B1 KR100735565 B1 KR 100735565B1
Authority
KR
South Korea
Prior art keywords
floor object
floor
structured light
robot
image frame
Prior art date
Application number
KR1020060044419A
Other languages
English (en)
Inventor
박동렬
이형기
김동조
방석원
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020060044419A priority Critical patent/KR100735565B1/ko
Priority to US11/590,744 priority patent/US7507948B2/en
Priority to JP2007098371A priority patent/JP4646942B2/ja
Application granted granted Critical
Publication of KR100735565B1 publication Critical patent/KR100735565B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/009Carrying-vehicles; Arrangements of trollies or wheels; Means for avoiding mechanical obstacles
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • A47L9/2826Parameters or conditions being sensed the condition of the floor
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/30Arrangement of illuminating devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Geophysics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 구조광을 이용하여 바닥 물체를 검출하는 방법 및 이를 이용한 로봇에 관한 것이다.
본 발명의 실시예에 따른 구조광을 이용한 바닥 물체 검출 방법은 소정의 구조광이 투사된 지점의 높이 차를 측정하는 단계, 및 상기 측정된 높이 차를 이용하여 바닥 물체를 검출하는 단계를 포함한다.
로봇, 바닥 물체, 구조광

Description

구조광을 이용한 물체 검출 방법 및 이를 이용한 로봇{Method for detecting an object using structured light and robot using the same}
도 1은 본 발명의 일 실시예에 따른 로봇의 동작을 설명하기 위한 도면이다.
도 2a는 본 발명의 일 실시예에 따른 로봇의 사시도이다.
도 2b는 본 발명의 일 실시예에 따른 로봇의 구조를 나타낸 블록도이다.
도 3은 도 2의 움직임 관리부(240)를 보다 구체적으로 나타낸 블록도이다.
도 4a 및 도 4b는 본 발명의 일 실시예에 따른 바닥 물체의 존재를 확인하는 과정을 설명하기 위한 도면이다.
도 5a 내지 도 5c는 본 발명의 일 실시예에 따른 로봇으로부터 바닥 물체까지의 이동 거리 및 방향의 계산 방식을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 바닥 물체의 경계 방향을 측정하는 과정을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 바닥 물체를 검출하는 과정을 나타낸 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 바닥 물체의 경계를 추종하는 과정을 나타낸 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 로봇이 바닥 물체의 코너에 접근하는 상 태를 나타낸 도면이다.
도 10a 및 도 10b는 본 발명의 일 실시예에 따른 로봇이 바닥 물체가 접해있는 장애물에 접근하는 상태를 나타낸 도면이다.
도 11a 내지 도 11d는 본 발명의 일 실시예에 따른 바닥 물체의 검출 상태를 나타낸 도면이다.
도 12는 본 발명의 일 실시예에 따른 바닥 물체가 촬상된 영상 프레임을 나타낸 도면이다.
도 13a와 도 13b는 본 발명의 일 실시예에 따른 구조광을 통하여 획득한 바닥 물체의 높이 정보를 나타낸 도면이다.
<도면의 주요 부분에 관한 부호의 설명>
210 : 주행부 220 : 투사부
230 : 촬영부 240 : 움직임 관리부
250 : 검출부 260 : 맵 관리부
242 : 거리 계산부 244 : 경계 추정부
246 : 제어부
본 발명은 로봇에 관한 것으로서, 더욱 상세하게는 구조광을 이용하여 바닥 물체를 검출하는 방법 및 이를 이용한 로봇에 관한 것이다.
일반적으로 로봇은 산업용으로 개발되어 공장자동화의 일환으로 사용되거나, 인간이 견딜 수 없는 극한의 환경에서 인간을 대신하여 작업을 수행하는 데 사용되어 왔다. 이러한 로봇 공학분야는 근래에 들어 최첨단의 우주개발산업에 사용되면서 발전을 거듭하여 최근에 들어서는 인간친화적인 가정용 로봇의 개발에까지 이르렀다. 덧붙여, 로봇은 의료용 기기를 대체하여 인간 생체 내에 투입됨으로써, 기존의 의료용 기기로는 치료가 불가능했던 미세한 인간 생체조직의 치료에까지 이용된다. 이와 같은 눈부신 로봇공학의 발전은 인터넷에 의한 정보혁명과 이를 뒤이어 유행하고 있는 생명공학분야를 대체하여 새롭게 등장할 최첨단 분야로서 각광받고 있다.
이 중 상기 가정용 로봇은 산업용 로봇에 국한되어왔던 기존의 중공업 중심의 로봇공학분야를 경공업 중심의 로봇공학 분야까지 확대시킨 주역으로서 가장 기본적으로 상기되는 것으로 청소용 로봇을 그 예로 들 수 있다. 이러한 상기 청소용 로봇은 보통 이동을 위한 구동수단과, 청소를 위한 청소 수단 그리고, 전방위 장애물을 감지 하기 위한 감시수단 등으로 구성되어 있다.
일반적으로, 상기 구동수단은 구동력을 발휘하기 위한 구동모터와, 상기 구동모터에 의해 구동되는 무한궤도 또는 소정직경의 바퀴와, 구동을 제어하기 위한 구동 제어회로 등으로 구성되어 있다. 그리고, 상기 청소수단은 먼지 등을 집진하여 제거하기 위한 집진기 등과, 집진행동을 제어하기 위한 집진 제어회로 등으로 구성되어 있다. 또한, 상기 감시수단은 전방위 장애물을 포착하기 위한 감시용 카메라와, 상기 감시용 카메라로 포착되는 영상을 사용자에게 전송하기 위한 전송장 치로 구성되어 있다.
이러한 로봇은 주변에 존재하는 장애물들의 배치구조를 감지하여 자신이 이동 가능한 영역을 소정의 기준 맵으로 작성하여 두고, 작성된 기준 맵에 따라서 장애물에 부딪히지 않고 목적지까지 이동하게 된다. 그런데, 카펫이나 러그(lug) 등과 같은 바닥 물체는 로봇의 이동 경로 상에 놓여 있더라도 로봇의 이동에 방해를 주지 않기 때문에, 바닥 물체의 존재여부는 기준 맵에 반영되지 않는 경우가 많다. 그러나, 카펫이나 러그 등의 바닥 물체는 로봇의 작업 수행에 영향을 미칠 수 있기 때문에 바닥 물체의 존재를 감지하는 기술이 필요하다. 예를 들어 청소용 로봇의 경우에는, 바닥 물체가 청소용 로봇의 브러시에 흡입되어 청소용 로봇의 동작이 비정상적으로 중지되기도 한다.
한국공개특허 10-2004-2162(레이저를 이용한 위치 측정 장치 및 방법)은 다수개의 레이저 빔을 발생시키고, 빔들에 의하여 목표물에 형성되는 포인트들의 영상물을 통해서 목표물에 대한 상대 위치를 산출함으로써 목표물까지의 거리를 측정하는 기술에 대하여 개시하고 있다. 그러나 한국공개특허 10-2004-2162는 단순히 목표물까지의 거리를 측정하는 것 이외에 바닥 물체를 검출하기 위한 방안을 제시하지 못하고 있다. 즉, 한국공개특허 10-2004-2162는 로봇의 이동 가능 영역을 나타내는 기준 맵을 작성하기 위해 장애물을 감지하는 방법으로는 사용될 수 있으나, 바닥 물체를 검출하기 위한 구체적 실현 방안이 미흡하다.
본 발명은 구조광을 이용하여 바닥 물체를 검출하는데 그 목적이 있다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 구조광을 이용한 바닥 물체 검출 방법은 소정의 구조광이 투사된 지점의 높이 차를 측정하는 단계, 및 상기 측정된 높이 차를 이용하여 바닥 물체를 검출하는 단계를 포함한다.
상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 로봇은 소정이 구조광이 투사된 영역의 영상 프레임을 제공하는 촬영부, 상기 영상 프레임에 촬상된 상기 구조광의 촬상 위치를 이용하여 바닥 물체의 경계를 추종하는 주행부, 상기 주행부의 주행 경로를 이용하여 상기 바닥 물체를 검출하는 검출부를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 로봇(100)의 동작을 설명하기 위한 도면이다.
본 발명에서 로봇(100)은 자가적으로 이동 가능하며 소정의 목적을 위하여 부여된 작업을 수행하는 장치로서, 청소용 로봇을 바람직한 실시예로 들 수 있다. 로봇(100)의 주행 경로에는 바닥 물체(10)가 존재할 수 있는데, 로봇(100)이 이동할 수 있는 영역(20) 중에서 바닥 물체(10)가 존재하는 영역과 바닥 물체(10)가 존재하지 않는 영역 간에는 높이차가 존재한다. 여기서 바닥 물체는 카펫, 러그(rug), 슬리퍼 등과 같이 로봇(100)의 이동 범주(20) 상에 존재하며 로봇(100)이 수행하는 작업에 영향을 미칠 수 있는 다양한 유형의 물체를 말한다.
로봇(100)은 주행 중에 바닥의 높이 차를 측정하고, 이를 통하여 바닥 물체(10)를 검출한다. 바닥의 높이 차를 측정하기 위하여 로봇(100)은 주행 방향으로 소정의 구조광(structured light, 30)을 투사하고 구조광(30)의 투사 영역을 촬영한다. 여기서 구조광(30)은 하나의 선형, 다수개의 선형, 소정의 격자를 형성하는 행렬 형태의 선형 등 다양한 형태를 띨 수 있다. 이하에서는 구조광(30)이 하나의 선형을 띠는 것으로 설명할 것이나 본 발명은 이에 한정되지 않는다. 구조광(30)은, 로봇(100)으로부터 소정 거리 이격된 위치의 바닥을 향하여 하향 투사된다.
일반 바닥에 구조광(30)이 투사된 경우, 구조광(30)의 투사 영역을 촬영하여 얻은 영상 프레임에서 구조광(30)은 고정된 위치에 촬상된다. 그러나 구조광(30)이 바닥 물체(10)에 투사된 경우, 구조광(30)의 투사 영역을 촬영하여 얻은 영상 프레임에서 구조광(30)의 촬상 위치는 더 높아지게 된다. 이는 바닥 물체(10)로 인하여 높이 차가 발생하기 때문이다. 따라서 구조광(30)이 바닥에 투사될 경우의 영상 프레임 상에서 구조광이 촬상되는 기준 위치를 실험등을 통하여 사전에 설정하여 두고, 실제로 로봇(10)이 사용되는 중 촬영한 영상 프레임에서 구조광(30)의 위치를 기준 위치와 비교하면 바닥 물체(10)의 존재 여부를 알 수 있게 된다.
바닥 물체(10)의 존재가 감지되면 로봇(100)은 바닥 물체(10)의 경계를 추종함으로써 바닥 물체(10)의 크기와 바닥 물체가 존재하는 영역을 알 수 있게 된다. 이에 따라서 바닥 물체(10)가 위치한 영역과 일반 바닥에 대한 로봇(100)의 작업 방식을 구분하여 설정하거나 이들에 대한 로봇(100)의 작업 여부를 선택적으로 설정하는 등, 바닥 물체(10)에 대하여 필요한 로봇의 동작을 사전에 설정 및 제어할 수 있게 된다. 예를 들어 로봇(100)이 청소용 로봇인 경우 일반 바닥과 바닥 물체(10)에 대한 청소 방식을 별도로 설정하거나 바닥 물체(10)에 대한 청소만을 지시할 수 있게 된다. 이하 전술한 로봇(100)에 대하여 도 2a 및 도 2b를 참조하여 보다 구체적으로 설명하도록 한다.
도 2a는 본 발명의 일 실시예에 따른 로봇(100)의 사시도이고, 도 2b는 본 발명의 일 실시예에 따른 로봇(100)의 구조를 나타낸 블록도이다. 도시된 로봇(100)은 주행부(210), 투사부(220), 촬영부(230), 움직임 관리부(240), 검출부(250), 및 맵 관리부(260)를 포함한다. 도 2a에서 투사부(220)가 촬영부(230)의 상단에 존재하지만, 본 발명은 투사부(220)와 촬영부(230)의 배치 구조에 한정되지 않는다.
주행부(210)는 로봇(100)을 이동시킨다. 이를 위하여 주행부(210)는 하나 이상의 바퀴(212)와 바퀴(212)를 회전시키는 모터(도시하지 않음)를 포함할 수 있다. 그러나 본 발명은 이에 한정되지 않으면 주행부(210)는 로봇(100)을 이동시킬 수 있는 공지의 다른 주행 수단을 포함할 수도 있다.
투사부(220)는 구조광(structured light, 30)을 투사한다. 앞서 설명한 바와 같이 구조광은 하나의 선형, 복수의 선형, 행렬 형태 등을 띠며 로봇(100)의 전방으로 하향 투사된다. 구조광의 바람직한 실시예로써 라인 레이저를 들 수 있다. 라인 레이저는 레이저를 발생시키는 발광 다이오드와 발광 다이오드가 발생시킨 레이저를 선형으로 분산시키는 광학계(렌즈, 거울, 프리즘 등)로 구현 가능하다. 투사부(220)는 구조광을 주기적으로 투사하거나 항시 투사할 수 있다.
촬영부(230)는 구조광이 투사되는 영역에 대한 촬영 작업을 수행함으로써, 구조광이 촬상된 영상 프레임을 제공한다. 바람직하게는, 촬영부(230)는 영상 프레임을 주기적으로 제공한다. 구조광을 촬상시키기 위하여 촬영부(230)는 투사부(220)와 동기화될 수 있다. 즉, 투사부(220)가 구조광을 투사하는 시점에 촬영부(230)는 촬영 작업을 수행할 수 있게 된다. 이러한 촬영부(230)는 CCD(charge coupled device), CMOS(complementary metal-oxide semiconductor), SMPD(Single-carrier Modulation Photo Detector) 등의 촬상 소자를 포함할 수 있다.
움직임 관리부(240)는 로봇(100)의 이동 방향을 제어한다. 따라서, 주행 부(210)는 움직임 관리부(240)의 제어에 따라서 로봇(100)을 이동시키게 된다. 특히 움직임 관리부(240)는 촬영부(230)가 제공하는 영상 프레임에 촬상된 구조광을 이용하여 로봇(100)이 바닥 물체로 접근하고 바닥 물체의 경계를 추종하도록 로봇(100)의 이동 방향을 제어할 수 있다. 움직임 관리부(240)에 대한 구체적인 설명은 도 3을 참조하여 후술하도록 한다.
검출부(250)는 바닥 물체의 경계를 추종하는 작업에 따른 로봇(100)의 이동 경로를 바탕으로 하여 바닥 물체를 검출한다. 본 명세서에서 바닥 물체를 검출한다는 것은 바닥 물체가 차지하고 있는 영역을 확정하고 바닥 물체의 물체의 크기를 측정한다는 의미를 포함한다. 로봇(100)의 이동 경로를 확인하기 위하여 검출부(250)는 로봇(100)의 위치 및 방향의 변화를 측정할 수 있는 엔코더, 자이로스코프 등을 포함할 수 있다.
검출부(250)는 바닥 물체의 크기를 통해서 바닥 물체의 종류를 분류할 수도 있다. 예를 들어 검출부(250)는 1m*1m 이상의 크기를 갖는 바닥 물체는 카펫류로 분류하고, 0.5m*0.5m ~ 1m*1m의 크기를 갖는 바닥 물체는 러그류로 분류하고, 0.5m*0.5m 미만의 크기를 갖는 바닥 물체는 슬리퍼류로 분류할 수 있다. 바닥 물체의 종류를 분류함으로써 바닥 물체의 종류에 따른 작업 분류가 가능해진다.
경계 측정부(244)는 바닥 물체의 경계를 측정하기 위하여 색상 정보를 이용할 수도 있다. 예를 들어 영상 프레임에 촬상된 구조광을 통하여 바닥 물체의 존재가 감지되면, 경계 측정부(244)는 바닥 물체의 색상 정보와 바닥의 색상 정보 간의 차분 값을 구하고 구해진 차분 값의 절대치(이하 초기 색도차라 한다)를 소정의 임계치와 비교한다. 여기서 바닥 물체의 색상 정보는 구조광을 통해서 바닥 물체가 존재하는 것으로 추정되는 영역을 영상 프레임에서 샘플링하고 샘플링된 영역의 색상 정보를 분석함으로써 얻을 수 있다.
만약 초기 색도차가 제1 임계치 이상이라면, 경계 측정부(244)는 영상 프레임에서 바닥 물체의 색상 정보와 제2 임계치 미만의 차이를 나타내는 색상을 갖는 영역과 제2 임계치 이상의 차이를 나타내는 색상을 갖는 영역을 분리함으로써, 바닥 물체의 경계를 측정할 수 있다.
그 후, 구조광을 이용하여 얻은 바닥 물체의 경계 방향과 색상 정보를 이용하여 얻은 바닥 물체의 경계 방향의 가중치 합(weighted sum)을 통해서 바닥 물체의 경계 방향을 결정할 수 있으며, 이를 수학식1로 나타내었다.
[수학식1]
Figure 112006034515323-pat00001
수학식1에서
Figure 112006034515323-pat00002
는 구조광을 통해서 얻은 바닥 물체의 경계 방향이고,
Figure 112006034515323-pat00003
는 색상 정보를 이용하여 얻은 바닥 물체의 경계 방향이고,
Figure 112006034515323-pat00004
는 이들의 가중치 합에 따른 바닥 물체의 경계 방향이다. 또한 k는 가중치를 나타내는데,
Figure 112006034515323-pat00005
Figure 112006034515323-pat00006
의 신뢰도에 따라서 사전에 설정되어 있을 수도 있고,
Figure 112006034515323-pat00007
Figure 112006034515323-pat00008
에 대한 측정 결과에 따라서 동적으로 설정될 수도 있다. 예를 들어 가중치 k는 초기 색도차를 영상 프레임이 가질 수 있는 최대 색도 값인 255로 나눈 값으로 설정될 수 있다.
맵 관리부(260)는 로봇(100)의 이동 가능 영역을 나타내는 기준 맵이 검출부(260)에 의하여 검출된 바닥 물체의 존재가 반영되도록 기준 맵을 갱신한다. 여기서 기준 맵은 벽이나 가구 등과 같이 로봇(100)의 이동을 차단시키는 장애물들의 배치 구조를 나타낸 맵으로서 사전에 작성되어 있을 수 있다. 기준 맵을 작성하는 기술은 다양하게 공지되어 있으므로, 본 명세서에서는 이에 대한 설명을 생략하기로 한다. 맵 관리부(260)는 검출부(250)로부터 바닥 물체의 크기, 영역, 재질, 종류 등과 같은 검출 정보를 얻을 수 있으며, 검출 정보를 기준 맵 상에 반영시킨다.
도 3은 도 2의 움직임 관리부(240)를 보다 구체적으로 나타낸 블록도이다. 도시된 움직임 관리부(240)는 거리 계산부(242), 경계 측정부(244), 및 제어부(246)를 포함한다.
거리 계산부(240)는 촬영부(30)로부터 제공되는 영상 프레임에 촬상된 구조광을 통하여 높이 차가 감지되는 경우 바닥 물체가 존재하는 것으로 판단하고, 로봇(100)의 현재 위치로부터 바닥 물체까지의 거리를 계산한다. 앞서 설명한 바와 같이 바닥의 높이 차는 영상 프레임 상에서 구조광의 위치를 통하여 판단할 수 있다. 투사부(220)가 투사한 구조광이 일반적인 바닥에 투영되면, 촬영부(230)가 제공하는 영상 프레임에서 구조광이 촬상되는 위치는 일정하게 유지된다. 따라서 구조광이 바닥에 투사될 경우에 촬영부(230)가 제공하는 영상 프레임에서 구조광이 존재하는 기준 위치를 사전에 저장시켜두고, 실제로 촬영된 영상 프레임에서 구조광이 존재하는 위치를 기준 위치와 비교함으로써 바닥 물체의 존재 여부가 확인될 수 있다. 도 4a 및 도 4b를 참조하여 바닥 물체의 존재를 확인하는 과정에 대하여 설명하도록 한다.
도 4a는 로봇(100)이 바닥 물체(10)의 경계면에 수직한 방향으로 이동하는 장면과 각 장면에서 촬영부(230)가 촬영한 영상 프레임을 시간적 순서에 따라서 나타낸 도면이다. 시간 t1과 t2에서와 같이 구조광(30)이 바닥에 투사된 경우, 영상 프레임에 존재하는 구조광(30a)의 위치는 기준 위치(410)와 동일하다. 그러나, 시간 t3에서와 같이 구조광(30)이 바닥 물체(10)에 투사된 경우, 영상 프레임에 존재하는 구조광(30a)의 위치가 기준 위치(410)보다 높게 나타난다. 이 경우, 검출부(250)는 전방에 바닥 물체(10)가 존재하는 것으로 판단할 수 있다.
도 4b는 로봇(100)이 바닥 물체(10)의 경계면에 비스듬한 방향으로 이동하는 장면과 각 장면에서 촬영부(230)가 촬영한 영상 프레임을 시간적 순서에 따라서 나타낸 도면이다. 시간 t1과 t2에서와 같이 구조광(30)이 바닥에 투사된 경우, 영상 프레임에 존재하는 구조광(30a)의 위치는 기준 위치(410)와 동일하다. 그러나, 시간 t3에서와 같이 구조광(30)이 바닥 물체(10)와 바닥에 걸쳐서 투사되면 촬영부(230)가 촬영한 영상 프레임에 존재하는 구조광(30a)에는 단차(420)가 존재하게 된다. 단차(420)가 존재하는 구조광(30a)에서 기준 위치(410) 상에 촬상된 부분은 바닥을 나타내고 기준 위치(410)보다 높은 부분은 바닥 물체(10)를 나타낸다.
영상 프레임에 촬상된 구조광의 위치를 통해서 높이 차가 감지되면 거리 계산부(242)는 구조광이 투사된 영역에 바닥 물체가 존재하는 것으로 판단하고, 로봇(100)의 현재 위치로부터 바닥 물체까지 이동하기 위한 거리 및 방향을 계산한다. 이하 도 5a 내지 도 5c를 참조하여 이에 대해 설명하도록 한다.
도 5a는 본 발명의 일 실시예에 따른 촬영부(230)와 임의의 대상 지점 간의 좌표 관계를 나타낸 도면이다. 도 5a에서 좌표축 Xc, Yc, Zc는 로봇(100) 상에서 촬영부(230)가 사용하는 기준 좌표축이고, 기준 좌표축 Xc, Yc, Zc는 기준점 C를 중심으로 한다. Ox, Oy는 영상 프레임(510)의 좌표 중 촬영부(230)의 좌표축 Zc에 대응하는 기준점이고, Yp, Xp는 영상 프레임(510)의 기준 좌표축이다. 점 P는 대상 지점을 나타내며 P'는 영상 프레임(510)에서 대상 지점 P가 촬상된 위치를 나타낸다.
본 발명에서 대상 지점은 구조광이 투사된 지점을 나타낸다. 바람직하게는, 대상 지점은 영상 프레임에 촬상된 구조광에 단차가 존재하지 않으면 구조광의 중심점에 대응하는 위치이고 영상 프레임에 촬상된 구조광에 단차가 존재하면 단차 지점에 대응하는 위치일 수 있다.
도 5b는 도 5a와 같은 좌표 관계에서 촬영부(230)로부터 대상 지점 P까지의 Zc축 방향으로의 거리 Cz와 Yc축 방향으로의 거리 Cy간의 관계를 나타낸 도면이다. 도 5b에서 f는 촬영부(230)의 초점 거리이고, y는 초점 거리 f에서 대상 지점 P의 상이 맺히는 Yc 축 방향의 거리이다. y는 수학식2과 같이 나타낼 수 있다.
[수학식2]
Figure 112006034515323-pat00009
수학식2에서
Figure 112006034515323-pat00010
은 영상 프레임(510)에서 대상 지점의 촬상 위치 P'가 영상 프레임(510)의 기준점(Ox, Oy)으로부터 Yp 축 방향으로 이격된 거리이고,
Figure 112006034515323-pat00011
은 촬 영부(230)의 촬영 작업과 영상 프레임(510)의 크기에 따른 Yc축 방향의 왜곡 정도를 보상하기 위한 스케일 파라미터이다.
도 5b에 도시된 관계에 따른 삼각법과 수학식2을 이용하면 수학식3와 같은 Cy와 Cz 간의 관계가 성립한다.
[수학식3]
Figure 112006034515323-pat00012
이와 유사한 방식을 이용하면 촬영부(230)로부터 물체까지의 Zc축 방향으로의 거리 Cz와 Xc축 방향으로의 거리 Cx 간의 관계도 구할 수 있다. 수학식4은 Cx와 Cz 간의 관계 및 Cy와 Cz 간의 관계를 행렬식으로 나타낸 것이다.
[수학식4]
Figure 112006034515323-pat00013
수학식4에서
Figure 112006034515323-pat00014
은 촬영부(230)의 촬영 작업과 영상 프레임(510)의 크기에 따른 Xc 축 방향의 왜곡 정도를 보상하기 위한 스케일 파라미터이다.
도 5c는 본 발명의 일 실시예에 따른 촬영부(230)의 기준 좌표축과 로봇(100)의 기준 좌표축 간의 관계를 나타낸 도면이다. Xr, Yr, Zr는 로봇(100)의 기준 좌표축이고, Xc, Yc, Zc는 촬영부(230)의 기준 좌표축이다. 여기서 촬영 부(230)의 기준 좌표축은 도 5a에서 설명한 바와 동일하다. C와 R은 각각 로봇(100)의 기준 좌표축과 촬영부(230)의 기준 좌표축의 중심을 나타내는 기준점이다.
로봇(100)의 기준 좌표축 중 Xr과 Zr로 이루어지는 평면은 로봇이 이동하는 바닥 평면과 동일하고 Zr은 로봇의 전방을 향한다. 본 실시예에서 Xr과 Xc는 서로 평행하고, 촬영부(230)의 기준점 C는 로봇(100)의 기준점 R로부터 Yr 방향으로 H만큼 이격되어 있다. 또한 Zc는 Zr에 대하여 각도 α만큼 회전되어 있다.
이 경우, 로봇(100)의 기준 좌표축을 사용한 좌표계와 촬영부(230)의 기준 좌표축을 사용한 좌표계 간의 관계는 수학식5와 같이 나타낼 수 있다.
[수학식5]
Figure 112006034515323-pat00015
수학식5에서 Rx, Ry, Rz는 각각 로봇(100)의 기준점 R로부터 Xr, Yr, Zr 방향으로의 거리를 의미하고, Cx, Cy, Cz는 각각 촬영부(230)의 기준점 C로부터 Xc, Yc, Zc 방향으로의 거리를 의미한다.
수학식5를 이용하면
Figure 112006034515323-pat00016
의 관계가 성립한다. 여기서 로봇(100)의 이동 면인 XrZr 평면을 위하여 Ry=0으로 놓고 수학식4을 통해 얻은 Cy와 Cz 간의 관계를 대입하면 수학식6를 얻을 수 있다.
[수학식6]
Figure 112006034515323-pat00017
수학식5와 수학식6를 이용하면, 로봇(100)으로부터 대상 지점까지의 Zr축 및 Xr축 방향으로의 거리 Rz와 Rx를 구할 수 있다. 수학식7와 수학식8은 각각 Rz와 Rx를 구하는 식을 나타낸다.
[수학식7]
Figure 112006034515323-pat00018
[수학식8]
Figure 112006034515323-pat00019
도 5a 내지 도 5c와 수학식2 내지 수학식8을 참조하여 설명한 거리 계산 방식은 본 발명의 일 실시예일뿐이므로 본 발명이 이에 한정되는 것은 아니며, 실시예에 따라서 다양한 공지의 기술이 이용될 수도 있다.
한편, 전술한 거리 계산 방식을 사용하면 바닥에서부터 구조광이 투사된 지점까지의 높이 차를 직접 계산하는 것도 가능하다.
다시 도 3을 참조하면 경계 측정부(244)는 바닥 물체의 경계 방향을 측정한다. 바닥 물체의 경계 방향은 로봇(100)이 바닥 물체로부터 일정 거리 이내에 위치한 상태에서 로봇(100)이 회전하는 동안 촬영부(230)가 제공하는 연속된 영상 프레임들에 존재하는 구조광의 단차들의 연장 방향을 통하여 측정될 수 있다. 예를 들어 도 6에 도시한 바와 같이 로봇(100)이 바닥 물체(10)의 경계 부근에서 시계 방향으로 회전하면서 시간적으로 연속된 네 개의 영상 프레임을 생성하는 경우, 거리 계산부(242)는 로봇(100)의 현재 위치로부터 각 영상 프레임에서 구조광의 단차(610, 620, 630, 640)가 존재하는 지점에 대응하는 위치까지의 거리와 방향을 계산할 수 있다. 이때 경계 측정부(244)는 단차가 존재하는 지점들의 좌표를 생성하고 생성된 좌표들을 연결함으로써 바닥 물체의 경계 방향을 측정할 수 있다.
제어부(246)는 거리 계산부(242)와 경계 측정부(244)로부터 제공되는 정보를 이용하여 로봇(100)이 진행할 방향이나 로봇(100)의 회전 방향 등을 결정하고, 결정 결과를 통하여 주행부(210)를 제어한다.
이하 전술한 로봇(100)의 바닥 물체 검출 과정에 대하여 구체적으로 설명하도록 한다.
도 7은 본 발명의 일 실시예에 따른 바닥 물체를 검출하는 과정을 나타낸 흐름도이다.
먼저 투사부(220)가 구조광을 투사하면(S710) 촬영부(230)는 구조광이 투사된 영역을 촬영하여 영상 프레임을 제공한다(S720). 구조광은 주기적으로 투사될 수 있으며, 촬영부(230)는 투사부(220)와 동기화되어 구조광이 투사될 때마다 촬영 작업을 수행할 수 있다. 또는, 투사부(220)는 구조광을 끊임없이 투사하고 촬영부(230)가 일정 주기마다 구조광이 투사된 영역을 촬영할 수도 있다. 본 흐름도에서는 구조광의 투사와 촬영 작업이 과정 S710과 S720을 통해서 한번 수행되는 것처럼 도시되어 있으나, 이하의 과정이 수행되는 동안 구조광의 투사와 촬영 작업은 지속적으로 수행된다.
움직임 관리부(240)는 영상 프레임에 존재하는 구조광을 통해서 바닥의 높이 차가 발생하였는지 판단한다(S730). 바닥 물체로 인하여 높이 차가 발생하였는지의 여부는 4a 및 도 4b를 참조하여 설명한 바와 같은 작업을 통해서 판단할 수 있다. 물론, 도 5a 내지 도 5c와 수학식2 내지 수학식8을 참조하여 설명한 내용을 바탕으로 하여 영상 프레임에 존재하는 구조광의 위치에 대응하는 지점의 높이를 계산함으로써 높이 차를 감지하는 것도 가능하다.
만약 높이 차가 존재하지 않으면, 주행부(210)는 움직임 관리부(240)의 제어에 따라서 지금까지의 로봇(100)의 이동 패턴을 유지한다(S740). 그러나 과정 S730의 판단 결과 바닥의 높이 차가 감지되면, 주행부(210)는 움직임 관리부(240)의 제어에 따라서 바닥 물체로 로봇(100)을 접근시킨다(S750). 이 때, 로봇(100)은 바닥 물체의 경계로부터 일정 거리에 위치할 때까지 이동하며, 로봇(100)으로부터 바닥 물체까지의 거리 및 방향은 도 5a 내지 도 5c를 참조하여 설명한 내용에서처럼 거리 계산부(242)를 통해서 구해질 수 있다.
로봇(100)이 바닥 물체의 경계로부터 소정의 거리에 위치할 때까지 이동하면, 움직임 관리부(240)는 로봇(100)이 바닥 물체의 경계를 추종하도록 주행 부(210)를 제어하고 주행부(210)는 움직임 관리부(240)의 제어에 따라서 바닥 물체의 경계를 따라 로봇(100)을 이동시킨다(S760).
바닥 물체의 경계를 추종하는 작업이 완료되면 검출부(250)는 로봇(100)이 바닥 물체의 경계를 따라서 이동한 경로를 이용하여 바닥 물체를 검출한다(S770). 이 때 검출부(250)는 바닥 물체의 크기를 이용하여 바닥 물체의 종류를 분류하여 둘 수 있다.
그 후, 맵 관리부(260)는 바닥 물체의 존재 영역이 반영되도록 로봇(100)의 이동 가능 영역을 나타내는 기준 맵을 갱신한다(S780).
도 8은 본 발명의 일 실시예에 따른 바닥 물체의 경계를 추종하는 과정을 나타낸 흐름도이다. 도시된 흐름도는 도 7의 과정 S760를 보다 구체적으로 나타낸 도면이다.
먼저 바닥 물체로부터 일정 거리 이내로 접근하면, 제어부(246)는 회전 방향을 지시하고, 주행부(240)는 제어부(246)가 지시한 방향으로 로봇(100)을 회전시킨다(S810).
로봇(100)이 회전하는 동안에도 투사부(220)와 촬영부(230)의 동작으로 인하여 구조광이 촬상된 영상 프레임이 주기적으로 제공된다. 경계 측정부(244)는 연속적으로 제공된 영상 프레임들을 분석하여 바닥 물체의 경계 방향을 결정한다(S815).
바닥 물체의 경계 방향이 결정되면 제어부(246)는 이동 방향을 바닥 물체의 경계 방향과 평행한 방향으로 결정하고, 주행부(240)는 제어부(246)가 결정한 방향 으로 로봇(100)을 이동시킨다(S820).
바닥 물체의 경계를 따라서 이동하던 중 로봇(100)에게 발생할 수 있는 상황은 크게 두 가지로 나누어 볼 수 있다. 하나는 바닥 물체의 코너에 접근하는 경우이고 다른 하나는 장애물을 만나게 되는 경우이다.
우선 바닥 물체의 코너에 접근하는 경우 촬영부(230)가 제공하는 영상 프레임에서 구조광의 단차가 사라지게 된다. 도 9에 로봇(100)이 바닥 물체(10)의 코너에 접근하는 장면과 각 장면에서의 영상 프레임을 도시하였는데, 도 9의 시간 t3에서 구조광(910)의 단차(920)가 사라져 있다.
로봇(100)이 바닥 물체의 경계 방향을 따라 이동하는 중에, 제어부(246)는 촬영부(230)가 제공하는 영상 프레임에서 구조광의 단차가 사라지는지의 여부를 판단한다(S825). 만약 영상 프레임에서 구조광의 단차가 사라진다면 바닥 물체의 코너에 다다른 것을 의미하므로, 제어부(246)는 단차가 사라진 지점까지 로봇(100)의 이동을 지시하고 주행부(210)가 그 지시에 따라서 로봇(100)을 이동시킨다(S830).
로봇(100)이 단차가 사라진 지점까지 이동하면, 제어부(246)는 회전을 지시하고 주행부(210)는 로봇(100)을 회전시킨다(S835). 여기서 로봇(100)의 회전 방향은 바닥 물체가 존재하던 방향이다. 예를 들어 도 9에 도시된 바와 같은 단차를 감지하면서 바닥 물체의 경계를 따라서 이동하였다면 영상 프레임의 구조광을 통해서 바닥 물체가 로봇(100)의 왼쪽 방향에 존재한다는 사실을 알 수 있다. 이 경우, 제어부(246)는 로봇(100)이 왼쪽 방향으로 회전하도록 지시하게 된다.
로봇(100)이 회전하는 동안 촬영부(230)로부터 제공되는 영상 프레임을 통해 서 경계 측정부(244)는 바닥 물체의 경계 방향을 다시 결정한다(S840). 그 후, 주행부(210)는 경계 측정부(244)에 의하여 결정된 바닥 물체의 경계 방향과 평행한 방향으로 로봇(100)을 이동시킨다(S845). 과정 S835 내지 S845는 과정 S810 내지 S820과 유사한 방식으로 수행된다.
로봇(100)이 바닥 물체의 경계 방향을 따라서 이동하는 중에 제어부(246)는 바닥 물체의 추종 작업에 따른 로봇(100)의 이동 경로가 폐루프를 형성하는지 판단한다(S850). 만약 로봇(100)의 이동 경로가 폐루프를 형성한다면 바닥 물체의 추종 작업이 종료된다.
한편, 로봇이 바닥 물체의 경계를 따라서 주행하는 도중, 제어부(246)는 로봇(100)의 전방에 장애물 존재하는지의 여부를 판단한다(S855). 촬영부(230)가 제공하는 영상 프레임에서 구조광의 높이가 임계치 이상으로 높아지는 경우 제어부(246)는 장애물이 존재하는 것으로 판단할 수 있는데, 그 일 예를 도 10a와 도 10b에 도시하였다.
도 10a에 로봇(100)이 장애물(1010)에 접근하는 장면과 각 장면에서의 영상 프레임을 나타낸 도면이다. 도시된 바와 같이 바닥 물체가 장애물에 접해 있는 상태에서 로봇(100)이 장애물에 가까워지면, 구조광이 장애물에 투사된다. 이 때 영상 프레임에서 구조광(1020)의 단차(1030)의 단차가 사라지고(시간 t2 참조), 구조광(1020)의 촬상 위치가 점차 높아지게 된다(시간 t3 참조). 제어부(246)는 영상 프레임에서 구조광의 촬상 위치가 일정 높이를 초과할 경우 장애물의 존재를 확인할 수 있다.
도 10b 역시 로봇(100)이 장애물에 접근하는 장면과 각 장면에서의 영상 프레임을 나타낸 도면이다. 도 10b와 같은 상황에서 로봇(100)이 장애물에 접근에 가까워지면, 구조광(1080)은 장애물(1040)과 바닥에 걸쳐서 투사된다. 이 경우, 영상 프레임에서 구조광(1020)의 단차(1050, 1060, 1070)가 점차 커지게 되는데, 이를 통해서 제어부(246)는 장애물(1040)의 존재를 확인할 수 있게 된다
다시 도 8을 참조하면, 과정 S855에서 장애물이 존재하는 것으로 판단되면 제어부(246)는 바닥 물체의 경계를 추종하던 중 처음으로 감지된 장애물인지 판단한다(S860). 처음 감지된 장애물이면 제어부(246)는 로봇(100)의 진행 방향이 반대가 되도록 지시한다. 이 때 주행부(210)는 로봇(100)의 진행 방향을 180도 회전시키고 다시 바닥 물체의 경계를 따라서 로봇을 이동시킨다(S865). 물론 이 경우, 과정 S810 내지 S820에서와 같이 바닥 물체의 경계를 다시 측정하고, 측정된 경계 방향에 따라서 로봇(100)을 이동시킬 수 있다.
한편, 과정 S860의 판단 결과 두 번째로 감지된 장애물이면 바닥 물체 추종 작업이 종료된다.
이와 같은 과정을 통해서 바닥 물체의 경계의 추종이 완료되면 도 7의 과정 S770에서 검출부(250)는 바닥 물체를 검출하게 되는데, 바닥 물체가 장애물과 인접해 있는 상태에 따라서 바닥 물체 검출 방식 달라질 수 있다.
우선 도 11a에 도시된 바와 같이 바닥 물체(10)가 장애물과 접해있지 않은 경우, 바닥 물체(10)의 추종 작업 시 로봇의 이동 경로(1110)(이하 추종 경로라 한다)는 폐루프를 형성하게 된다. 추종 경로가 폐루프를 형성하면 검출부(250)는 추 종 경로(1110)로 구획되는 영역을 바닥 물체(10)가 존재하는 영역으로 결정하게 된다.
한편, 도 11b에 도시된 바와 같이 바닥 물체(10)의 한쪽 경계면이 장애물과 접해 있는 경우, 로봇(100)은 바닥 물체(10)의 나머지 세 경계면을 추종하게 된다. 따라서 추종 경로(1120)는 소정의 각도로 연결된 세 개의 라인으로 형성되는데, 이 경우 검출부(250)는 추종 경로(1120)의 양 끝점(1122, 1124)을 연결하여 얻어지는 폐루프를 바닥 물체(10)의 영역으로 결정하게 된다.
또한, 도 11c에 도시된 바와 같이 바닥 물체(10)의 두 경계면이 장애물과 접해 있는 경우, 로봇(100)은 바닥 물체(10)의 나머지 두 경계면을 추종하게 된다. 따라서 추종 경로(1130)는 소정의 각도로 연결된 두 개의 라인으로 형성되는데, 이 경우 검출부(250)는 추종 경로(1130)의 양 끝점(1132, 1134)을 잇는 선분(1136)을 기준으로 하여 추종 경로(1130)를 대칭 처리하고, 대칭 처리 결과 얻어지는 폐루프를 바닥 물체(10)의 영역으로 결정하게 된다.
끝으로, 도 11d에 도시된 바와 같이 바닥 물체(10)의 세 경계면이 장애물과 접해 있는 경우, 로봇(100)은 바닥 물체(10)의 나머지 한쪽 경계면을 추종하게 된다. 이 경우 검출부(250)는 바닥 물체(10)의 색상 정보를 사용하여 바닥 물체(10)의 영역을 결정하게 된다. 이를 보다 구체적으로 설명하면, 바닥 물체(10)의 한쪽 경계만이 파악된 경우, 주행부(210)는 제어부(246)의 제어에 따라서 바닥 물체(10)의 경계 방향에 대하여 수직한 방향으로 일정 간격 로봇(100)을 이동시킨다. 바람직하게는 주행부(210)는 바닥 물체(10)의 경계의 중앙 부분에서 바닥 물체(10)의 경계 방향에 대하여 수직한 방향으로 로봇(100)을 이동시킬 수 있다.
그 후, 주행부(210)는 로봇(100)이 바닥 물체(10)를 향하도록 로봇(100)을 회전시키고, 촬영부(230)는 바닥 물체(10)를 촬영한다. 이 때, 촬영부(230)로부터 제공되는 영상 프레임에는 도 12에 도시된 바와 같이 바닥 물체(10)가 촬상되게 된다. 검출부(250)는 영상 프레임에서 바닥 물체(10)의 색상 정보와 임계치 이내의 색도차를 갖는 영역을 분리함으로써 바닥 물체(10)의 두 경계(1210, 1220)를 결정한다. 여기서 바닥 물체(10)의 색상 정보는 바닥 물체(10)의 경계 추종 시 촬영부(230)가 제공하는 영상 프레임에서 구조광의 위치를 통하여 바닥 물체(10)가 존재하는 것으로 판단된 영역에 대한 샘플링을 통하여 사전에 구해놓은 것일 수 있다.
영상 프레임 상에서 바닥 물체(10)의 두 경계(1210, 1220)가 결정되면 검출부(250)는 두 경계(1210, 1220) 간의 거리를 이용하여 바닥 물체(10)의 폭(1141, 도 11d 참조)을 추정하게 된다. 물론 영상 프레임은 2차원적이므로 바닥 물체(10)의 높이를 나타내는 부분(1230)이 바닥 물체(10)의 폭(1141)을 측정하는데 영향을 미치지 않도록 하기 위하여, 두 경계(1210, 1220) 간의 거리에서 바닥 물체(10)의 두께에 해당하는 부분(1230)의 거리는 제외시키는 것이 바람직하다. 바닥 물체(10)의 두께는 바닥 물체(10)를 감지할 당시 구조광을 통하여 얻은 바닥 물체(10)의 높이 차에 대응하는 수치로 결정될 수 있다. 이러한 작업을 위하여 영상 프레임에서 소정 위치의 라인 간의 거리에 따른 각 라인에 대응하는 위치 간의 실제 거리에 대한 정보를 사전에 저장하여 두고, 검출부(250)가 이를 이용하도록 할 수 있다.
바닥 물체(10)의 폭이 결정되면 검출부(250)는 바닥 물체(10)의 한쪽 경계에 대한 추종 경로(1140)와 색상 정보를 이용하여 얻은 바닥 물체(10)의 폭을 곱한 값으로 바닥 물체(10)의 크기를 계산하고, 바닥 물체의 존재 영역을 결정하게 된다.
한편, 검출부(250)는 바닥 물체의 재질을 측정할 수도 있다. 바닥 물체의 재질은 종래의 기술에 의하여 측정될 수도 있으나, 검출부(250)는 구조광을 통하여 바닥 물체의 재질을 측정할 수도 있다. 이를 위하여 주행부(210)는 제어부(246)의 제어에 따라서 구조광이 바닥 물체의 표면을 스캐닝하도록 로봇(10)을 이동시킨다. 이 때 촬영부(230)가 제공하는 연속된 영상 프레임들은 바닥 물체의 표면에 투사된 구조광이 촬상되어 있다. 검출부(250)는 영상 프레임 상에서의 구조광의 위치 정보를 이용하여 구조광이 투사된 지점의 높이 정보를 획득한다. 그 후, 검출부(250)는 높이 정보에서 잡음을 제거한 후 남은 정보들의 고주파 성분을 계산한다. 도 13a에 도시한 바와 같이 긴 털을 포함 하는 등의 이유로 표면이 불균일한 바닥 물체의 높이 정보는 잡음을 제거하더라도 고주파 성분이 많이 존재한다. 따라서 고주파 성분이 소정의 임계치보다 많으면 검출부(250)는 바닥 물체를 긴 털을 포함하는 물체로 판단하고 그에 대한 정보를 바닥 물체의 검출 정보에 반영한다. 그러나 도 13b에 도시한 바와 같이 짧은 털로 이루어 지는 등의 이유로 표면이 균일한 바닥 물체의 높이 정보는 잡음을 제거할 경우 고주파 성분이 적다. 따라서 소정의 임계치보다 많지 않으면 검출부(250)는 바닥 물체를 평평한 물체로 판단하고 그에 대한 정보를 바닥 물체의 검출 정보에 반영한다.
이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
상기한 바와 같은 본 발명의 구조광을 이용한 물체 검출 방법 및 이를 이용한 로봇에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 로봇의 작업에 영향을 미칠 수 있는 바닥 물체를 검출할 수 있는 장점이 있다.
둘째, 바닥 물체를 검출함으로써 바닥 물체에 대한 구별된 작업 부여가 가능한 장점도 있다.
셋째, 로봇이 바닥 물체의 표면으로 이동하지 않고서도 바닥 물체를 검출할 수 있으므로, 바닥 물체의 존재가 감지되지 않은 상태에서도 바닥 물체에 대한 작업 부여가 가능하다.

Claims (28)

  1. 소정의 구조광이 투사된 지점과 바닥 물체가 존재하지 않는 바닥 간의 높이 차를 측정하는 단계; 및
    상기 측정된 높이 차를 이용하여 상기 바닥 물체를 검출하는 단계를 포함하는, 구조광을 이용한 바닥 물체 검출 방법.
  2. 제 1항에 있어서, 상기 측정하는 단계는,
    상기 구조광을 투사하는 단계;
    상기 구조광이 투사된 영역에 대한 영상 프레임을 제공하는 단계; 및
    상기 영상 프레임에서 상기 구조광이 촬상된 위치를 이용하여 상기 구조광이 투사된 지점과 상기 바닥 물체가 존재하지 않는 바닥 간의 높이 차를 계산하는 단계를 포함하는, 구조광을 이용한 바닥 물체 검출 방법.
  3. 제 1항에 있어서,
    상기 구조광은 하나의 선형, 복수의 선형, 또는 행렬 형태 중 어느 하나의 형태를 띠는, 구조광을 이용한 바닥 물체 검출 방법.
  4. 제 1항에 있어서, 상기 검출하는 단계는,
    상기 구조광을 이용하여 바닥 물체의 경계를 추종하는 단계; 및
    상기 바닥 물체의 경계에 대한 추종 경로에 따라서 상기 바닥 물체를 검출하 는 단계를 포함하는, 구조광을 이용한 바닥 물체 검출 방법.
  5. 제 4항에 있어서, 상기 추종하는 단계는,
    상기 구조광이 투사된 영역에 대한 영상 프레임에서 상기 구조광의 촬상 위치를 이용하여 상기 바닥 물체의 경계 방향을 측정하는 단계; 및
    상기 경계 방향에 평행한 방향으로 이동하는 단계를 포함하는, 구조광을 이용한 바닥 물체 검출 방법.
  6. 제 4항에 있어서, 상기 추종하는 단계는,
    상기 구조광이 투사된 영역에 대한 영상 프레임에서 상기 구조광의 촬상 위치를 이용하여 상기 바닥 물체의 제1 경계 방향을 측정하는 단계;
    상기 영상 프레임에서 상기 바닥 물체의 색상 정보와 바닥의 색상 정보 간의 차이를 이용하여 상기 바닥 물체의 제2 경계 방향을 측정하는 단계;
    상기 제1 경계 방향과 상기 제2 경계 방향의 가중치 합을 통해서 상기 바닥 물체의 제3 경계 방향을 계산하는 단계; 및
    상기 제3 경계 방향에 평행한 방향으로 이동하는 단계를 포함하는, 구조광을 이용한 바닥 물체 검출 방법.
  7. 제 4항에 있어서, 상기 검출하는 단계는,
    상기 추종 경로가 폐루프를 형성하면 상기 추종 경로를 상기 바닥 물체의 영 역으로 결정하는 단계를 포함하는, 구조광을 이용한 바닥 물체 검출 방법.
  8. 제 4항에 있어서, 상기 검출하는 단계는,
    상기 추종 경로가 소정의 각도로 연결된 세 개의 라인을 형성하면, 상기 추종 경로의 양 끝 점을 연결하여 얻어진 폐루프를 상기 바닥 물체의 영역으로 결정하는 단계를 포함하는, 구조광을 이용한 바닥 물체 검출 방법.
  9. 제 4항에 있어서, 상기 검출하는 단계는,
    상기 추종 경로가 소정의 각도로 연결된 두 개의 라인을 형성하면, 상기 추종 경로의 양 끝점을 잇는 선분을 기준으로 하여 상기 추종 경로를 대칭시킴으로써 얻어지는 폐루프를 상기 바닥 물체의 영역으로 결정하는 단계를 포함하는, 구조광을 이용한 바닥 물체 검출 방법.
  10. 제 4항에 있어서, 상기 검출하는 단계는,
    상기 추종 경로가 하나의 선분이면, 상기 추종 경로에 수직한 방향으로 상기 바닥 물체를 촬영하여 상기 바닥 물체의 두 경계가 촬상된 영상 프레임을 생성하는 단계;
    상기 영상 프레임에 촬상된 상기 두 경계 간의 거리 정보를 이용하여 상기 바닥 물체의 폭을 계산하는 단계; 및
    상기 추종 경로와 상기 계산된 폭을 이용하여 상기 바닥 물체의 영역을 결정 하는 단계를 포함하는, 구조광을 이용한 바닥 물체 검출 방법.
  11. 제 4항에 있어서, 상기 검출하는 단계는,
    상기 바닥 물체의 크기에 따라서 상기 바닥 물체의 종류를 분류하는 단계를 포함하는, 구조광을 이용한 바닥 물체 검출 방법.
  12. 제 4항에 있어서, 상기 검출하는 단계는,
    상기 구조광을 상기 바닥 물체의 표면에 투사하는 단계; 및
    상기 바닥 물체에 투사된 구조광을 통해서 구해진 상기 바닥 물체의 표면의 높이 정보를 이용하여 상기 바닥 물체의 재질을 분류하는 단계를 포함하는, 구조광을 이용한 바닥 물체 검출 방법.
  13. 제 1항에 있어서,
    상기 높이 차를 측정한 결과 상기 바닥 물체의 존재가 확인되면, 상기 구조광이 투사된 지점까지의 거리를 계산하는 단계; 및
    상기 계산된 거리를 이용하여 상기 바닥 물체로부터 소정의 간격 이내로 이동하는 단계를 더 포함하는, 구조광을 이용한 바닥 물체 검출 방법.
  14. 제 1항에 있어서,
    상기 검출된 바닥 물체에 대한 정보를 반영하여 소정의 기준 맵을 갱신하는 단계를 더 포함하는, 구조광을 이용한 바닥 물체 검출 방법.
  15. 소정의 구조광이 투사된 영역의 영상 프레임을 제공하는 촬영부;
    상기 영상 프레임에 촬상된 상기 구조광의 촬상 위치를 이용하여 바닥 물체의 경계를 추종하는 주행부;
    상기 주행부의 주행 경로를 이용하여 상기 바닥 물체를 검출하는 검출부를 포함하는, 로봇.
  16. 제 15항에 있어서,
    상기 구조광을 투사하는 투사부; 및
    상기 영상 프레임에서 상기 구조광이 촬상된 위치를 이용하여 상기 구조광이 투사된 지점과 상기 바닥 물체가 존재하지 않는 바닥 간의 높이 차를 계산하는 거리 계산부를 더 포함하는, 로봇.
  17. 제 15항에 있어서,
    상기 구조광은 하나의 선형, 복수의 선형, 또는 행렬 형태 중 어느 하나의 형태를 띠는, 로봇.
  18. 제 15항에 있어서,
    상기 영상 프레임에서 상기 구조광의 촬상 위치를 이용하여 상기 바닥 물체의 경계 방향을 측정하는 경계 측정부를 더 포함하는, 로봇.
  19. 제 15항에 있어서,
    상기 영상 프레임에서 상기 구조광의 촬상 위치를 이용하여 측정한 제1 경계 방향과 상기 영상 프레임에서 상기 바닥 물체의 색상 정보와 바닥의 색상 정보 간의 차이를 이용하여 측정한 제2 경계 방향의 가중치 합을 통해서 상기 바닥 물체의 제3 경계 방향을 계산하는 경계 측정부를 더 포함하고,
    상기 주행부는 상기 제3 경계 방향에 평행한 방향으로 상기 바닥 물체를 추종하는, 로봇.
  20. 제 15항에 있어서,
    상기 검출부는 상기 추종 경로가 폐루프를 형성하면 상기 추종 경로를 상기 바닥 물체의 영역으로 결정하는, 로봇.
  21. 제 15항에 있어서,
    상기 검출부는 상기 추종 경로가 소정의 각도로 연결된 세 개의 라인을 형성하면, 상기 추종 경로의 양 끝 점을 연결하여 얻어진 폐루프를 상기 바닥 물체의 영역으로 결정하는, 로봇.
  22. 제 15항에 있어서,
    상기 검출부는 상기 추종 경로가 소정의 각도로 연결된 두 개의 라인을 형성 하면, 상기 추종 경로의 양 끝점을 잇는 선분을 기준으로 하여 상기 추종 경로를 대칭시킴으로써 얻어지는 폐루프를 상기 바닥 물체의 영역으로 결정하는, 로봇.
  23. 제 15항에 있어서,
    상기 검출부는 상기 추종 경로가 하나의 선분이면 상기 촬영부가 상기 추종 경로에 수직한 방향으로 상기 바닥 물체를 촬영하여 생성한 영상 프레임에서 상기 바닥 물체의 두 경계 간의 거리 정보를 이용하여 상기 바닥 물체의 폭을 계산하고, 상기 추종 경로와 상기 계산된 폭을 이용하여 상기 바닥 물체의 영역을 결정하는, 로봇.
  24. 제 15항에 있어서,
    상기 검출부는 상기 바닥 물체의 크기에 따라서 상기 바닥 물체의 종류를 분류하는, 로봇.
  25. 제 15항에 있어서,
    상기 검출부는 상기 바닥 물체에 투사된 구조광을 통해서 구해진 상기 바닥 물체의 표면의 높이 정보를 이용하여 상기 바닥 물체의 재질을 분류하는, 로봇.
  26. 제 16항에 있어서,
    상기 높이 차를 측정한 결과 상기 바닥 물체의 존재가 확인되면, 상기 구조광이 투사된 지점까지의 거리를 계산하는 거리 계산부를 더 포함하고,
    상기 주행부는 상기 계산된 거리를 이용하여 상기 바닥 물체로부터 소정의 간격 이내로 이동하는, 로봇.
  27. 제 15항에 있어서,
    상기 검출된 바닥 물체에 대한 정보를 반영하여 소정의 기준 맵을 갱신하는 맵 관리부를 더 포함하는, 로봇.
  28. 제 15항에 있어서,
    상기 구조광을 투사하는 투사부를 더 포함하는, 로봇.
KR1020060044419A 2006-05-17 2006-05-17 구조광을 이용한 물체 검출 방법 및 이를 이용한 로봇 KR100735565B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020060044419A KR100735565B1 (ko) 2006-05-17 2006-05-17 구조광을 이용한 물체 검출 방법 및 이를 이용한 로봇
US11/590,744 US7507948B2 (en) 2006-05-17 2006-11-01 Method of detecting object using structured light and robot using the same
JP2007098371A JP4646942B2 (ja) 2006-05-17 2007-04-04 構造光を用いた物体検出方法及びこれを用いたロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060044419A KR100735565B1 (ko) 2006-05-17 2006-05-17 구조광을 이용한 물체 검출 방법 및 이를 이용한 로봇

Publications (1)

Publication Number Publication Date
KR100735565B1 true KR100735565B1 (ko) 2007-07-04

Family

ID=38503217

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060044419A KR100735565B1 (ko) 2006-05-17 2006-05-17 구조광을 이용한 물체 검출 방법 및 이를 이용한 로봇

Country Status (3)

Country Link
US (1) US7507948B2 (ko)
JP (1) JP4646942B2 (ko)
KR (1) KR100735565B1 (ko)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130141979A (ko) * 2012-06-18 2013-12-27 엘지전자 주식회사 이동 로봇
KR20150048093A (ko) * 2012-08-27 2015-05-06 악티에볼라겟 엘렉트로룩스 로봇 위치 선정 시스템
KR20150050160A (ko) * 2013-10-31 2015-05-08 엘지전자 주식회사 이동 로봇
KR101798045B1 (ko) 2011-05-12 2017-11-15 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
WO2020149697A1 (en) * 2019-01-17 2020-07-23 Lg Electronics Inc. Mobile robot and method of controlling mobile robot
WO2020180107A1 (en) * 2019-03-05 2020-09-10 Lg Electronics Inc. Moving robot and controlling method for the moving robot
US10860029B2 (en) 2016-02-15 2020-12-08 RobArt GmbH Method for controlling an autonomous mobile robot
CN113377106A (zh) * 2021-06-09 2021-09-10 安徽信息工程学院 基于平板电脑的室内图像测绘系统、方法
US11175670B2 (en) 2015-11-17 2021-11-16 RobArt GmbH Robot-assisted processing of a surface using a robot
US11188086B2 (en) 2015-09-04 2021-11-30 RobArtGmbH Identification and localization of a base station of an autonomous mobile robot
US11327488B2 (en) 2016-07-07 2022-05-10 Samsung Electronics Co.. Ltd. Non-uniform light-emitting lidar apparatus and autonomous robot including the same
US11550054B2 (en) 2015-06-18 2023-01-10 RobArtGmbH Optical triangulation sensor for distance measurement
US11709489B2 (en) 2017-03-02 2023-07-25 RobArt GmbH Method for controlling an autonomous, mobile robot
US11768494B2 (en) 2015-11-11 2023-09-26 RobArt GmbH Subdivision of maps for robot navigation
US11789447B2 (en) 2015-12-11 2023-10-17 RobArt GmbH Remote control of an autonomous mobile robot

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7840664B2 (en) * 2003-05-21 2010-11-23 Ixia Automated characterization of network traffic
US7627669B2 (en) * 2003-05-21 2009-12-01 Ixia Automated capturing and characterization of network traffic using feedback
JP2006239844A (ja) * 2005-03-04 2006-09-14 Sony Corp 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置
JP5606927B2 (ja) * 2008-01-28 2014-10-15 シーグリッド コーポレーション サービスロボットによって収集された時空間情報のリパーパシングを行うための方法
US8838268B2 (en) * 2008-01-28 2014-09-16 Seegrid Corporation Service robot and method of operating same
WO2009097334A2 (en) 2008-01-28 2009-08-06 Seegrid Corporation Methods for real-time and near-real time interactions with robots that service a facility
US8755936B2 (en) * 2008-01-28 2014-06-17 Seegrid Corporation Distributed multi-robot system
JP5216690B2 (ja) * 2009-06-01 2013-06-19 株式会社日立製作所 ロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラム
US8219274B2 (en) * 2009-07-02 2012-07-10 Robert Bosch Gmbh 3-dimensional perception system and method for mobile platform
KR101741583B1 (ko) * 2009-11-16 2017-05-30 엘지전자 주식회사 로봇 청소기 및 그의 제어 방법
KR101641237B1 (ko) * 2009-11-20 2016-07-21 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
JP5071945B2 (ja) * 2010-01-15 2012-11-14 Necアクセステクニカ株式会社 移動装置及び方法
JP5560978B2 (ja) * 2010-07-13 2014-07-30 村田機械株式会社 自律移動体
US8174931B2 (en) 2010-10-08 2012-05-08 HJ Laboratories, LLC Apparatus and method for providing indoor location, position, or tracking of a mobile computer using building information
KR101778028B1 (ko) * 2010-12-20 2017-09-13 삼성전자주식회사 로봇 및 로봇의 경로 생성 방법
KR101366860B1 (ko) * 2011-09-20 2014-02-21 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
DE102012108802A1 (de) * 2012-09-19 2014-03-20 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Bodenreinigungsgerät und Verfahren zum Betreiben eines Bodenreinigungsgerätes
EP2741483B1 (de) * 2012-12-05 2022-01-26 Vorwerk & Co. Interholding GmbH Verfahrbares Reinigungsgerät sowie Verfahren zum Betreiben eines solchen
WO2014169943A1 (en) 2013-04-15 2014-10-23 Aktiebolaget Electrolux Robotic vacuum cleaner
CN105101855A (zh) 2013-04-15 2015-11-25 伊莱克斯公司 具有伸出的侧刷的机器人真空吸尘器
KR102095817B1 (ko) * 2013-10-31 2020-04-01 엘지전자 주식회사 이동 로봇, 이동 로봇의 충전대 및 이들을 포함하는 이동 로봇 시스템
WO2015090397A1 (en) 2013-12-19 2015-06-25 Aktiebolaget Electrolux Robotic cleaning device
KR102393550B1 (ko) 2013-12-19 2022-05-04 에이비 엘렉트로룩스 청소 영역의 우선순위를 정하는 방법
KR102099495B1 (ko) 2013-12-19 2020-04-09 에이비 엘렉트로룩스 로봇 청소 장치가 장애물에 올라가는 것의 감지
CN105744872B (zh) 2013-12-19 2020-01-14 伊莱克斯公司 旋转侧刷的自适应速度控制
KR102124235B1 (ko) 2013-12-19 2020-06-24 에이비 엘렉트로룩스 주변 기록 기능을 갖는 로봇 청소 디바이스
EP3082544B1 (en) 2013-12-19 2020-10-07 Aktiebolaget Electrolux Robotic vacuum cleaner with side brush moving in spiral pattern
EP3082537B1 (en) 2013-12-19 2020-11-18 Aktiebolaget Electrolux Robotic cleaning device and method for landmark recognition
EP3082539B1 (en) 2013-12-20 2019-02-20 Aktiebolaget Electrolux Dust container
JP6396475B2 (ja) * 2013-12-23 2018-09-26 エルジー エレクトロニクス インコーポレイティド ロボット掃除機
KR101558508B1 (ko) * 2014-05-02 2015-10-07 엘지전자 주식회사 청소기
EP3167341B1 (en) 2014-07-10 2018-05-09 Aktiebolaget Electrolux Method for detecting a measurement error in a robotic cleaning device
DE102014111217A1 (de) 2014-08-06 2016-02-11 Vorwerk & Co. Interholding Gmbh Bodenreinigungsgerät zur Trocken- und Feuchtreinigung sowie Verfahren zum Betrieb eines selbstfahrenden Bodenreinigungsgerätes
JP6517482B2 (ja) 2014-08-29 2019-05-22 東芝ライフスタイル株式会社 自律走行体および電気掃除機
JP6459098B2 (ja) 2014-09-08 2019-01-30 アクチエボラゲット エレクトロルックス ロボット真空掃除機
WO2016037635A1 (en) 2014-09-08 2016-03-17 Aktiebolaget Electrolux Robotic vacuum cleaner
US10609862B2 (en) 2014-09-23 2020-04-07 Positec Technology (China) Co., Ltd. Self-moving robot
CN104298970B (zh) * 2014-09-26 2017-10-27 博奥生物集团有限公司 一种基于颜色特征的摄像头识别和检测方法
CN104266673B (zh) 2014-09-26 2016-06-08 博奥生物集团有限公司 一种利用摄像头识别反应单元种类的方法
KR101571719B1 (ko) 2014-10-02 2015-11-25 엘지전자 주식회사 로봇 청소기
KR20160048492A (ko) 2014-10-24 2016-05-04 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
EP3230814B1 (en) * 2014-12-10 2021-02-17 Aktiebolaget Electrolux Using laser sensor for floor type detection
WO2016091320A1 (en) 2014-12-12 2016-06-16 Aktiebolaget Electrolux Side brush and robotic cleaner
EP3234714B1 (en) 2014-12-16 2021-05-12 Aktiebolaget Electrolux Experience-based roadmap for a robotic cleaning device
EP3234713B1 (en) 2014-12-16 2022-06-15 Aktiebolaget Electrolux Cleaning method for a robotic cleaning device
CN113147577A (zh) * 2015-04-10 2021-07-23 麦克赛尔株式会社 搭载于车辆的系统
CN107405034B (zh) 2015-04-17 2022-09-13 伊莱克斯公司 机器人清洁设备以及控制所述机器人清洁设备的方法
WO2016168944A1 (en) 2015-04-24 2016-10-27 Avidbots Corp. Apparatus and methods for semi-autonomous cleaning of surfaces
US9746854B2 (en) 2015-04-24 2017-08-29 Autonomous Solutions, Inc. System and method for controlling a vehicle
US9964398B2 (en) * 2015-05-06 2018-05-08 Faro Technologies, Inc. Three-dimensional measuring device removably coupled to robotic arm on motorized mobile platform
CN107920709A (zh) 2015-09-03 2018-04-17 伊莱克斯公司 机器人清洁设备系统
JP6685755B2 (ja) * 2016-02-16 2020-04-22 東芝ライフスタイル株式会社 自律走行体
JP7035300B2 (ja) 2016-03-15 2022-03-15 アクチエボラゲット エレクトロルックス ロボット清掃デバイス、ロボット清掃デバイスにおける、断崖検出を遂行する方法、コンピュータプログラム、およびコンピュータプログラム製品
EP3454707B1 (en) 2016-05-11 2020-07-08 Aktiebolaget Electrolux Robotic cleaning device
US20180330325A1 (en) 2017-05-12 2018-11-15 Zippy Inc. Method for indicating delivery location and software for same
KR20220025250A (ko) * 2017-06-02 2022-03-03 에이비 엘렉트로룩스 로봇 청소 장치 전방의 표면의 레벨차를 검출하는 방법
JP7264584B2 (ja) * 2017-06-08 2023-04-25 東芝ライフスタイル株式会社 自律型電気掃除装置
JP6989210B2 (ja) 2017-09-26 2022-01-05 アクチエボラゲット エレクトロルックス ロボット清掃デバイスの移動の制御
US11507097B2 (en) * 2018-02-05 2022-11-22 Pixart Imaging Inc. Control apparatus for auto clean machine and auto clean machine control method
US10830889B2 (en) 2018-05-02 2020-11-10 Faro Technologies, Inc. System measuring 3D coordinates and method thereof
US11398968B2 (en) 2018-07-17 2022-07-26 Keysight Technologies, Inc. Methods, systems, and computer readable media for testing virtualized network functions and related infrastructure
WO2020102946A1 (zh) * 2018-11-19 2020-05-28 珊口(深圳)智能科技有限公司 构建地图、定位、导航、控制方法及系统、移动机器人
DE102019106227A1 (de) * 2019-03-12 2020-09-17 Vorwerk & Co. Interholding Gmbh Bodenbearbeitungsgerät und System aus einem Bodenbearbeitungsgerät und einem externen Endgerät
US11327483B2 (en) * 2019-09-30 2022-05-10 Irobot Corporation Image capture devices for autonomous mobile robots and related systems and methods
CN111590589A (zh) * 2020-06-04 2020-08-28 小狗电器互联网科技(北京)股份有限公司 机器人及目标物定位系统
US11935292B2 (en) * 2020-06-22 2024-03-19 Carnegie Robotics, Llc Method and a system for analyzing a scene, room or venue
US11323354B1 (en) 2020-10-09 2022-05-03 Keysight Technologies, Inc. Methods, systems, and computer readable media for network testing using switch emulation
CN112162294B (zh) * 2020-10-10 2023-12-15 北京布科思科技有限公司 一种基于激光传感器的机器人结构检测方法
US11483227B2 (en) 2020-10-13 2022-10-25 Keysight Technologies, Inc. Methods, systems and computer readable media for active queue management
US11483228B2 (en) 2021-01-29 2022-10-25 Keysight Technologies, Inc. Methods, systems, and computer readable media for network testing using an emulated data center environment
US11405302B1 (en) 2021-03-11 2022-08-02 Keysight Technologies, Inc. Methods, systems, and computer readable media for network testing using configurable test infrastructure
CN112986912B (zh) * 2021-03-19 2023-06-16 北京小狗吸尘器集团股份有限公司 基于结构光传感器的扫地机重定位方法、装置和电子设备
US11388081B1 (en) 2021-03-30 2022-07-12 Keysight Technologies, Inc. Methods, systems, and computer readable media for impairment testing using an impairment device
US11729087B2 (en) 2021-12-03 2023-08-15 Keysight Technologies, Inc. Methods, systems, and computer readable media for providing adaptive background test traffic in a test environment
US11765068B2 (en) 2021-12-22 2023-09-19 Keysight Technologies, Inc. Methods, systems, and computer readable media for programmable data plane processor based traffic impairment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1163986A (ja) 1997-08-15 1999-03-05 Meidensha Corp 移動・静止物体追跡方式及びこれを実現するソフトウェアを記録した記録媒体並びにこの方法を実現する装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0617775B2 (ja) * 1987-08-11 1994-03-09 工業技術院長 布形状検出方法
US4979815A (en) * 1989-02-17 1990-12-25 Tsikos Constantine J Laser range imaging system based on projective geometry
JPH0489510A (ja) * 1990-08-01 1992-03-23 Matsushita Electric Ind Co Ltd 段差形状検出装置
JPH05341842A (ja) 1992-05-07 1993-12-24 Nec Corp 走行車の障害検知装置
JPH0643935A (ja) 1992-07-24 1994-02-18 Mutoh Ind Ltd 走行ロボットの障害物検出装置
JPH0683442A (ja) * 1992-09-04 1994-03-25 Sanyo Electric Co Ltd 走行ロボット
US6594844B2 (en) * 2000-01-24 2003-07-22 Irobot Corporation Robot obstacle detection system
KR20020038296A (ko) 2000-11-17 2002-05-23 이충전 모빌로봇의 장애물 감지장치 및 감지방법
KR100556612B1 (ko) 2002-06-29 2006-03-06 삼성전자주식회사 레이저를 이용한 위치 측정 장치 및 방법
JP2004174149A (ja) 2002-11-29 2004-06-24 Matsushita Electric Ind Co Ltd 自走式掃除機
JP3841220B2 (ja) * 2004-01-30 2006-11-01 船井電機株式会社 自律走行ロボットクリーナー
JP2005324297A (ja) * 2004-05-17 2005-11-24 Matsushita Electric Ind Co Ltd ロボット
TWM294508U (en) * 2005-12-27 2006-07-21 Supply Internat Co Ltd E Self-moving device with obstacle-detecting function

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1163986A (ja) 1997-08-15 1999-03-05 Meidensha Corp 移動・静止物体追跡方式及びこれを実現するソフトウェアを記録した記録媒体並びにこの方法を実現する装置

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101798045B1 (ko) 2011-05-12 2017-11-15 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
KR20130141979A (ko) * 2012-06-18 2013-12-27 엘지전자 주식회사 이동 로봇
KR101949277B1 (ko) * 2012-06-18 2019-04-25 엘지전자 주식회사 이동 로봇
KR20150048093A (ko) * 2012-08-27 2015-05-06 악티에볼라겟 엘렉트로룩스 로봇 위치 선정 시스템
KR102142162B1 (ko) * 2012-08-27 2020-09-14 에이비 엘렉트로룩스 로봇 위치 선정 시스템
KR20150050160A (ko) * 2013-10-31 2015-05-08 엘지전자 주식회사 이동 로봇
KR102152641B1 (ko) * 2013-10-31 2020-09-08 엘지전자 주식회사 이동 로봇
US11550054B2 (en) 2015-06-18 2023-01-10 RobArtGmbH Optical triangulation sensor for distance measurement
US11188086B2 (en) 2015-09-04 2021-11-30 RobArtGmbH Identification and localization of a base station of an autonomous mobile robot
US11768494B2 (en) 2015-11-11 2023-09-26 RobArt GmbH Subdivision of maps for robot navigation
US11175670B2 (en) 2015-11-17 2021-11-16 RobArt GmbH Robot-assisted processing of a surface using a robot
US11789447B2 (en) 2015-12-11 2023-10-17 RobArt GmbH Remote control of an autonomous mobile robot
US11709497B2 (en) 2016-02-15 2023-07-25 RobArt GmbH Method for controlling an autonomous mobile robot
US10860029B2 (en) 2016-02-15 2020-12-08 RobArt GmbH Method for controlling an autonomous mobile robot
US11327488B2 (en) 2016-07-07 2022-05-10 Samsung Electronics Co.. Ltd. Non-uniform light-emitting lidar apparatus and autonomous robot including the same
US11709489B2 (en) 2017-03-02 2023-07-25 RobArt GmbH Method for controlling an autonomous, mobile robot
AU2020208074B2 (en) * 2019-01-17 2023-02-23 Lg Electronics Inc. Mobile robot and method of controlling mobile robot
KR102234642B1 (ko) * 2019-01-17 2021-04-01 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
KR20200094816A (ko) * 2019-01-17 2020-08-10 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
WO2020149697A1 (en) * 2019-01-17 2020-07-23 Lg Electronics Inc. Mobile robot and method of controlling mobile robot
AU2020231781B2 (en) * 2019-03-05 2023-04-27 Lg Electronics Inc. Moving robot and controlling method for the moving robot
WO2020180107A1 (en) * 2019-03-05 2020-09-10 Lg Electronics Inc. Moving robot and controlling method for the moving robot
CN113377106B (zh) * 2021-06-09 2022-03-15 安徽信息工程学院 基于平板电脑的室内图像测绘系统、方法
CN113377106A (zh) * 2021-06-09 2021-09-10 安徽信息工程学院 基于平板电脑的室内图像测绘系统、方法

Also Published As

Publication number Publication date
JP4646942B2 (ja) 2011-03-09
US20070267570A1 (en) 2007-11-22
JP2007309921A (ja) 2007-11-29
US7507948B2 (en) 2009-03-24

Similar Documents

Publication Publication Date Title
KR100735565B1 (ko) 구조광을 이용한 물체 검출 방법 및 이를 이용한 로봇
JP6772129B2 (ja) 移動ロボットにおける光学式走行距離センサの使用のためのシステム及び方法
US10255501B2 (en) Robot cleaner and method for controlling the same
EP3104194B1 (en) Robot positioning system
EP4014829A1 (en) Sweeping robot and automated control method for sweeping robot
US9408515B2 (en) Autonomous coverage robot
KR102203439B1 (ko) 이동 로봇 및 이동 로봇의 제어방법
CN110801180B (zh) 清洁机器人的运行方法及装置
WO2019007038A1 (zh) 扫地机器人、扫地机器人系统及其工作方法
KR20100098997A (ko) 로봇 청소기 및 그의 위치 검출 방법
CN112204345A (zh) 移动设备的室内定位方法、移动设备及控制系统
KR100784125B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법
US11010916B2 (en) Method of configuring camera position suitable for localization and robot implementing same
JP7365567B2 (ja) 計測システム、計測装置、計測方法及び計測プログラム
JP7325058B2 (ja) 自走式掃除機
EP2325713B1 (en) Methods and systems for movement of robotic device using video signal
RU2800503C1 (ru) Робот-уборщик и способ автоматического управления роботом-уборщиком
US20230022860A1 (en) Mobile robot
Sujan et al. MOBILE ROBOT LOCALIZATION AND MAPPING USING SPACE INVARIANT TRANSFORMS

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130522

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140522

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150522

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160518

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170522

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20180518

Year of fee payment: 12