KR101400400B1 - Robot cleaner and control method of the same - Google Patents
Robot cleaner and control method of the same Download PDFInfo
- Publication number
- KR101400400B1 KR101400400B1 KR1020120109332A KR20120109332A KR101400400B1 KR 101400400 B1 KR101400400 B1 KR 101400400B1 KR 1020120109332 A KR1020120109332 A KR 1020120109332A KR 20120109332 A KR20120109332 A KR 20120109332A KR 101400400 B1 KR101400400 B1 KR 101400400B1
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- image
- point
- corner
- distance
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 38
- 238000004140 cleaning Methods 0.000 claims abstract description 16
- 238000001514 detection method Methods 0.000 claims description 28
- 238000013507 mapping Methods 0.000 claims description 3
- 230000033001 locomotion Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 3
- 239000000126 substance Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2805—Parameters or conditions being sensed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Image Analysis (AREA)
Abstract
본 발명의 로봇 청소기는 서로 일정한 간격으로 이격 배치되어 전방을 주시하는 제 1 카메라 및 제 2 카메라; 및 상기 제 1 카메라와 제 2 카메라에 의해 각각 촬영된 제 1 영상과 제 2 영상 간의 비교를 통해 청소구역 내의 소정의 피사점에 대응하는 공통의 특징점을 각각 검출하고, 상기 제 1 영상에서의 특징점과 상기 제 2 영상에서의 특징점의 위치차에 근거하여 상기 피사점까지의 거리를 산출하는 제어부를 포함한다.The robot cleaner of the present invention comprises: a first camera and a second camera which are spaced apart from each other at a predetermined distance to look ahead; And a common feature point corresponding to a predetermined pic- ture point in the cleaning zone through comparison between a first image and a second image respectively photographed by the first camera and the second camera, And a control unit for calculating a distance to the subject point based on a positional difference between the feature points in the second image.
Description
본 발명은 로봇 청소기 및 로봇 청소기의 제어방법에 관한 것이다.The present invention relates to a robot cleaner and a control method of the robot cleaner.
로봇 청소기는 사용자의 조작 없이도 청소하고자 하는 구역 내를 스스로 주행하면서 바닥면으로부터 먼지 등의 이물질을 흡입하여 자동으로 청소하는 기기이다.The robot cleaner is a device for automatically cleaning foreign objects such as dust from the floor surface while traveling in a self-cleaning area without user's operation.
통상 이러한 로봇 청소기는 청소구역 내에 설치된 가구나 사무용품, 벽 등의 장애물까지의 거리를 감지하고, 그에 따라 청소 구역을 매핑(mapping)하거나, 좌륜과 우륜의 구동을 제어하여 장애물 회피 동작을 수행한다. 종래에는 천장 또는 바닥을 주시하는 센서를 통해 로봇 청소기가 이동한 거리를 계측하고, 이를 기반으로 장애물까지의 거리를 산출하는 방식이었으나, 이러한 방식은 로봇 청소기의 이동 거리를 기반으로 장애물까지의 거리를 추정하는 간접적인 방식이기 때문에, 바닥의 굴곡등으로 로봇 청소기의 이동 거리가 정확하게 계측되지 못하는 경우, 장애물까지의 거리 역시 오차를 가질 수밖에 없었다.Generally, such a robot cleaner senses distances to obstacles such as furniture, office supplies, and walls installed in the cleaning area, maps the cleaning area accordingly, or controls the driving of the left and right wheels to perform an obstacle avoidance operation. Conventionally, the distance that the robot cleaner moves through the sensor that observes the ceiling or the floor is measured, and the distance to the obstacle is calculated based on the distance. However, this method calculates the distance to the obstacle based on the moving distance of the robot cleaner The distance to the obstacle is also inevitably inevitable if the moving distance of the robot cleaner can not be accurately measured due to the bending of the floor or the like.
본 발명이 해결하려고 하는 과제는 카메라에 의해 촬영된 영상을 통해 청소구역 내의 피사점 또는 장애물까지의 거리를 정확하게 측정할 수 있는 로봇 청소기 및 로봇 청소기의 제어방법을 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a robot cleaner and a method of controlling the robot cleaner that can accurately measure distances to an obstacle or a picocentric point in a cleaning area through an image captured by a camera.
본 발명이 해결하려고 하는 또 다른 과제는 현 위치에서 실시간으로 장애물까지의 거리를 측정할 수 있는 로봇 청소기 및 로봇 청소기의 제어방법을 제공하는 것이다.Another object of the present invention is to provide a robot cleaner and a robot cleaner control method capable of measuring the distance from the current position to an obstacle in real time.
또한, 본 발명이 해결하려고 하는 또 다른 과제는 청소 구역 내의 장애물의 위치를 3차원적으로 매핑할 수 있는 로봇 청소기 및 로봇 청소기의 제어방법을 제공하는 것이다.Another object of the present invention is to provide a robot cleaner and a robot cleaner control method capable of three-dimensionally mapping positions of obstacles in a cleaning area.
본 발명의 로봇 청소기는 서로 일정한 간격으로 이격 배치되어 전방을 주시하는 제 1 카메라 및 제 2 카메라; 및 상기 제 1 카메라와 제 2 카메라에 의해 각각 촬영된 제 1 영상과 제 2 영상 간의 비교를 통해 청소구역 내의 소정의 피사점에 대응하는 공통의 특징점을 각각 검출하고, 상기 제 1 영상에서의 특징점과 상기 제 2 영상에서의 특징점의 위치차에 근거하여 상기 피사점까지의 거리를 산출하는 제어부를 포함한다.The robot cleaner of the present invention comprises: a first camera and a second camera which are spaced apart from each other at a predetermined distance to look ahead; And a common feature point corresponding to a predetermined pic- ture point in the cleaning zone through comparison between a first image and a second image respectively photographed by the first camera and the second camera, And a control unit for calculating a distance to the subject point based on a positional difference between the feature points in the second image.
본 발명의 로봇 청소기의 제어방법은 서로 일정한 간격으로 이격 배치되어 전방을 주시하는 제 1 카메라 및 제 2 카메라를 포함하는 로봇 청소기의 제어방법에 있어서, 상기 제 1 카메라와 제 2 카메라에 의해 각각 촬영된 제 1 영상과 제 2 영상이 획득되는 영상획득단계; 상기 제 1 영상과 제 2 영상의 비교를 통해 피사 영역 내의 소정의 피사점에 대응하는 공통의 특징점들을 각각 검출하는 특징점 검출단계; 및 상기 제 1 영상에서의 특징점과 상기 제 2 영상에서의 특징점의 위치차에 근거하여 상기 피사점까지의 거리를 산출하는 거리산출단계를 포함한다.The control method of the robot cleaner according to the present invention is a control method of a robot cleaner including a first camera and a second camera which are spaced apart from each other by a predetermined distance to look ahead, An image acquiring step of acquiring a first image and a second image; A feature point detection step of detecting common feature points corresponding to a predetermined pic- ture point in a subject area through comparison between the first image and the second image; And a distance calculating step of calculating a distance to the subject point based on a positional difference between the characteristic point in the first image and the characteristic point in the second image.
본 발명의 로봇 청소기 및 로봇 청소기의 제어방법은 청소구역 내의 피사점 또는 장애물까지의 거리를 보다 정확하게 계측할 수 있는 효과가 있다.The robot cleaner and the control method of the robot cleaner of the present invention have the effect of more accurately measuring the distance to the object or the obstacle in the cleaning area.
또한, 본 발명의 로봇 청소기 및 로봇 청소기의 제어방법은 실시간으로 장애물까지의 거리를 측정할 수 있는 효과가 있다.In addition, the robot cleaner and the robot cleaner control method of the present invention have the effect of measuring the distance to the obstacle in real time.
또한, 본 발명의 로봇 청소기 및 로봇 청소기의 제어방법은 로봇 청소기가 이동하기 전에 미리 청소구역 내의 장애물 상황을 파악할 수 있는 효과가 있다.In addition, the robot cleaner and the robot cleaner control method of the present invention are capable of grasping the state of an obstacle in the cleaning area before the robot cleaner moves.
도 1은 본 발명의 일 실시예에 따른 로봇 청소기를 도시한 사시도이다.
도 2는 로봇 청소기의 정면도이다.
도 3은 로봇 청소기의 저면을 도시한 것이다.
도 4는 로봇 청소기의 주요부의 구성을 도시한 것이다.
도 5는 로봇 청소기 각부의 제어관계를 도시한 것이다.
도 6은 본 발명의 일 실시예에 따른 로봇 청소기에서 피사점까지의 거리를 산출하는 과정을 도시한 순서도이다.
도 7은 도 6의 특징점 검출단계를 세분한 순서도이다.
도 8은 FAST 코너 검출 알고리즘읕 이용하여 코너를 검출하는 과정을 도시한 것이다.
도 9는 코너가 검출된 제 1 영상(a)과 제 2 영상(b)과, 양 영상에 특징점 검출단계를 수행한 결과(a'),(b')를 도시한 것이다.
도 10는 제 1 카메라와 제 2 카메라에 의해 촬영된 영상들 간의 시차를 통해 특징점까지의 거리를 산출하는 방법을 설명하기 위한 다이어그램이다.
도 11은 피사점간의 거리 산출 결과가 매핑되는 것을 보여주는 도면이다.
도 12는 제 1 카메라와 제 2 카메라 사이의 거리(T, 도 10참조)에 따라 피사점까지의 계측거리와 오차와의 상관관계를 도시한 것이다.1 is a perspective view illustrating a robot cleaner according to an embodiment of the present invention.
2 is a front view of the robot cleaner.
3 is a bottom view of the robot cleaner.
Fig. 4 shows the configuration of the main part of the robot cleaner.
Fig. 5 shows the control relationship of each part of the robot cleaner.
FIG. 6 is a flowchart illustrating a process of calculating a distance from a robot cleaner to a target point according to an embodiment of the present invention.
FIG. 7 is a flowchart illustrating the minutia detection step of FIG. 6; FIG.
FIG. 8 shows a process of detecting a corner using the FAST corner detection algorithm.
FIG. 9 shows a first image (a) and a second image (b) in which corners are detected and a result (a ') and (b') in which a feature point detection step is performed on both images.
10 is a diagram for explaining a method of calculating a distance to a feature point through a parallax between images taken by the first camera and the second camera.
11 is a diagram showing that a result of distance calculation between subject points is mapped.
12 shows the correlation between the measurement distance to the subject point and the error according to the distance (T, see Fig. 10) between the first camera and the second camera.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
도 1은 본 발명의 일 실시예에 따른 로봇 청소기를 도시한 사시도이다. 도 2는 로봇 청소기의 정면도이다. 도 3은 로봇 청소기의 저면을 도시한 것이다.1 is a perspective view illustrating a robot cleaner according to an embodiment of the present invention. 2 is a front view of the robot cleaner. 3 is a bottom view of the robot cleaner.
도 1 내지 도 3을 참조하면, 본 발명의 일 실시예에 따른 로봇 청소기는 본체(11)와, 본체(11)의 전방을 주시하는 한 쌍의 카메라(20, 30)를 포함한다. 제 1 카메라(20)와 제 2 카메라(30)는 서로 일정한 거리를 유지하며 배치되고, 본체(11)에 의해 지지될 수 있다.1 to 3, a robot cleaner according to an embodiment of the present invention includes a
본체(11)는 좌륜(61a)과 우륜(62b)이 회전함에 따라 청소하고자 하는 구역(이하, 청소 구역이라고 함.)을 이동하며, 흡입유닛(70)을 통해 청소 구역 내의 먼지나 쓰레기 등의 이물질을 흡입한다. The
본체(11)는 좌륜(61a) 및/또는 우륜(62a)의 회전에 따라 이동되며, 본체(11)의 안정적인 지지를 위한 보조바퀴(13)가 더 구비될 수 있다. 좌륜(61a)과 우륜(62a)은 각각 좌륜 구동부(61, 도 5 참조) 및 우륜 구동부(62, 도 5 참조)에 의해 회전된다. 제어부(50) 제어에 의해 좌륜 구동부(61)와 우륜 구동부(62)의 작동이 독립적으로 제어됨으로써 본체(11)의 직진, 후진 또는 선회가 이루어 진다. 예를들어, 좌륜 구동부(61)에 의해 좌륜이 정방향으로 회전되고, 우륜 구동부(62)에 의해 우륜(62a)은 역방향으로 회전되는 경우 본체(11)가 좌측 또는 우측으로 회전된다. 제어부(50)는 좌륜 구동부(61)와 우륜 구동부(62)의 회전 속도가 차이가 있도록 제어함으로써, 직진운동과 회전운동을 겸하는 본체(11)의 병진운동을 유도하는 것도 가능하다. 이와 같은 제어부(50) 제어를 통한 본체(11)의 운동은 장애물에 대한 회피 또는 선회를 가능하게 한다.The
흡입유닛(70)은 본체(11)에 착탈 가능하게 구비되고, 제어부(50) 제어를 통해 회전되어 흡입력을 발생시키는 흡입 팬(71)과, 흡입 팬(71)의 회전에 의해 생성된 기류가 흡입되는 흡입구(72)를 포함할 수 있다. 또한, 흡입유닛(70)은 흡입구(72)를 통해 흡입된 기류 중에서 이물질을 채집하는 필터(미도시)와, 상기 필터에 의해 채집된 이물질들이 축적되는 이물질 수용기(미도시)를 더 포함할 수 있다. 흡입유닛(70)을 본체(11)로부터 분리하여 상기 필터를 교체하거나, 이물질 수용기에 모인 이물질을 버릴 수 있다.The
도 4는 로봇 청소기의 주요부의 구성을 도시한 것이다. 도 5는 로봇 청소기 각부의 제어관계를 도시한 것이다.Fig. 4 shows the configuration of the main part of the robot cleaner. Fig. 5 shows the control relationship of each part of the robot cleaner.
제 1 카메라(20)와 제 2 카메라(30)는 로봇 청소기 전방의 영상을 촬영하는 것으로 디지털 영상센서(image sensor, 21, 31)를 포함한다. 영상센서(21, 31)는 렌즈(미도시)를 통과한 빛에 반응하는 다수개의 촬상소자가 격자형태로 배열된 것으로, 각각의 촬상소자들이 빛에 반응하며 밝기, 색상 좌표 등의 정보를 담는 디지털 신호를 생성하고, 이미지 프로세싱 과정을 통해 디지털 영상으로 재구성된다. 영상센서(21, 31)는 CCD(Charge-Coupled Device) 영상센서 또는 CMOS(Complementary Metal-Oxide-Semiconductor) 영상센서 등을 예로 들 수 있다.The
본체(11) 내에는 로봇 청소기 제어를 위한 각종 전기 또는 전자 소자가 실장되는 PCB(Printed Circuit Board) 등의 임베디드 보드(Embedded Board, 42)가 구비되고, 제 1 카메라(20) 및 제 2 카메라(30) 중 적어도 하나는 USB 허브(Universal Serial Bus Hub, 41)를 통해 임베디드 보드(42)와 신호를 주고 받는다. 제 1 카메라(20) 및/또는 제 2 카메라(30)의 영상센서(21, 31)에 촬상된 영상은 USB 허브(41)를 통해 디지털 데이터 신호로 전송된다.An embedded
제어부(50)는 디지털 데이터를 처리할 수 있는 프로세서(processor)를 포함할 수 있고, 예를 들어 임베디드 보드(42)에 실장된 CPU, 또는 전자 소자들의 집적체로 구현될 수 있다.The
제어부(50)는 로봇 청소기의 작동 전반을 제어함과 아울러 USB 허브(41)를 통해 전송된 디지털 데이터를 처리하여, 제 1 카메라(20)에 의해 촬영된 영상과 제 2 카메라(30)에 의해 촬영된 영상 간의 시차를 바탕으로 양 영상에서의 공통된 특징점들의 거리를 산출한다.The
도 6은 본 발명의 일 실시예에 따른 로봇 청소기에서 피사점까지의 거리를 산출하는 과정을 도시한 순서도이다. 도 7은 도 6의 특징점 검출단계를 세분한 순서도이다. 도 8은 FAST 코너 검출 알고리즘읕 이용하여 코너를 검출하는 과정을 도시한 것이다. 도 9는 코너가 검출된 제 1 영상(a)과 제 2 영상(b)과, 양 영상에 특징점 검출단계를 수행한 결과(a'), (b')를 도시한 것이다.FIG. 6 is a flowchart illustrating a process of calculating a distance from a robot cleaner to a target point according to an embodiment of the present invention. FIG. 7 is a flowchart illustrating the minutia detection step of FIG. 6; FIG. FIG. 8 shows a process of detecting a corner using the FAST corner detection algorithm. FIG. 9 shows a first image (a) and a second image (b) in which corners are detected and a result (a ') and (b') in which a feature point detection step is performed on both images.
도 6을 참조하면, 본 발명의 일 실시예에 따른 로봇 청소기의 제어방법은 제 1 카메라(20)와 제 2 카메라(30)에 의해 각각 촬영된 제 1 영상과 제 2 영상이 획득되는 영상획득단계(S10)와, 상기 제 1 영상과 제 2 영상의 비교를 통해 피사 영역 내의 소정의 피사점에 대응하는 공통의 특징점들을 각각 검출하는 특징점 검출단계(S20) 및 상기 제 1 영상에서의 특징점과 상기 제 2 영상에서의 특징점의 위치차에 근거하여 상기 피사점까지의 거리를 산출하는 거리산출단계(S30)를 포함한다.Referring to FIG. 6, a method of controlling a robot cleaner according to an exemplary embodiment of the present invention includes: acquiring a first image and a second image respectively captured by a
이하, 제 1 카메라(20)에 의해 촬영된 영상을 제 1 영상, 제 2 카메라(30)에 의해 촬영된 영상을 제 2 영상이라고 구분한다.Hereinafter, an image photographed by the
영상획득단계(S10)는 제 1 카메라(20)와 제 2 카메라(30) 의해 로봇 청소기 전방의 영상이 촬영된다. 바람직하게는, 제 1 카메라(20)와 제 2 카메라(30)에 의해 동시에 촬영이 실시되는 것이 바람직하다.In the image acquiring step (S10), images of the front of the robot cleaner are taken by the first camera (20) and the second camera (30). Preferably, it is preferable that the
다만 실시예에 따라, 로봇 청소기의 이동이 정지된 상태에서 촬영을 하는 경우에는 양 카메라(20, 30)의 촬영시점에 차이가 존재할 수도 있다. 이 경우, 카메라(20, 30)에 의해 촬영되는 청소 구역은 주로 정적인 상태이기 때문에 양 카메라(20, 30)의 촬영 시점에 다소간의 차이가 있더라도, 양 카메라(20, 30)가 동시에 촬영을 실시하는 경우와 실질적으로 동일한 영상을 얻는다.However, according to the embodiment, when the robot cleaner is stopped while the movement of the robot cleaner is stopped, there may be a difference in the time of shooting of both the
제 1 카메라(20)의 화각과 제 2 카메라(30)의 화각은 적어도 일부분이 서로 중첩된다. 따라서, 제 1 영상과 제 2 영상에는 제 1 카메라(20)와 제 2 카메라(30)의 피사 영역 내의 소정의 피사점(실제 청소 구역 내의 어느 한 점)과 대응하는 특징점이 공통으로 존재할 수 있고(이하, 공통 특징점이라고 함.), 제 1 영상에서의 공통 특징점과, 제 2 영상에서의 공통 특징점의 위치차를 통해 시차를 구할 수 있다. 제 1 카메라(20)와 제 2 카메라(30)의 각 렌즈들은 사각이 60 내지 80 도인 광각렌즈인 것이 바람직하다.At least a part of the angle of view of the first camera (20) and the angle of view of the second camera (30) overlap each other. Accordingly, the first image and the second image may have a common feature point corresponding to a predetermined pic- ture point (any one point in the actual cleaning area) in the subject area of the
공통 특징점은 제 1 영상과 제 2 영상의 전 영역에서의 비교를 통해서 특정될 수도 있으나, 먼저 제 1 영상과 제 2 영상 각각으로부터 소정의 후보영역을 선택하고(S21), 제 1 영상의 후보영역과 제 2 영상의 후보영역에서 각각 코너들을 검출하고(S22), 검출된 코너들 중에서 동일한 코너를 특징점으로 정의함으로써(S23), 특징점들의 검색과 대차 비교에 소요되는 시간이 절감될 수 있다.The common feature point may be specified through comparison in all the regions of the first image and the second image, but first, a predetermined candidate region is selected from the first image and the second image (S21) (S22), and the same corner among the detected corners is defined as a minutiae (S23). Thus, the time required for searching for the minutiae and comparing the minutiae can be reduced.
카메라를 통해 촬영된 영상으로부터 코너를 검출하는 방법으로는 해리스 코너 검출 알고리즘(Harris corner detection algorithm), 수잔 코너 검출 알고리즘(Susan corner cetection algorithm), FAST(Features from Accelerated Segment Test) 코너 검출 알고리즘 등을 예로 들 수 있다.Examples of methods for detecting a corner from an image captured through a camera include a Harris corner detection algorithm, a Susan corner detection algorithm, and a FAST (Features from Accelerated Segment Test) corner detection algorithm .
FAST 코너 검출 알고리즘은 Edward Rosten에 의해 제안된 고속의 코너 검출 알고리즘으로, Harris 또는 Susan 코너 검출 알고리즘에 비해 수배에서 수십배 빠르게 검출을 수행한다.The FAST corner detection algorithm is a fast corner detection algorithm proposed by Edward Rosten, which performs detection several times to several times faster than the Harris or Susan corner detection algorithm.
후보영역 선택단계(S21)는 제 1 영상과 제 2 영상에서 코너 검출의 가능성이 높은 후보점들을 선정하고, 이러한 후보점이 속하는 후보영역을 정의하는 단계이다. 예를들어, FAST 코너 검출 알고리즘을 이용하는 경우, 각 영상에서의 소정의 점(P)과 주위의 픽셀들(이는 후술하는 FAST 코너 검출 과정에서 비교되는 16개의 픽셀 전부일 필요는 없고, 그 중에서 몇 개만이 선택될 수 있다.)과의 밝기차를 구하여, 그 차이가 임계치 이상인 경우, 그 점(P)을 후보점으로 정의하고, 후보점(P)이 속하는 일정한 크기의 영역을 후보영역으로 선정한다. 실시예에 따라, 제 1 영상과 제 2 영상 각각을 가로로 M등분 세로로 N 등분하여 MⅹN 개의 영역 중에서 상기 후보점이 존재하는 영역들을 후보영역으로 선택할 수 있다.The candidate region selection step S21 is a step of selecting candidates having a high possibility of corner detection in the first and second images and defining candidate regions to which the candidate points belong. For example, when using the FAST corner detection algorithm, a predetermined point P in each image and surrounding pixels (which need not be all 16 pixels compared in the FAST corner detection process described later, , And when the difference is equal to or more than the threshold value, the point P is defined as a candidate point, and a region having a predetermined size to which the candidate point P belongs is selected as a candidate region . According to the embodiment, the first image and the second image may be divided into N equally vertically by M equally horizontally, and the regions having the candidate points among the M x N regions may be selected as candidate regions.
코너 검출단계(S22)는 후보영역 선택단계(S21)에서 선정된 후보영역 내에서 픽셀(pixel)들의 밝기를 상호 비교하여 코너(Corner)를 검출하는 단계이다. 여기서, 코너란 주변의 픽셀들과 비교할 시 임계적 특징을 보이는 픽셀로, 이하, 주변의 픽셀과 임계치(전술한 후보영역 선택단계에서의 임계치와 반드시 같은 값일 필요는 없다.) 이상의 밝기차를 보이는 픽셀로 정의한다.The corner detecting step S22 is a step of detecting the corners by comparing the brightness of the pixels within the candidate region selected in the candidate region selecting step S21. Here, a corner is a pixel showing a threshold characteristic when compared with neighboring pixels, and is hereinafter referred to as a neighboring pixel and a threshold value (a threshold value in the candidate region selection step does not necessarily have to be the same value) Pixel.
도 8을 참조하면, FAST 코너 검출 알고리즘은 후보영역(a) 상에서 임의의 코너 후보점(P)을 선택하고, 후보점(P)과 그 주위의 16픽셀간의 밝기차를 임계값과 비교하여 코너인지 여부를 판정한다. 즉, 후보점(P) 주위의 16픽셀 중에서 다음 식을 만족하는 픽셀의 수가 일정수(예를들어, 7) 이상인 경우에 후보점(P)이 코너로 판정된다. 8, the FAST corner detection algorithm selects an arbitrary corner candidate point P on the candidate region a, compares the brightness difference between the candidate point P and the surrounding 16 pixels with a threshold value, Is determined. That is, when the number of pixels satisfying the following expression among 16 pixels around the candidate point P is equal to or larger than a predetermined number (for example, 7), the candidate point P is determined as a corner.
또는 or
Ip : 후보점에서의 밝기, In: 후보점(P) 주변의 n번째 픽셀의 밝기, K: 임계값I p : brightness at the candidate point, In: brightness of the n-th pixel around the candidate point (P), K:
여기서, 각 픽셀에서의 밝기(IP, In)는 영상센서(21, 31)상의 각 촬상소자의 감지결과에 따라 디지털화된 수치로써 제어부(50)에 인가된다.Here, the brightness (I P , I n is applied to the
특징점 검출단계(S20)는 제 1 영상과 제 2 영상 각각에서 코너들이 검출된 후보영역들을 상호 비교하여 공통된 특징, 즉 동일한 코너(이하, 특징점이라고 함.)를 검출하는 단계이다.The feature point detection step S20 is a step of detecting common features, that is, the same corner (hereinafter, referred to as a minutiae point) by comparing candidate areas in which corners are detected in the first and second images, respectively.
코너들은 제 1 영상과 제 2 영상에서 각각 검출되기 때문에, 각 영상에서의 코너들이 서로 완전하게 일치되지 않을 수 있다. 따라서, 특징점 검출단계(S20)에서는 각 영상에서의 코너들을 비교하여 동일한 코너를 검출한다.Since the corners are detected respectively in the first and second images, the corners in each image may not completely coincide with each other. Therefore, in the minutia detection step S20, the corners in each image are compared to detect the same corner.
이와 같은 과정은 코너 검출단계(S22)에서 검출된 각 코너를 그 주위의 픽셀들(예를들어, 9개)과 밝기를 비교하여, 그 차이가 임계값(K')이상인 경우에 해당 코너들을 특징점으로 정의한다. 코너와 그 주위 픽셀 사이의 밝기 변화를 수평방향(X), 수직방향(Y)으로 정의하고 그 변화값(예를들어, 택시캡 디스턴스, taxicab distance)이 임계값(K') 이상인 경우에 특징점으로 정의될 수 있다(S23, 특징점 선정단계).In this process, the brightness of each corner detected in the corner detection step S22 is compared with the surrounding pixels (for example, 9), and when the difference is equal to or greater than the threshold value K ' It is defined as minutiae. A brightness change between a corner and a surrounding pixel is defined as a horizontal direction X and a vertical direction Y and when the change value (for example, taxicab distance) is equal to or greater than the threshold value K ' (S23, minutiae point selection step).
도 9에는 제 1 영상(a)과 제 2 영상(b)에서 FAST 코너 검출 알고리즘에 의해 검출된 코너 또는 특징점 후보들이 표시되어 있는데, 여기서 후보영역(D) 내에서 어떤 코너는 제 1 영상(a)에는 존재하지 않고 제 2 영상(b)에만 존재한다. 이러한 코너들은 제 1 영상(a)과 제 2 영상(b)의 공통된 특징점을 정의함에 있어서는 배제되어야 한다.In FIG. 9, corners or feature point candidates detected by the FAST corner detection algorithm are displayed in the first image (a) and the second image (b), wherein a certain corner in the candidate region (D) ) And exist only in the second image (b). These corners should be excluded in defining the common feature points of the first image (a) and the second image (b).
도 9의 (a')와 (b')는 각각 특징점 검출단계(S20)를 수행한 후의 제 1 영상(a')과 제 2 영상(b')으로, 양 영상에서 불일치되었던 코너가 제 2 영상(b')에서 배제되는 것은 물론이고, 제 1 영상(a) 및/또는 제 2 영상(b)에서 주변 픽셀들에 비해 임계적 특징이 약한 코너들도 소거되었음을 알 수 있다.9 (a ') and 9 (b') show the first image (a ') and the second image (b') after the feature point detection step (S20) It can be seen that the corners having weaker threshold characteristics than the surrounding pixels are also erased in the first image a and / or the second image b, as well as being excluded from the image b '.
거리산출단계(S30)는 특징점 검출단계(S20)에서 선정된 적어도 하나의 특징점에 대한 시차를 바탕으로 피사점에 대한 거리를 산출하는 단계이다. 여기서, 특징점에 대한 시차라고 함은, 특징점과 대응하는 피사점(실제 청구구역 내의 점)에 대한 제 1 카메라(20)와 제 2 카메라(30) 간의 시차를 의미하는 것으로 각 카메라들(20, 30) 사이의 주축거리(렌즈의 중심과 중심 사이의 거리)에 따라 달라진다.The distance calculating step S30 is a step of calculating a distance to a pic- ture point based on a parallax for at least one feature point selected in the feature point detecting step S20. Here, the parallax with respect to the minutiae indicates the parallax between the
도 10을 참조하면, 피사점까지의 거리(Z)는 삼각 측정법에 기반을 둔 다음과 같은 식들에 의해 구해질 수 있다.Referring to Fig. 10, the distance Z to the pic- ture point can be obtained by the following equations based on the triangulation method.
T : 주축거리(제 1 카메라의 주축(Ol)과 제 2 카메라의 주축(Or) 사이의 거리), 제 1 카메라(20)는 본체(11)의 좌측에 배치되고, 제 2 카메라(20)는 우측에 배치되고, 양 카메라의 주축들은 서로 평행함.T: (the distance between the main axis of the first camera (O l), and the major axis of the second camera (O r)), the
cleft, x : 제 1 카메라의 초점c left , x: focus of the first camera
cright, x : 제 2 카메라의 초점c right , x: focus of the second camera
f : 초점거리f: focal length
xl : 제 1 카메라에서 초점을 기준으로 한 고정 좌표상에서 특징점 좌표값의 x-성분x l : The x-component of the feature point coordinate value on the fixed coordinate based on the focus in the first camera
xr : 제 2 카메라에서 초점을 기준으 로한 고정 좌표상에서 특징점 좌표값의 x-성분
x r : The x-component of the feature point coordinate value on the fixed coordinate based on the focus in the second camera
한편, 도 11을 참조하면, 제어부(50)는 상술한 과정을 통해서 구해진 피사점들까지의 거리값들을 바탕으로 피사점(P1, P2, P3)들의 위치를 3차원적으로 매핑(mapping)할 수 있다. 이렇게 매핑된 결과는 청소 구역 내의 장애물들의 위치 정보를 데이터 베이스화 하는데 활용할 수 있으며, 예를들어 제어부(50)는 매핑결과를 기반으로 좌륜 구동부(61)와 우륜 구동부(62)를 제어하여 로봇 청소기의 이동 또는 장애물 회피 구동을 제어할 수 있다.Referring to FIG. 11, the
도 12는 제 1 카메라와 제 2 카메라 사이의 거리(T, 도 10참조)에 따라 피사점까지의 계측거리와 오차와의 상관관계를 도시한 것이다.12 shows the correlation between the measurement distance to the subject point and the error according to the distance (T, see Fig. 10) between the first camera and the second camera.
제 1 카메라(20)와 제 2 카메라 사이의 거리가 7cm인 경우와 8cm인 경우를 비교하면, 양자 모두 계측거리가 증가할수록(즉, 멀리 있는 피사점에 대한 계측결과일수록) 실제 거리와의 오차가 커지는 경향을 보이며, 특히 계측거리가 어느 정도 이상인 경우 실제거리와 상당한 오차를 생긴다는 것을 알 수 있다.When the distance between the
로봇 청소기 동작의 정확성을 확보할 수 있도록 오차의 상한을 대략 5 내지 10mm 로 가정할 때, 주축거리가 8cm인 경우 2 미터 이내의 근거리에서도 5mm이상의 오차가 발생하여 오차의 상한에 근접하는 것을 알 수 있다. 따라서, 제 1 카메라(20) 제 2 카메라(30) 사이의 간격은 7 내지 8cm인 것이 바람직하다.
Assuming that the upper limit of the error is about 5 to 10 mm in order to ensure the accuracy of the operation of the robot cleaner, when the main axis distance is 8 cm, it is found that an error of 5 mm or more occurs near 2 meters or less and approaches the upper limit of the error have. Therefore, the distance between the
한편, 본 발명의 로봇 청소기 제어방법은 로봇 청소기에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 이러한 기록매체는 프로세서에 의해 읽혀질 수 있는 형식의 데이터가 저장되는 것이면 족하다. 예를들어, ROM, RAM, CD-ROM, 자기 테이프, 플로피디크스, 광 데이터 저장장치 등이 있으며, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 가능하다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 코드가 저장되고 실행될 수도 있다.Meanwhile, the robot cleaner control method of the present invention can be implemented as a processor-readable code on a processor-readable recording medium provided in the robot cleaner. Such a recording medium may be such that data of a format that can be read by the processor is stored. For example, it may be a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, or the like, and may be implemented as a carrier wave such as transmission over the Internet. In addition, the computer readable recording medium may be distributed over a networked computer system so that the code may be stored and executed.
Claims (16)
상기 제 1 카메라와 제 2 카메라에 의해 각각 촬영된 제 1 영상과 제 2 영상 간의 비교를 통해 청소구역 내의 소정의 피사점에 대응하는 공통의 특징점을 각각 검출하고, 상기 제 1 영상에서의 특징점과 상기 제 2 영상에서의 특징점의 위치차에 근거하여 상기 피사점까지의 거리를 산출하는 제어부를 포함하고,
상기 제어부는,
상기 제 1 영상과 제 2 영상 각각에서, 주위의 픽셀들에 대한 밝기차가 제 1 임계치 이상인 적어도 하나의 후보점을 정의하고, 상기 후보점이 속하는 일정한 크기의 후보영역을 선정하고, 상기 후보영역 내에서 상기 후보점 주위의 n개의 픽셀들 중 상기 후보점과의 밝기차가 제 2 임계치 이상인 픽셀들의 수가 일정수 이상인 경우에 그 후보점을 코너로 검출하고, 상기 코너와 그 주위의 픽셀들 간의 밝기 변화가 임계값 이상인 경우 해당 코너를 상기 특징점으로 검출하는 로봇 청소기.A first camera and a second camera spaced apart from each other at regular intervals to look ahead; And
A common feature point corresponding to a predetermined pic- ture point in the cleaning area is detected through comparison between the first image and the second image respectively photographed by the first camera and the second camera, And a control unit for calculating a distance to the subject point based on a positional difference of the feature points in the second image,
Wherein,
Wherein at least one candidate point whose brightness difference with respect to surrounding pixels is equal to or greater than a first threshold value is defined in each of the first image and the second image, a candidate region having a predetermined size to which the candidate point belongs is selected, When a number of pixels having a brightness difference between the candidate point and the candidate point is equal to or greater than a second threshold value, the candidate point is detected as a corner, and a brightness change between the corner and surrounding pixels And detects the corresponding corner as the minutiae when the threshold value is greater than the threshold value.
상기 코너는 FAST 코너 검출 알고리즘에 의해 선정되는 것을 특징으로 하는 로봇 청소기.The method according to claim 1,
Wherein the corner is selected by a FAST corner detection algorithm.
상기 제 1 카메라와 제 2 카메라 사이의 거리는 일정한 값을 갖는 것을 특징으로 하는 로봇 청소기.The method according to claim 1,
Wherein the distance between the first camera and the second camera has a constant value.
상기 제 1 카메라와 제 2 카메라는 좌, 우 방향으로 배치되는 로봇 청소기.6. The method of claim 5,
Wherein the first camera and the second camera are disposed in the left and right directions.
상기 제 1 카메라와 제 2 카메라 사이의 거리는 7 내지 9cm인 것을 특징으로 하는 로봇 청소기.6. The method of claim 5,
And the distance between the first camera and the second camera is 7 to 9 cm.
상기 제 1 카메라의 주축과 상기 제 2 카메라의 주축은 서로 평행한 것을 특징으로 하는 로봇 청소기.The method according to claim 1,
Wherein the main axis of the first camera and the main axis of the second camera are parallel to each other.
상기 제 1 카메라와 제 2 카메라는 각각,
사각이 60 내지 80 도인 렌즈를 포함하는 것을 특징으로 하는 로봇 청소기.The method according to claim 1,
Wherein the first camera and the second camera respectively comprise:
And a lens having a square angle of 60 to 80 degrees.
상기 제어부는,
상기 코너와 그 주위 픽셀들간의 수평방향 및 수직방향을 따른 밝기 변화가 상기 임계값 이상인 경우 상기 코너를 상기 특징점으로 선정하는 로봇 청소기.The method according to claim 1,
Wherein,
And selects the corner as the feature point when the change in brightness along the horizontal direction and the vertical direction between the corner and surrounding pixels is equal to or greater than the threshold value.
상기 제 1 카메라와 제 2 카메라에 의해 각각 촬영된 제 1 영상과 제 2 영상이 획득되는 영상획득단계;
상기 제 1 영상과 제 2 영상의 비교를 통해 피사 영역 내의 소정의 피사점에 대응하는 공통의 특징점을 각각 검출하는 특징점 검출단계; 및
상기 제 1 영상에서의 특징점과 상기 제 2 영상에서의 특징점의 위치차에 근거하여 상기 피사점까지의 거리를 산출하는 거리산출단계를 포함하고,
상기 특징점 검출단계는,
상기 제 1 영상과 제 2 영상 각각에서, 주위의 픽셀들에 대한 밝기차가 제 1 임계치 이상인 적어도 하나의 후보점을 정의하고, 상기 후보점이 속하는 일정한 크기의 후보영역을 선정하는 후보영역 선택단계;
상기 후보영역 내에서 상기 후보점 주위의 n개의 픽셀들 중 상기 후보점과의 밝기차가 제 2 임계치 이상인 픽셀들의 수가 일정수 이상인 경우에 그 후보점을 코너로 검출하는 코너 검출단계; 및
상기 코너와 그 주위의 픽셀들간의 밝기 변화가 임계값 이상인 경우 해당 코너를 상기 특징점으로 선정하는 특징점 선정단계를 포함하는 로봇 청소기의 제어방법.A method for controlling a robot cleaner comprising a first camera and a second camera which are spaced apart from each other at regular intervals to look ahead,
An image acquiring step of acquiring a first image and a second image respectively photographed by the first camera and the second camera;
A feature point detecting step of detecting a common feature point corresponding to a predetermined point of interest in the subject region through comparison between the first image and the second image; And
And a distance calculating step of calculating a distance to the subject point based on a positional difference between the characteristic point in the first image and the characteristic point in the second image,
The feature point detection step may include:
A candidate region selection step of defining at least one candidate point in each of the first image and the second image having a difference in brightness with respect to neighboring pixels equal to or greater than a first threshold value and selecting a candidate region having a predetermined size to which the candidate point belongs;
A corner detecting step of detecting a candidate point as a corner when the number of pixels whose difference in brightness from the candidate point among the n pixels around the candidate point in the candidate region is equal to or greater than a second threshold value; And
And a feature point selecting step of selecting the corner as the feature point when the brightness change between the corner and surrounding pixels is equal to or greater than a threshold value.
상기 코너 검출단계는,
FAST 코너 검출 알고리즘에 의해 코너를 검출하는 것을 특징으로 하는 로봇 청소기의 제어방법.12. The method of claim 11,
Wherein the corner detecting step comprises:
And the corner is detected by the FAST corner detection algorithm.
상기 거리산출단계는,
상기 제 1 카메라 및 제 2 카메라의 초점거리와, 상기 제 1 카메라의 렌즈 중심과 상기 제 2 카메라의 렌즈 중심간의 거리와, 상기 제 1 카메라의 초점을 중심으로 하는 고정 좌표 상에서 상기 제 1 영상의 특징점 좌표값과, 상기 제 2 카메라의 초점을 중심으로 하는 고정 좌표상에서 상기 제 2 영상의 특징점 좌표값을 변수로하여 상기 피사점까지의 거리를 산출하는 것을 특징으로 하는 로봇 청소기의 제어방법.12. The method of claim 11,
Wherein the distance calculating step includes:
A distance between the center of the lens of the first camera and the center of the lens of the second camera and a distance between the center of the lens of the first camera and the center of the lens of the second camera, Wherein the distance between the feature point coordinate value and the feature point coordinate value of the second image is calculated as a variable on a fixed coordinate centered on the focus of the second camera.
상기 거리산출단계에서 산출된 거리들을 바탕으로 청소구역 내의 피사점들의 위치를 매핑(mapping)하는 단계를 더 포함하는 로봇 청소기의 제어방법.12. The method of claim 11,
Further comprising mapping the positions of the pause points in the cleaning area based on the distances calculated in the distance calculating step.
상기 매핑된 결과에 따라 우륜과 좌륜의 구동을 제어하는 장애물 회피 구동 단계를 더 포함하는 로봇 청소기의 제어방법.15. The method of claim 14,
And an obstacle avoidance driving step of controlling the driving of the right wheel and the left wheel according to the mapped result.
상기 특징점 선정단계는,
상기 코너와 그 주위 픽셀들간의 수평방향 및 수직방향을 따른 밝기 변화가 상기 임계값 이상인 경우 상기 코너를 상기 특징점으로 선정하는 단계를 포함하는 로봇 청소기의 제어방법.12. The method of claim 11,
The feature point selection step may include:
And selecting the corner as the feature point when the change in brightness along the horizontal direction and the vertical direction between the corner and surrounding pixels is equal to or greater than the threshold value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120109332A KR101400400B1 (en) | 2012-09-28 | 2012-09-28 | Robot cleaner and control method of the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120109332A KR101400400B1 (en) | 2012-09-28 | 2012-09-28 | Robot cleaner and control method of the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140042494A KR20140042494A (en) | 2014-04-07 |
KR101400400B1 true KR101400400B1 (en) | 2014-05-27 |
Family
ID=50651654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120109332A KR101400400B1 (en) | 2012-09-28 | 2012-09-28 | Robot cleaner and control method of the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101400400B1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2529849B (en) | 2014-09-03 | 2017-06-14 | Dyson Technology Ltd | A robot cleaner |
KR101620428B1 (en) | 2014-10-10 | 2016-05-12 | 엘지전자 주식회사 | Robot clener and control method thereof |
KR20180121244A (en) * | 2017-04-28 | 2018-11-07 | 엘지전자 주식회사 | Moving robot and controlling method thereof |
CN109213137A (en) * | 2017-07-05 | 2019-01-15 | 广东宝乐机器人股份有限公司 | sweeping robot, sweeping robot system and its working method |
CN214231240U (en) * | 2019-11-18 | 2021-09-21 | 北京石头世纪科技股份有限公司 | Cleaning robot |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060063265A (en) * | 2004-12-07 | 2006-06-12 | 삼성전자주식회사 | Method and apparatus for processing image |
KR20100049325A (en) * | 2008-11-03 | 2010-05-12 | 삼성전자주식회사 | Apparatus and method for extracting feature information of object, and apparatus and method for generating feature map |
KR20120006408A (en) * | 2010-07-12 | 2012-01-18 | 엘지전자 주식회사 | Robot cleaner and controlling method of the same |
KR20120021064A (en) * | 2010-08-31 | 2012-03-08 | 엘지전자 주식회사 | Mobile robot and controlling method of the same |
-
2012
- 2012-09-28 KR KR1020120109332A patent/KR101400400B1/en not_active IP Right Cessation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060063265A (en) * | 2004-12-07 | 2006-06-12 | 삼성전자주식회사 | Method and apparatus for processing image |
KR20100049325A (en) * | 2008-11-03 | 2010-05-12 | 삼성전자주식회사 | Apparatus and method for extracting feature information of object, and apparatus and method for generating feature map |
KR20120006408A (en) * | 2010-07-12 | 2012-01-18 | 엘지전자 주식회사 | Robot cleaner and controlling method of the same |
KR20120021064A (en) * | 2010-08-31 | 2012-03-08 | 엘지전자 주식회사 | Mobile robot and controlling method of the same |
Also Published As
Publication number | Publication date |
---|---|
KR20140042494A (en) | 2014-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101776622B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
CN110801180B (en) | Operation method and device of cleaning robot | |
KR101776620B1 (en) | Apparatus for recognizing location mobile robot using search based correlative matching and method thereof | |
KR101725060B1 (en) | Apparatus for recognizing location mobile robot using key point based on gradient and method thereof | |
KR101400400B1 (en) | Robot cleaner and control method of the same | |
KR101776621B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
KR101961001B1 (en) | Single-camera distance estimation | |
JP2019057312A (en) | Adaptive mapping with spatial summaries of sensor data | |
JP6636042B2 (en) | Floor treatment method | |
JP2010190432A (en) | Spatial recognition device and air conditioner | |
JP5834933B2 (en) | Vehicle position calculation device | |
WO2014002692A1 (en) | Stereo camera | |
JP2014074632A (en) | Calibration apparatus of in-vehicle stereo camera and calibration method | |
JP2016152027A (en) | Image processing device, image processing method and program | |
Cvišić et al. | Recalibrating the KITTI dataset camera setup for improved odometry accuracy | |
JP2017103688A5 (en) | ||
JP2015184929A (en) | Three-dimensional object detection apparatus, three-dimensional object detection method and three-dimensional object detection program | |
WO2017188158A1 (en) | Device for detecting road surface state | |
JP6895371B2 (en) | Information processing device and suspension control method | |
KR101469099B1 (en) | Auto-Camera Calibration Method Based on Human Object Tracking | |
JP5062626B2 (en) | Object identification device | |
WO2020059292A1 (en) | Autonomous traveling cleaner | |
JP5891802B2 (en) | Vehicle position calculation device | |
JP5903901B2 (en) | Vehicle position calculation device | |
JP2004362334A (en) | Device for detecting area of traveling object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170414 Year of fee payment: 4 |
|
LAPS | Lapse due to unpaid annual fee |