KR101400400B1 - Robot cleaner and control method of the same - Google Patents

Robot cleaner and control method of the same Download PDF

Info

Publication number
KR101400400B1
KR101400400B1 KR1020120109332A KR20120109332A KR101400400B1 KR 101400400 B1 KR101400400 B1 KR 101400400B1 KR 1020120109332 A KR1020120109332 A KR 1020120109332A KR 20120109332 A KR20120109332 A KR 20120109332A KR 101400400 B1 KR101400400 B1 KR 101400400B1
Authority
KR
South Korea
Prior art keywords
camera
image
point
corner
distance
Prior art date
Application number
KR1020120109332A
Other languages
Korean (ko)
Other versions
KR20140042494A (en
Inventor
이창훈
강동중
김원규
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020120109332A priority Critical patent/KR101400400B1/en
Publication of KR20140042494A publication Critical patent/KR20140042494A/en
Application granted granted Critical
Publication of KR101400400B1 publication Critical patent/KR101400400B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 로봇 청소기는 서로 일정한 간격으로 이격 배치되어 전방을 주시하는 제 1 카메라 및 제 2 카메라; 및 상기 제 1 카메라와 제 2 카메라에 의해 각각 촬영된 제 1 영상과 제 2 영상 간의 비교를 통해 청소구역 내의 소정의 피사점에 대응하는 공통의 특징점을 각각 검출하고, 상기 제 1 영상에서의 특징점과 상기 제 2 영상에서의 특징점의 위치차에 근거하여 상기 피사점까지의 거리를 산출하는 제어부를 포함한다.The robot cleaner of the present invention comprises: a first camera and a second camera which are spaced apart from each other at a predetermined distance to look ahead; And a common feature point corresponding to a predetermined pic- ture point in the cleaning zone through comparison between a first image and a second image respectively photographed by the first camera and the second camera, And a control unit for calculating a distance to the subject point based on a positional difference between the feature points in the second image.

Description

로봇 청소기 및 로봇 청소기의 제어방법{ROBOT CLEANER AND CONTROL METHOD OF THE SAME}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a robot cleaner and a robot cleaner,

본 발명은 로봇 청소기 및 로봇 청소기의 제어방법에 관한 것이다.The present invention relates to a robot cleaner and a control method of the robot cleaner.

로봇 청소기는 사용자의 조작 없이도 청소하고자 하는 구역 내를 스스로 주행하면서 바닥면으로부터 먼지 등의 이물질을 흡입하여 자동으로 청소하는 기기이다.The robot cleaner is a device for automatically cleaning foreign objects such as dust from the floor surface while traveling in a self-cleaning area without user's operation.

통상 이러한 로봇 청소기는 청소구역 내에 설치된 가구나 사무용품, 벽 등의 장애물까지의 거리를 감지하고, 그에 따라 청소 구역을 매핑(mapping)하거나, 좌륜과 우륜의 구동을 제어하여 장애물 회피 동작을 수행한다. 종래에는 천장 또는 바닥을 주시하는 센서를 통해 로봇 청소기가 이동한 거리를 계측하고, 이를 기반으로 장애물까지의 거리를 산출하는 방식이었으나, 이러한 방식은 로봇 청소기의 이동 거리를 기반으로 장애물까지의 거리를 추정하는 간접적인 방식이기 때문에, 바닥의 굴곡등으로 로봇 청소기의 이동 거리가 정확하게 계측되지 못하는 경우, 장애물까지의 거리 역시 오차를 가질 수밖에 없었다.Generally, such a robot cleaner senses distances to obstacles such as furniture, office supplies, and walls installed in the cleaning area, maps the cleaning area accordingly, or controls the driving of the left and right wheels to perform an obstacle avoidance operation. Conventionally, the distance that the robot cleaner moves through the sensor that observes the ceiling or the floor is measured, and the distance to the obstacle is calculated based on the distance. However, this method calculates the distance to the obstacle based on the moving distance of the robot cleaner The distance to the obstacle is also inevitably inevitable if the moving distance of the robot cleaner can not be accurately measured due to the bending of the floor or the like.

본 발명이 해결하려고 하는 과제는 카메라에 의해 촬영된 영상을 통해 청소구역 내의 피사점 또는 장애물까지의 거리를 정확하게 측정할 수 있는 로봇 청소기 및 로봇 청소기의 제어방법을 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a robot cleaner and a method of controlling the robot cleaner that can accurately measure distances to an obstacle or a picocentric point in a cleaning area through an image captured by a camera.

본 발명이 해결하려고 하는 또 다른 과제는 현 위치에서 실시간으로 장애물까지의 거리를 측정할 수 있는 로봇 청소기 및 로봇 청소기의 제어방법을 제공하는 것이다.Another object of the present invention is to provide a robot cleaner and a robot cleaner control method capable of measuring the distance from the current position to an obstacle in real time.

또한, 본 발명이 해결하려고 하는 또 다른 과제는 청소 구역 내의 장애물의 위치를 3차원적으로 매핑할 수 있는 로봇 청소기 및 로봇 청소기의 제어방법을 제공하는 것이다.Another object of the present invention is to provide a robot cleaner and a robot cleaner control method capable of three-dimensionally mapping positions of obstacles in a cleaning area.

본 발명의 로봇 청소기는 서로 일정한 간격으로 이격 배치되어 전방을 주시하는 제 1 카메라 및 제 2 카메라; 및 상기 제 1 카메라와 제 2 카메라에 의해 각각 촬영된 제 1 영상과 제 2 영상 간의 비교를 통해 청소구역 내의 소정의 피사점에 대응하는 공통의 특징점을 각각 검출하고, 상기 제 1 영상에서의 특징점과 상기 제 2 영상에서의 특징점의 위치차에 근거하여 상기 피사점까지의 거리를 산출하는 제어부를 포함한다.The robot cleaner of the present invention comprises: a first camera and a second camera which are spaced apart from each other at a predetermined distance to look ahead; And a common feature point corresponding to a predetermined pic- ture point in the cleaning zone through comparison between a first image and a second image respectively photographed by the first camera and the second camera, And a control unit for calculating a distance to the subject point based on a positional difference between the feature points in the second image.

본 발명의 로봇 청소기의 제어방법은 서로 일정한 간격으로 이격 배치되어 전방을 주시하는 제 1 카메라 및 제 2 카메라를 포함하는 로봇 청소기의 제어방법에 있어서, 상기 제 1 카메라와 제 2 카메라에 의해 각각 촬영된 제 1 영상과 제 2 영상이 획득되는 영상획득단계; 상기 제 1 영상과 제 2 영상의 비교를 통해 피사 영역 내의 소정의 피사점에 대응하는 공통의 특징점들을 각각 검출하는 특징점 검출단계; 및 상기 제 1 영상에서의 특징점과 상기 제 2 영상에서의 특징점의 위치차에 근거하여 상기 피사점까지의 거리를 산출하는 거리산출단계를 포함한다.The control method of the robot cleaner according to the present invention is a control method of a robot cleaner including a first camera and a second camera which are spaced apart from each other by a predetermined distance to look ahead, An image acquiring step of acquiring a first image and a second image; A feature point detection step of detecting common feature points corresponding to a predetermined pic- ture point in a subject area through comparison between the first image and the second image; And a distance calculating step of calculating a distance to the subject point based on a positional difference between the characteristic point in the first image and the characteristic point in the second image.

본 발명의 로봇 청소기 및 로봇 청소기의 제어방법은 청소구역 내의 피사점 또는 장애물까지의 거리를 보다 정확하게 계측할 수 있는 효과가 있다.The robot cleaner and the control method of the robot cleaner of the present invention have the effect of more accurately measuring the distance to the object or the obstacle in the cleaning area.

또한, 본 발명의 로봇 청소기 및 로봇 청소기의 제어방법은 실시간으로 장애물까지의 거리를 측정할 수 있는 효과가 있다.In addition, the robot cleaner and the robot cleaner control method of the present invention have the effect of measuring the distance to the obstacle in real time.

또한, 본 발명의 로봇 청소기 및 로봇 청소기의 제어방법은 로봇 청소기가 이동하기 전에 미리 청소구역 내의 장애물 상황을 파악할 수 있는 효과가 있다.In addition, the robot cleaner and the robot cleaner control method of the present invention are capable of grasping the state of an obstacle in the cleaning area before the robot cleaner moves.

도 1은 본 발명의 일 실시예에 따른 로봇 청소기를 도시한 사시도이다.
도 2는 로봇 청소기의 정면도이다.
도 3은 로봇 청소기의 저면을 도시한 것이다.
도 4는 로봇 청소기의 주요부의 구성을 도시한 것이다.
도 5는 로봇 청소기 각부의 제어관계를 도시한 것이다.
도 6은 본 발명의 일 실시예에 따른 로봇 청소기에서 피사점까지의 거리를 산출하는 과정을 도시한 순서도이다.
도 7은 도 6의 특징점 검출단계를 세분한 순서도이다.
도 8은 FAST 코너 검출 알고리즘읕 이용하여 코너를 검출하는 과정을 도시한 것이다.
도 9는 코너가 검출된 제 1 영상(a)과 제 2 영상(b)과, 양 영상에 특징점 검출단계를 수행한 결과(a'),(b')를 도시한 것이다.
도 10는 제 1 카메라와 제 2 카메라에 의해 촬영된 영상들 간의 시차를 통해 특징점까지의 거리를 산출하는 방법을 설명하기 위한 다이어그램이다.
도 11은 피사점간의 거리 산출 결과가 매핑되는 것을 보여주는 도면이다.
도 12는 제 1 카메라와 제 2 카메라 사이의 거리(T, 도 10참조)에 따라 피사점까지의 계측거리와 오차와의 상관관계를 도시한 것이다.
1 is a perspective view illustrating a robot cleaner according to an embodiment of the present invention.
2 is a front view of the robot cleaner.
3 is a bottom view of the robot cleaner.
Fig. 4 shows the configuration of the main part of the robot cleaner.
Fig. 5 shows the control relationship of each part of the robot cleaner.
FIG. 6 is a flowchart illustrating a process of calculating a distance from a robot cleaner to a target point according to an embodiment of the present invention.
FIG. 7 is a flowchart illustrating the minutia detection step of FIG. 6; FIG.
FIG. 8 shows a process of detecting a corner using the FAST corner detection algorithm.
FIG. 9 shows a first image (a) and a second image (b) in which corners are detected and a result (a ') and (b') in which a feature point detection step is performed on both images.
10 is a diagram for explaining a method of calculating a distance to a feature point through a parallax between images taken by the first camera and the second camera.
11 is a diagram showing that a result of distance calculation between subject points is mapped.
12 shows the correlation between the measurement distance to the subject point and the error according to the distance (T, see Fig. 10) between the first camera and the second camera.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

도 1은 본 발명의 일 실시예에 따른 로봇 청소기를 도시한 사시도이다. 도 2는 로봇 청소기의 정면도이다. 도 3은 로봇 청소기의 저면을 도시한 것이다.1 is a perspective view illustrating a robot cleaner according to an embodiment of the present invention. 2 is a front view of the robot cleaner. 3 is a bottom view of the robot cleaner.

도 1 내지 도 3을 참조하면, 본 발명의 일 실시예에 따른 로봇 청소기는 본체(11)와, 본체(11)의 전방을 주시하는 한 쌍의 카메라(20, 30)를 포함한다. 제 1 카메라(20)와 제 2 카메라(30)는 서로 일정한 거리를 유지하며 배치되고, 본체(11)에 의해 지지될 수 있다.1 to 3, a robot cleaner according to an embodiment of the present invention includes a main body 11 and a pair of cameras 20 and 30 for observing the front of the main body 11. The first camera 20 and the second camera 30 are disposed at a certain distance from each other and can be supported by the main body 11. [

본체(11)는 좌륜(61a)과 우륜(62b)이 회전함에 따라 청소하고자 하는 구역(이하, 청소 구역이라고 함.)을 이동하며, 흡입유닛(70)을 통해 청소 구역 내의 먼지나 쓰레기 등의 이물질을 흡입한다. The main body 11 moves a region to be cleaned (hereinafter referred to as a cleaning region) as the left and right wheels 61a and 62b rotate, and the dust and waste in the cleaning region Inhale foreign substances.

본체(11)는 좌륜(61a) 및/또는 우륜(62a)의 회전에 따라 이동되며, 본체(11)의 안정적인 지지를 위한 보조바퀴(13)가 더 구비될 수 있다. 좌륜(61a)과 우륜(62a)은 각각 좌륜 구동부(61, 도 5 참조) 및 우륜 구동부(62, 도 5 참조)에 의해 회전된다. 제어부(50) 제어에 의해 좌륜 구동부(61)와 우륜 구동부(62)의 작동이 독립적으로 제어됨으로써 본체(11)의 직진, 후진 또는 선회가 이루어 진다. 예를들어, 좌륜 구동부(61)에 의해 좌륜이 정방향으로 회전되고, 우륜 구동부(62)에 의해 우륜(62a)은 역방향으로 회전되는 경우 본체(11)가 좌측 또는 우측으로 회전된다. 제어부(50)는 좌륜 구동부(61)와 우륜 구동부(62)의 회전 속도가 차이가 있도록 제어함으로써, 직진운동과 회전운동을 겸하는 본체(11)의 병진운동을 유도하는 것도 가능하다. 이와 같은 제어부(50) 제어를 통한 본체(11)의 운동은 장애물에 대한 회피 또는 선회를 가능하게 한다.The main body 11 is moved in accordance with the rotation of the left wheel 61a and / or the right wheel 62a and may further be provided with auxiliary wheels 13 for stably supporting the main body 11. [ The left wheel 61a and the right wheel 62a are rotated by the left wheel drive portion 61 (see FIG. 5) and the right wheel drive portion 62 (see FIG. 5), respectively. The operation of the left and right wheel driving portions 61 and 62 is controlled independently by the control of the control portion 50 so that the main body 11 is advanced or retracted or turned. For example, when the left wheel is rotated in the forward direction by the left wheel drive unit 61 and the right wheel 62a is rotated in the reverse direction by the right wheel drive unit 62, the main body 11 is rotated to the left or right. The control unit 50 can control the rotational speed of the left wheel drive unit 61 and the right wheel drive unit 62 to be different from each other so as to induce the translational motion of the main body 11 serving also as a rectilinear motion and a rotational motion. The movement of the main body 11 through the control of the controller 50 enables avoidance or turning of the obstacle.

흡입유닛(70)은 본체(11)에 착탈 가능하게 구비되고, 제어부(50) 제어를 통해 회전되어 흡입력을 발생시키는 흡입 팬(71)과, 흡입 팬(71)의 회전에 의해 생성된 기류가 흡입되는 흡입구(72)를 포함할 수 있다. 또한, 흡입유닛(70)은 흡입구(72)를 통해 흡입된 기류 중에서 이물질을 채집하는 필터(미도시)와, 상기 필터에 의해 채집된 이물질들이 축적되는 이물질 수용기(미도시)를 더 포함할 수 있다. 흡입유닛(70)을 본체(11)로부터 분리하여 상기 필터를 교체하거나, 이물질 수용기에 모인 이물질을 버릴 수 있다.The suction unit 70 is detachably mounted on the main body 11 and includes a suction fan 71 which is rotated through control under the control of the control unit 50 to generate a suction force and an air flow generated by rotation of the suction fan 71 And may include an intake port 72 to be sucked in. The suction unit 70 may further include a filter (not shown) for collecting foreign substances in the air stream sucked through the suction port 72 and a foreign matter receiver (not shown) in which foreign substances collected by the filter are accumulated have. The suction unit 70 may be detached from the main body 11 to replace the filter or discard foreign matter collected in the foreign matter receiver.

도 4는 로봇 청소기의 주요부의 구성을 도시한 것이다. 도 5는 로봇 청소기 각부의 제어관계를 도시한 것이다.Fig. 4 shows the configuration of the main part of the robot cleaner. Fig. 5 shows the control relationship of each part of the robot cleaner.

제 1 카메라(20)와 제 2 카메라(30)는 로봇 청소기 전방의 영상을 촬영하는 것으로 디지털 영상센서(image sensor, 21, 31)를 포함한다. 영상센서(21, 31)는 렌즈(미도시)를 통과한 빛에 반응하는 다수개의 촬상소자가 격자형태로 배열된 것으로, 각각의 촬상소자들이 빛에 반응하며 밝기, 색상 좌표 등의 정보를 담는 디지털 신호를 생성하고, 이미지 프로세싱 과정을 통해 디지털 영상으로 재구성된다. 영상센서(21, 31)는 CCD(Charge-Coupled Device) 영상센서 또는 CMOS(Complementary Metal-Oxide-Semiconductor) 영상센서 등을 예로 들 수 있다.The first camera 20 and the second camera 30 capture images in front of the robot cleaner and include digital image sensors 21 and 31. The image sensors 21 and 31 have a plurality of image pickup elements arranged in a lattice shape in response to light passing through a lens (not shown). Each of the image pickup elements responds to light and includes information such as brightness, A digital signal is generated, and the digital image is reconstructed through an image processing process. The image sensors 21 and 31 may be CCD (Charge-Coupled Device) image sensors or CMOS (Complementary Metal-Oxide-Semiconductor) image sensors.

본체(11) 내에는 로봇 청소기 제어를 위한 각종 전기 또는 전자 소자가 실장되는 PCB(Printed Circuit Board) 등의 임베디드 보드(Embedded Board, 42)가 구비되고, 제 1 카메라(20) 및 제 2 카메라(30) 중 적어도 하나는 USB 허브(Universal Serial Bus Hub, 41)를 통해 임베디드 보드(42)와 신호를 주고 받는다. 제 1 카메라(20) 및/또는 제 2 카메라(30)의 영상센서(21, 31)에 촬상된 영상은 USB 허브(41)를 통해 디지털 데이터 신호로 전송된다.An embedded board 42 such as a PCB (Printed Circuit Board) on which various electric or electronic elements for controlling the robot cleaner are mounted is provided in the main body 11, and the first camera 20 and the second camera 30 send and receive signals to and from the embedded board 42 through a USB hub (Universal Serial Bus Hub) 41. The image captured by the image sensors 21 and 31 of the first camera 20 and / or the second camera 30 is transmitted as a digital data signal through the USB hub 41.

제어부(50)는 디지털 데이터를 처리할 수 있는 프로세서(processor)를 포함할 수 있고, 예를 들어 임베디드 보드(42)에 실장된 CPU, 또는 전자 소자들의 집적체로 구현될 수 있다.The control unit 50 may include a processor capable of processing digital data, and may be embodied as an integrated circuit of a CPU, or an electronic device, for example, embedded in the embedded board 42.

제어부(50)는 로봇 청소기의 작동 전반을 제어함과 아울러 USB 허브(41)를 통해 전송된 디지털 데이터를 처리하여, 제 1 카메라(20)에 의해 촬영된 영상과 제 2 카메라(30)에 의해 촬영된 영상 간의 시차를 바탕으로 양 영상에서의 공통된 특징점들의 거리를 산출한다.The control unit 50 controls the entire operation of the robot cleaner and processes the digital data transmitted through the USB hub 41 so that the image captured by the first camera 20 and the image captured by the second camera 30 Based on the parallax between the photographed images, the distance of common feature points in both images is calculated.

도 6은 본 발명의 일 실시예에 따른 로봇 청소기에서 피사점까지의 거리를 산출하는 과정을 도시한 순서도이다. 도 7은 도 6의 특징점 검출단계를 세분한 순서도이다. 도 8은 FAST 코너 검출 알고리즘읕 이용하여 코너를 검출하는 과정을 도시한 것이다. 도 9는 코너가 검출된 제 1 영상(a)과 제 2 영상(b)과, 양 영상에 특징점 검출단계를 수행한 결과(a'), (b')를 도시한 것이다.FIG. 6 is a flowchart illustrating a process of calculating a distance from a robot cleaner to a target point according to an embodiment of the present invention. FIG. 7 is a flowchart illustrating the minutia detection step of FIG. 6; FIG. FIG. 8 shows a process of detecting a corner using the FAST corner detection algorithm. FIG. 9 shows a first image (a) and a second image (b) in which corners are detected and a result (a ') and (b') in which a feature point detection step is performed on both images.

도 6을 참조하면, 본 발명의 일 실시예에 따른 로봇 청소기의 제어방법은 제 1 카메라(20)와 제 2 카메라(30)에 의해 각각 촬영된 제 1 영상과 제 2 영상이 획득되는 영상획득단계(S10)와, 상기 제 1 영상과 제 2 영상의 비교를 통해 피사 영역 내의 소정의 피사점에 대응하는 공통의 특징점들을 각각 검출하는 특징점 검출단계(S20) 및 상기 제 1 영상에서의 특징점과 상기 제 2 영상에서의 특징점의 위치차에 근거하여 상기 피사점까지의 거리를 산출하는 거리산출단계(S30)를 포함한다.Referring to FIG. 6, a method of controlling a robot cleaner according to an exemplary embodiment of the present invention includes: acquiring a first image and a second image respectively captured by a first camera 20 and a second camera 30; A feature point detection step (S20) of detecting a common feature point corresponding to a predetermined focus point in the subject region through comparison between the first image and the second image, And a distance calculating step (S30) of calculating a distance to the subject point based on a positional difference of the characteristic points in the second image.

이하, 제 1 카메라(20)에 의해 촬영된 영상을 제 1 영상, 제 2 카메라(30)에 의해 촬영된 영상을 제 2 영상이라고 구분한다.Hereinafter, an image photographed by the first camera 20 is referred to as a first image, and an image photographed by the second camera 30 is referred to as a second image.

영상획득단계(S10)는 제 1 카메라(20)와 제 2 카메라(30) 의해 로봇 청소기 전방의 영상이 촬영된다. 바람직하게는, 제 1 카메라(20)와 제 2 카메라(30)에 의해 동시에 촬영이 실시되는 것이 바람직하다.In the image acquiring step (S10), images of the front of the robot cleaner are taken by the first camera (20) and the second camera (30). Preferably, it is preferable that the first camera 20 and the second camera 30 photograph at the same time.

다만 실시예에 따라, 로봇 청소기의 이동이 정지된 상태에서 촬영을 하는 경우에는 양 카메라(20, 30)의 촬영시점에 차이가 존재할 수도 있다. 이 경우, 카메라(20, 30)에 의해 촬영되는 청소 구역은 주로 정적인 상태이기 때문에 양 카메라(20, 30)의 촬영 시점에 다소간의 차이가 있더라도, 양 카메라(20, 30)가 동시에 촬영을 실시하는 경우와 실질적으로 동일한 영상을 얻는다.However, according to the embodiment, when the robot cleaner is stopped while the movement of the robot cleaner is stopped, there may be a difference in the time of shooting of both the cameras 20 and 30. In this case, since the cleaning area photographed by the cameras 20 and 30 is mainly in a static state, even if there is a slight difference between the shooting times of the two cameras 20 and 30, And substantially the same image is obtained as in the case of performing.

제 1 카메라(20)의 화각과 제 2 카메라(30)의 화각은 적어도 일부분이 서로 중첩된다. 따라서, 제 1 영상과 제 2 영상에는 제 1 카메라(20)와 제 2 카메라(30)의 피사 영역 내의 소정의 피사점(실제 청소 구역 내의 어느 한 점)과 대응하는 특징점이 공통으로 존재할 수 있고(이하, 공통 특징점이라고 함.), 제 1 영상에서의 공통 특징점과, 제 2 영상에서의 공통 특징점의 위치차를 통해 시차를 구할 수 있다. 제 1 카메라(20)와 제 2 카메라(30)의 각 렌즈들은 사각이 60 내지 80 도인 광각렌즈인 것이 바람직하다.At least a part of the angle of view of the first camera (20) and the angle of view of the second camera (30) overlap each other. Accordingly, the first image and the second image may have a common feature point corresponding to a predetermined pic- ture point (any one point in the actual cleaning area) in the subject area of the first camera 20 and the second camera 30 (Hereinafter referred to as a common feature point), a common feature point in the first image, and a common feature point in the second image. It is preferable that each lens of the first camera 20 and the second camera 30 is a wide angle lens having a square angle of 60 to 80 degrees.

공통 특징점은 제 1 영상과 제 2 영상의 전 영역에서의 비교를 통해서 특정될 수도 있으나, 먼저 제 1 영상과 제 2 영상 각각으로부터 소정의 후보영역을 선택하고(S21), 제 1 영상의 후보영역과 제 2 영상의 후보영역에서 각각 코너들을 검출하고(S22), 검출된 코너들 중에서 동일한 코너를 특징점으로 정의함으로써(S23), 특징점들의 검색과 대차 비교에 소요되는 시간이 절감될 수 있다.The common feature point may be specified through comparison in all the regions of the first image and the second image, but first, a predetermined candidate region is selected from the first image and the second image (S21) (S22), and the same corner among the detected corners is defined as a minutiae (S23). Thus, the time required for searching for the minutiae and comparing the minutiae can be reduced.

카메라를 통해 촬영된 영상으로부터 코너를 검출하는 방법으로는 해리스 코너 검출 알고리즘(Harris corner detection algorithm), 수잔 코너 검출 알고리즘(Susan corner cetection algorithm), FAST(Features from Accelerated Segment Test) 코너 검출 알고리즘 등을 예로 들 수 있다.Examples of methods for detecting a corner from an image captured through a camera include a Harris corner detection algorithm, a Susan corner detection algorithm, and a FAST (Features from Accelerated Segment Test) corner detection algorithm .

FAST 코너 검출 알고리즘은 Edward Rosten에 의해 제안된 고속의 코너 검출 알고리즘으로, Harris 또는 Susan 코너 검출 알고리즘에 비해 수배에서 수십배 빠르게 검출을 수행한다.The FAST corner detection algorithm is a fast corner detection algorithm proposed by Edward Rosten, which performs detection several times to several times faster than the Harris or Susan corner detection algorithm.

후보영역 선택단계(S21)는 제 1 영상과 제 2 영상에서 코너 검출의 가능성이 높은 후보점들을 선정하고, 이러한 후보점이 속하는 후보영역을 정의하는 단계이다. 예를들어, FAST 코너 검출 알고리즘을 이용하는 경우, 각 영상에서의 소정의 점(P)과 주위의 픽셀들(이는 후술하는 FAST 코너 검출 과정에서 비교되는 16개의 픽셀 전부일 필요는 없고, 그 중에서 몇 개만이 선택될 수 있다.)과의 밝기차를 구하여, 그 차이가 임계치 이상인 경우, 그 점(P)을 후보점으로 정의하고, 후보점(P)이 속하는 일정한 크기의 영역을 후보영역으로 선정한다. 실시예에 따라, 제 1 영상과 제 2 영상 각각을 가로로 M등분 세로로 N 등분하여 MⅹN 개의 영역 중에서 상기 후보점이 존재하는 영역들을 후보영역으로 선택할 수 있다.The candidate region selection step S21 is a step of selecting candidates having a high possibility of corner detection in the first and second images and defining candidate regions to which the candidate points belong. For example, when using the FAST corner detection algorithm, a predetermined point P in each image and surrounding pixels (which need not be all 16 pixels compared in the FAST corner detection process described later, , And when the difference is equal to or more than the threshold value, the point P is defined as a candidate point, and a region having a predetermined size to which the candidate point P belongs is selected as a candidate region . According to the embodiment, the first image and the second image may be divided into N equally vertically by M equally horizontally, and the regions having the candidate points among the M x N regions may be selected as candidate regions.

코너 검출단계(S22)는 후보영역 선택단계(S21)에서 선정된 후보영역 내에서 픽셀(pixel)들의 밝기를 상호 비교하여 코너(Corner)를 검출하는 단계이다. 여기서, 코너란 주변의 픽셀들과 비교할 시 임계적 특징을 보이는 픽셀로, 이하, 주변의 픽셀과 임계치(전술한 후보영역 선택단계에서의 임계치와 반드시 같은 값일 필요는 없다.) 이상의 밝기차를 보이는 픽셀로 정의한다.The corner detecting step S22 is a step of detecting the corners by comparing the brightness of the pixels within the candidate region selected in the candidate region selecting step S21. Here, a corner is a pixel showing a threshold characteristic when compared with neighboring pixels, and is hereinafter referred to as a neighboring pixel and a threshold value (a threshold value in the candidate region selection step does not necessarily have to be the same value) Pixel.

도 8을 참조하면, FAST 코너 검출 알고리즘은 후보영역(a) 상에서 임의의 코너 후보점(P)을 선택하고, 후보점(P)과 그 주위의 16픽셀간의 밝기차를 임계값과 비교하여 코너인지 여부를 판정한다. 즉, 후보점(P) 주위의 16픽셀 중에서 다음 식을 만족하는 픽셀의 수가 일정수(예를들어, 7) 이상인 경우에 후보점(P)이 코너로 판정된다. 8, the FAST corner detection algorithm selects an arbitrary corner candidate point P on the candidate region a, compares the brightness difference between the candidate point P and the surrounding 16 pixels with a threshold value, Is determined. That is, when the number of pixels satisfying the following expression among 16 pixels around the candidate point P is equal to or larger than a predetermined number (for example, 7), the candidate point P is determined as a corner.

Figure 112012079777015-pat00001
또는
Figure 112012079777015-pat00002
Figure 112012079777015-pat00001
or
Figure 112012079777015-pat00002

Ip : 후보점에서의 밝기, In: 후보점(P) 주변의 n번째 픽셀의 밝기, K: 임계값I p : brightness at the candidate point, In: brightness of the n-th pixel around the candidate point (P), K:

여기서, 각 픽셀에서의 밝기(IP, In)는 영상센서(21, 31)상의 각 촬상소자의 감지결과에 따라 디지털화된 수치로써 제어부(50)에 인가된다.Here, the brightness (I P , I n is applied to the control unit 50 as a digitized value according to the detection result of each imaging element on the image sensors 21 and 31.

특징점 검출단계(S20)는 제 1 영상과 제 2 영상 각각에서 코너들이 검출된 후보영역들을 상호 비교하여 공통된 특징, 즉 동일한 코너(이하, 특징점이라고 함.)를 검출하는 단계이다.The feature point detection step S20 is a step of detecting common features, that is, the same corner (hereinafter, referred to as a minutiae point) by comparing candidate areas in which corners are detected in the first and second images, respectively.

코너들은 제 1 영상과 제 2 영상에서 각각 검출되기 때문에, 각 영상에서의 코너들이 서로 완전하게 일치되지 않을 수 있다. 따라서, 특징점 검출단계(S20)에서는 각 영상에서의 코너들을 비교하여 동일한 코너를 검출한다.Since the corners are detected respectively in the first and second images, the corners in each image may not completely coincide with each other. Therefore, in the minutia detection step S20, the corners in each image are compared to detect the same corner.

이와 같은 과정은 코너 검출단계(S22)에서 검출된 각 코너를 그 주위의 픽셀들(예를들어, 9개)과 밝기를 비교하여, 그 차이가 임계값(K')이상인 경우에 해당 코너들을 특징점으로 정의한다. 코너와 그 주위 픽셀 사이의 밝기 변화를 수평방향(X), 수직방향(Y)으로 정의하고 그 변화값(예를들어, 택시캡 디스턴스, taxicab distance)이 임계값(K') 이상인 경우에 특징점으로 정의될 수 있다(S23, 특징점 선정단계).In this process, the brightness of each corner detected in the corner detection step S22 is compared with the surrounding pixels (for example, 9), and when the difference is equal to or greater than the threshold value K ' It is defined as minutiae. A brightness change between a corner and a surrounding pixel is defined as a horizontal direction X and a vertical direction Y and when the change value (for example, taxicab distance) is equal to or greater than the threshold value K ' (S23, minutiae point selection step).

도 9에는 제 1 영상(a)과 제 2 영상(b)에서 FAST 코너 검출 알고리즘에 의해 검출된 코너 또는 특징점 후보들이 표시되어 있는데, 여기서 후보영역(D) 내에서 어떤 코너는 제 1 영상(a)에는 존재하지 않고 제 2 영상(b)에만 존재한다. 이러한 코너들은 제 1 영상(a)과 제 2 영상(b)의 공통된 특징점을 정의함에 있어서는 배제되어야 한다.In FIG. 9, corners or feature point candidates detected by the FAST corner detection algorithm are displayed in the first image (a) and the second image (b), wherein a certain corner in the candidate region (D) ) And exist only in the second image (b). These corners should be excluded in defining the common feature points of the first image (a) and the second image (b).

도 9의 (a')와 (b')는 각각 특징점 검출단계(S20)를 수행한 후의 제 1 영상(a')과 제 2 영상(b')으로, 양 영상에서 불일치되었던 코너가 제 2 영상(b')에서 배제되는 것은 물론이고, 제 1 영상(a) 및/또는 제 2 영상(b)에서 주변 픽셀들에 비해 임계적 특징이 약한 코너들도 소거되었음을 알 수 있다.9 (a ') and 9 (b') show the first image (a ') and the second image (b') after the feature point detection step (S20) It can be seen that the corners having weaker threshold characteristics than the surrounding pixels are also erased in the first image a and / or the second image b, as well as being excluded from the image b '.

거리산출단계(S30)는 특징점 검출단계(S20)에서 선정된 적어도 하나의 특징점에 대한 시차를 바탕으로 피사점에 대한 거리를 산출하는 단계이다. 여기서, 특징점에 대한 시차라고 함은, 특징점과 대응하는 피사점(실제 청구구역 내의 점)에 대한 제 1 카메라(20)와 제 2 카메라(30) 간의 시차를 의미하는 것으로 각 카메라들(20, 30) 사이의 주축거리(렌즈의 중심과 중심 사이의 거리)에 따라 달라진다.The distance calculating step S30 is a step of calculating a distance to a pic- ture point based on a parallax for at least one feature point selected in the feature point detecting step S20. Here, the parallax with respect to the minutiae indicates the parallax between the first camera 20 and the second camera 30 with respect to the picocentric point corresponding to the minutiae point (point in the actual requested area) 30 (the distance between the center of the lens and the center of the lens).

도 10을 참조하면, 피사점까지의 거리(Z)는 삼각 측정법에 기반을 둔 다음과 같은 식들에 의해 구해질 수 있다.Referring to Fig. 10, the distance Z to the pic- ture point can be obtained by the following equations based on the triangulation method.

Figure 112012079777015-pat00003
Figure 112012079777015-pat00003

Figure 112012079777015-pat00004
Figure 112012079777015-pat00004

Figure 112012079777015-pat00005

Figure 112012079777015-pat00005

T : 주축거리(제 1 카메라의 주축(Ol)과 제 2 카메라의 주축(Or) 사이의 거리), 제 1 카메라(20)는 본체(11)의 좌측에 배치되고, 제 2 카메라(20)는 우측에 배치되고, 양 카메라의 주축들은 서로 평행함.T: (the distance between the main axis of the first camera (O l), and the major axis of the second camera (O r)), the first camera 20, the main shaft drive is arranged on the left side of the main body 11, a second camera ( 20 are arranged on the right side, and the main axes of both cameras are parallel to each other.

cleft, x : 제 1 카메라의 초점c left , x: focus of the first camera

cright, x : 제 2 카메라의 초점c right , x: focus of the second camera

f : 초점거리f: focal length

xl : 제 1 카메라에서 초점을 기준으로 한 고정 좌표상에서 특징점 좌표값의 x-성분x l : The x-component of the feature point coordinate value on the fixed coordinate based on the focus in the first camera

xr : 제 2 카메라에서 초점을 기준으 로한 고정 좌표상에서 특징점 좌표값의 x-성분
x r : The x-component of the feature point coordinate value on the fixed coordinate based on the focus in the second camera

한편, 도 11을 참조하면, 제어부(50)는 상술한 과정을 통해서 구해진 피사점들까지의 거리값들을 바탕으로 피사점(P1, P2, P3)들의 위치를 3차원적으로 매핑(mapping)할 수 있다. 이렇게 매핑된 결과는 청소 구역 내의 장애물들의 위치 정보를 데이터 베이스화 하는데 활용할 수 있으며, 예를들어 제어부(50)는 매핑결과를 기반으로 좌륜 구동부(61)와 우륜 구동부(62)를 제어하여 로봇 청소기의 이동 또는 장애물 회피 구동을 제어할 수 있다.Referring to FIG. 11, the controller 50 three-dimensionally maps the positions of the subject points P1, P2, and P3 based on the distance values up to the subject points obtained through the process described above . For example, the control unit 50 may control the left and right wheel driving units 61 and 62 based on the mapping result to calculate the position of the obstacle in the robot cleaner Movement or obstacle avoidance drive can be controlled.

도 12는 제 1 카메라와 제 2 카메라 사이의 거리(T, 도 10참조)에 따라 피사점까지의 계측거리와 오차와의 상관관계를 도시한 것이다.12 shows the correlation between the measurement distance to the subject point and the error according to the distance (T, see Fig. 10) between the first camera and the second camera.

제 1 카메라(20)와 제 2 카메라 사이의 거리가 7cm인 경우와 8cm인 경우를 비교하면, 양자 모두 계측거리가 증가할수록(즉, 멀리 있는 피사점에 대한 계측결과일수록) 실제 거리와의 오차가 커지는 경향을 보이며, 특히 계측거리가 어느 정도 이상인 경우 실제거리와 상당한 오차를 생긴다는 것을 알 수 있다.When the distance between the first camera 20 and the second camera is 7 cm and the case where the distance between the first camera 20 and the second camera is 8 cm is compared with the case where the distance between the first camera 20 and the second camera is 8 cm, And especially when the measurement distance is more than a certain distance, it can be seen that there is a considerable error with the actual distance.

로봇 청소기 동작의 정확성을 확보할 수 있도록 오차의 상한을 대략 5 내지 10mm 로 가정할 때, 주축거리가 8cm인 경우 2 미터 이내의 근거리에서도 5mm이상의 오차가 발생하여 오차의 상한에 근접하는 것을 알 수 있다. 따라서, 제 1 카메라(20) 제 2 카메라(30) 사이의 간격은 7 내지 8cm인 것이 바람직하다.
Assuming that the upper limit of the error is about 5 to 10 mm in order to ensure the accuracy of the operation of the robot cleaner, when the main axis distance is 8 cm, it is found that an error of 5 mm or more occurs near 2 meters or less and approaches the upper limit of the error have. Therefore, the distance between the first camera 20 and the second camera 30 is preferably 7 to 8 cm.

한편, 본 발명의 로봇 청소기 제어방법은 로봇 청소기에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 이러한 기록매체는 프로세서에 의해 읽혀질 수 있는 형식의 데이터가 저장되는 것이면 족하다. 예를들어, ROM, RAM, CD-ROM, 자기 테이프, 플로피디크스, 광 데이터 저장장치 등이 있으며, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 가능하다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 코드가 저장되고 실행될 수도 있다.Meanwhile, the robot cleaner control method of the present invention can be implemented as a processor-readable code on a processor-readable recording medium provided in the robot cleaner. Such a recording medium may be such that data of a format that can be read by the processor is stored. For example, it may be a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, or the like, and may be implemented as a carrier wave such as transmission over the Internet. In addition, the computer readable recording medium may be distributed over a networked computer system so that the code may be stored and executed.

Claims (16)

서로 일정한 간격으로 이격 배치되어 전방을 주시하는 제 1 카메라 및 제 2 카메라; 및
상기 제 1 카메라와 제 2 카메라에 의해 각각 촬영된 제 1 영상과 제 2 영상 간의 비교를 통해 청소구역 내의 소정의 피사점에 대응하는 공통의 특징점을 각각 검출하고, 상기 제 1 영상에서의 특징점과 상기 제 2 영상에서의 특징점의 위치차에 근거하여 상기 피사점까지의 거리를 산출하는 제어부를 포함하고,
상기 제어부는,
상기 제 1 영상과 제 2 영상 각각에서, 주위의 픽셀들에 대한 밝기차가 제 1 임계치 이상인 적어도 하나의 후보점을 정의하고, 상기 후보점이 속하는 일정한 크기의 후보영역을 선정하고, 상기 후보영역 내에서 상기 후보점 주위의 n개의 픽셀들 중 상기 후보점과의 밝기차가 제 2 임계치 이상인 픽셀들의 수가 일정수 이상인 경우에 그 후보점을 코너로 검출하고, 상기 코너와 그 주위의 픽셀들 간의 밝기 변화가 임계값 이상인 경우 해당 코너를 상기 특징점으로 검출하는 로봇 청소기.
A first camera and a second camera spaced apart from each other at regular intervals to look ahead; And
A common feature point corresponding to a predetermined pic- ture point in the cleaning area is detected through comparison between the first image and the second image respectively photographed by the first camera and the second camera, And a control unit for calculating a distance to the subject point based on a positional difference of the feature points in the second image,
Wherein,
Wherein at least one candidate point whose brightness difference with respect to surrounding pixels is equal to or greater than a first threshold value is defined in each of the first image and the second image, a candidate region having a predetermined size to which the candidate point belongs is selected, When a number of pixels having a brightness difference between the candidate point and the candidate point is equal to or greater than a second threshold value, the candidate point is detected as a corner, and a brightness change between the corner and surrounding pixels And detects the corresponding corner as the minutiae when the threshold value is greater than the threshold value.
삭제delete 삭제delete 제 1 항에 있어서,
상기 코너는 FAST 코너 검출 알고리즘에 의해 선정되는 것을 특징으로 하는 로봇 청소기.
The method according to claim 1,
Wherein the corner is selected by a FAST corner detection algorithm.
제 1 항에 있어서,
상기 제 1 카메라와 제 2 카메라 사이의 거리는 일정한 값을 갖는 것을 특징으로 하는 로봇 청소기.
The method according to claim 1,
Wherein the distance between the first camera and the second camera has a constant value.
제 5 항에 있어서,
상기 제 1 카메라와 제 2 카메라는 좌, 우 방향으로 배치되는 로봇 청소기.
6. The method of claim 5,
Wherein the first camera and the second camera are disposed in the left and right directions.
제 5 항에 있어서,
상기 제 1 카메라와 제 2 카메라 사이의 거리는 7 내지 9cm인 것을 특징으로 하는 로봇 청소기.
6. The method of claim 5,
And the distance between the first camera and the second camera is 7 to 9 cm.
제 1 항에 있어서,
상기 제 1 카메라의 주축과 상기 제 2 카메라의 주축은 서로 평행한 것을 특징으로 하는 로봇 청소기.
The method according to claim 1,
Wherein the main axis of the first camera and the main axis of the second camera are parallel to each other.
제 1 항에 있어서,
상기 제 1 카메라와 제 2 카메라는 각각,
사각이 60 내지 80 도인 렌즈를 포함하는 것을 특징으로 하는 로봇 청소기.
The method according to claim 1,
Wherein the first camera and the second camera respectively comprise:
And a lens having a square angle of 60 to 80 degrees.
제 1 항에 있어서,
상기 제어부는,
상기 코너와 그 주위 픽셀들간의 수평방향 및 수직방향을 따른 밝기 변화가 상기 임계값 이상인 경우 상기 코너를 상기 특징점으로 선정하는 로봇 청소기.
The method according to claim 1,
Wherein,
And selects the corner as the feature point when the change in brightness along the horizontal direction and the vertical direction between the corner and surrounding pixels is equal to or greater than the threshold value.
서로 일정한 간격으로 이격 배치되어 전방을 주시하는 제 1 카메라 및 제 2 카메라를 포함하는 로봇 청소기 제어방법에 있어서,
상기 제 1 카메라와 제 2 카메라에 의해 각각 촬영된 제 1 영상과 제 2 영상이 획득되는 영상획득단계;
상기 제 1 영상과 제 2 영상의 비교를 통해 피사 영역 내의 소정의 피사점에 대응하는 공통의 특징점을 각각 검출하는 특징점 검출단계; 및
상기 제 1 영상에서의 특징점과 상기 제 2 영상에서의 특징점의 위치차에 근거하여 상기 피사점까지의 거리를 산출하는 거리산출단계를 포함하고,
상기 특징점 검출단계는,
상기 제 1 영상과 제 2 영상 각각에서, 주위의 픽셀들에 대한 밝기차가 제 1 임계치 이상인 적어도 하나의 후보점을 정의하고, 상기 후보점이 속하는 일정한 크기의 후보영역을 선정하는 후보영역 선택단계;
상기 후보영역 내에서 상기 후보점 주위의 n개의 픽셀들 중 상기 후보점과의 밝기차가 제 2 임계치 이상인 픽셀들의 수가 일정수 이상인 경우에 그 후보점을 코너로 검출하는 코너 검출단계; 및
상기 코너와 그 주위의 픽셀들간의 밝기 변화가 임계값 이상인 경우 해당 코너를 상기 특징점으로 선정하는 특징점 선정단계를 포함하는 로봇 청소기의 제어방법.
A method for controlling a robot cleaner comprising a first camera and a second camera which are spaced apart from each other at regular intervals to look ahead,
An image acquiring step of acquiring a first image and a second image respectively photographed by the first camera and the second camera;
A feature point detecting step of detecting a common feature point corresponding to a predetermined point of interest in the subject region through comparison between the first image and the second image; And
And a distance calculating step of calculating a distance to the subject point based on a positional difference between the characteristic point in the first image and the characteristic point in the second image,
The feature point detection step may include:
A candidate region selection step of defining at least one candidate point in each of the first image and the second image having a difference in brightness with respect to neighboring pixels equal to or greater than a first threshold value and selecting a candidate region having a predetermined size to which the candidate point belongs;
A corner detecting step of detecting a candidate point as a corner when the number of pixels whose difference in brightness from the candidate point among the n pixels around the candidate point in the candidate region is equal to or greater than a second threshold value; And
And a feature point selecting step of selecting the corner as the feature point when the brightness change between the corner and surrounding pixels is equal to or greater than a threshold value.
제 11 항에 있어서,
상기 코너 검출단계는,
FAST 코너 검출 알고리즘에 의해 코너를 검출하는 것을 특징으로 하는 로봇 청소기의 제어방법.
12. The method of claim 11,
Wherein the corner detecting step comprises:
And the corner is detected by the FAST corner detection algorithm.
제 11 항에 있어서,
상기 거리산출단계는,
상기 제 1 카메라 및 제 2 카메라의 초점거리와, 상기 제 1 카메라의 렌즈 중심과 상기 제 2 카메라의 렌즈 중심간의 거리와, 상기 제 1 카메라의 초점을 중심으로 하는 고정 좌표 상에서 상기 제 1 영상의 특징점 좌표값과, 상기 제 2 카메라의 초점을 중심으로 하는 고정 좌표상에서 상기 제 2 영상의 특징점 좌표값을 변수로하여 상기 피사점까지의 거리를 산출하는 것을 특징으로 하는 로봇 청소기의 제어방법.
12. The method of claim 11,
Wherein the distance calculating step includes:
A distance between the center of the lens of the first camera and the center of the lens of the second camera and a distance between the center of the lens of the first camera and the center of the lens of the second camera, Wherein the distance between the feature point coordinate value and the feature point coordinate value of the second image is calculated as a variable on a fixed coordinate centered on the focus of the second camera.
제 11 항에 있어서,
상기 거리산출단계에서 산출된 거리들을 바탕으로 청소구역 내의 피사점들의 위치를 매핑(mapping)하는 단계를 더 포함하는 로봇 청소기의 제어방법.
12. The method of claim 11,
Further comprising mapping the positions of the pause points in the cleaning area based on the distances calculated in the distance calculating step.
제 14 항에 있어서,
상기 매핑된 결과에 따라 우륜과 좌륜의 구동을 제어하는 장애물 회피 구동 단계를 더 포함하는 로봇 청소기의 제어방법.
15. The method of claim 14,
And an obstacle avoidance driving step of controlling the driving of the right wheel and the left wheel according to the mapped result.
제 11 항에 있어서,
상기 특징점 선정단계는,
상기 코너와 그 주위 픽셀들간의 수평방향 및 수직방향을 따른 밝기 변화가 상기 임계값 이상인 경우 상기 코너를 상기 특징점으로 선정하는 단계를 포함하는 로봇 청소기의 제어방법.
12. The method of claim 11,
The feature point selection step may include:
And selecting the corner as the feature point when the change in brightness along the horizontal direction and the vertical direction between the corner and surrounding pixels is equal to or greater than the threshold value.
KR1020120109332A 2012-09-28 2012-09-28 Robot cleaner and control method of the same KR101400400B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120109332A KR101400400B1 (en) 2012-09-28 2012-09-28 Robot cleaner and control method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120109332A KR101400400B1 (en) 2012-09-28 2012-09-28 Robot cleaner and control method of the same

Publications (2)

Publication Number Publication Date
KR20140042494A KR20140042494A (en) 2014-04-07
KR101400400B1 true KR101400400B1 (en) 2014-05-27

Family

ID=50651654

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120109332A KR101400400B1 (en) 2012-09-28 2012-09-28 Robot cleaner and control method of the same

Country Status (1)

Country Link
KR (1) KR101400400B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2529849B (en) 2014-09-03 2017-06-14 Dyson Technology Ltd A robot cleaner
KR101620428B1 (en) 2014-10-10 2016-05-12 엘지전자 주식회사 Robot clener and control method thereof
KR20180121244A (en) * 2017-04-28 2018-11-07 엘지전자 주식회사 Moving robot and controlling method thereof
CN109213137A (en) * 2017-07-05 2019-01-15 广东宝乐机器人股份有限公司 sweeping robot, sweeping robot system and its working method
CN214231240U (en) * 2019-11-18 2021-09-21 北京石头世纪科技股份有限公司 Cleaning robot

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060063265A (en) * 2004-12-07 2006-06-12 삼성전자주식회사 Method and apparatus for processing image
KR20100049325A (en) * 2008-11-03 2010-05-12 삼성전자주식회사 Apparatus and method for extracting feature information of object, and apparatus and method for generating feature map
KR20120006408A (en) * 2010-07-12 2012-01-18 엘지전자 주식회사 Robot cleaner and controlling method of the same
KR20120021064A (en) * 2010-08-31 2012-03-08 엘지전자 주식회사 Mobile robot and controlling method of the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060063265A (en) * 2004-12-07 2006-06-12 삼성전자주식회사 Method and apparatus for processing image
KR20100049325A (en) * 2008-11-03 2010-05-12 삼성전자주식회사 Apparatus and method for extracting feature information of object, and apparatus and method for generating feature map
KR20120006408A (en) * 2010-07-12 2012-01-18 엘지전자 주식회사 Robot cleaner and controlling method of the same
KR20120021064A (en) * 2010-08-31 2012-03-08 엘지전자 주식회사 Mobile robot and controlling method of the same

Also Published As

Publication number Publication date
KR20140042494A (en) 2014-04-07

Similar Documents

Publication Publication Date Title
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
CN110801180B (en) Operation method and device of cleaning robot
KR101776620B1 (en) Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
KR101400400B1 (en) Robot cleaner and control method of the same
KR101776621B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
KR101961001B1 (en) Single-camera distance estimation
JP2019057312A (en) Adaptive mapping with spatial summaries of sensor data
JP6636042B2 (en) Floor treatment method
JP2010190432A (en) Spatial recognition device and air conditioner
JP5834933B2 (en) Vehicle position calculation device
WO2014002692A1 (en) Stereo camera
JP2014074632A (en) Calibration apparatus of in-vehicle stereo camera and calibration method
JP2016152027A (en) Image processing device, image processing method and program
Cvišić et al. Recalibrating the KITTI dataset camera setup for improved odometry accuracy
JP2017103688A5 (en)
JP2015184929A (en) Three-dimensional object detection apparatus, three-dimensional object detection method and three-dimensional object detection program
WO2017188158A1 (en) Device for detecting road surface state
JP6895371B2 (en) Information processing device and suspension control method
KR101469099B1 (en) Auto-Camera Calibration Method Based on Human Object Tracking
JP5062626B2 (en) Object identification device
WO2020059292A1 (en) Autonomous traveling cleaner
JP5891802B2 (en) Vehicle position calculation device
JP5903901B2 (en) Vehicle position calculation device
JP2004362334A (en) Device for detecting area of traveling object

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170414

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee