KR101980677B1 - Apparatus and method of feature registration for image based localization and robot cleaner comprising the same apparatus - Google Patents

Apparatus and method of feature registration for image based localization and robot cleaner comprising the same apparatus Download PDF

Info

Publication number
KR101980677B1
KR101980677B1 KR1020120005535A KR20120005535A KR101980677B1 KR 101980677 B1 KR101980677 B1 KR 101980677B1 KR 1020120005535 A KR1020120005535 A KR 1020120005535A KR 20120005535 A KR20120005535 A KR 20120005535A KR 101980677 B1 KR101980677 B1 KR 101980677B1
Authority
KR
South Korea
Prior art keywords
image
depth
feature point
depth information
unit
Prior art date
Application number
KR1020120005535A
Other languages
Korean (ko)
Other versions
KR20130084747A (en
Inventor
백승민
안수남
이성수
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020120005535A priority Critical patent/KR101980677B1/en
Publication of KR20130084747A publication Critical patent/KR20130084747A/en
Application granted granted Critical
Publication of KR101980677B1 publication Critical patent/KR101980677B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 영상 기반 위치 인식을 위한 특징점 등록 장치 및 등록 방법에 관한 것이다. 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치의 실시예의 일 양태는, 2D 영상 및 깊이 영상을 입력하는 영상 입력기; 상기 영상 입력기가 입력한 2D 영상 및 깊이 영상으로부터 특징점 및 깊이 정보를 추출하고, 추출된 상기 특징점 및 깊이 정보를 매칭하여 기술자를 생성하는 영상 처리기; 및 상기 영상 처리기에서 생성된 상기 기술자를 포함하는 상기 특징점을 등록하는 영상 등록기; 를 포함한다. 따라서 본 발명의 실시예에 의하면, 보다 간단하고, 정확한 특징점의 추출 및 등록이 가능해지는 효과를 기대할 수 있다.The present invention relates to a feature point registration apparatus and a registration method for image-based position recognition. One aspect of an embodiment of a feature point registration apparatus for image-based position recognition according to the present invention is a feature point registration apparatus for inputting a 2D image and a depth image; An image processor for extracting feature points and depth information from 2D images and depth images input by the image input device, and for generating descriptors by matching the extracted feature points and depth information; An image register for registering the feature points including the descriptor generated in the image processor; . Therefore, according to the embodiment of the present invention, it is possible to expect a simpler and more accurate feature point extraction and registration.

Description

영상 기반 위치 인식을 위한 특징점 등록 장치, 이를 사용한 등록 방법, 및 이를 포함하는 로봇 청소기{APPARATUS AND METHOD OF FEATURE REGISTRATION FOR IMAGE BASED LOCALIZATION AND ROBOT CLEANER COMPRISING THE SAME APPARATUS} TECHNICAL FIELD The present invention relates to a feature point registration device for image-based position recognition, a registration method using the feature point registration device, and a robot cleaner including the feature point registration device.

본 발명은 영상 기반 위치 인식을 위한 특징점 등록 장치, 이를 사용한 등록 방법 및 이를 포함하는 로봇 청소기에 관한 것이다.The present invention relates to a feature point registration apparatus for image-based position recognition, a registration method using the feature point registration apparatus, and a robot cleaner including the same.

이동형 로봇이란, 주행하면서 기설정된 동작을 수행하는 것으로, 예를 들면, 로봇형 청소기나 로봇형 의료기기 등이 있다. 이와 같은 이동형 로봇의 동작 수행을 위해서는, 지도의 작성 및 맵 상에서의 절대 위치를 인식하는 작업이 필요하다. 이와 같은 지도의 작성 및 절대 위치의 인식을 위한 기술의 대표적 예로는, 동시 위치 인식 및 지도 작성(Simultaneous Localization And Mapping; SLAM) 기술이 있다.A mobile robot is a robot that performs a predetermined operation while traveling, for example, a robot-type vacuum cleaner or a robot-type medical device. In order to perform such an operation of the mobile robot, it is necessary to create a map and recognize an absolute position on the map. Simultaneous localization and mapping (SLAM) technology is a representative example of such a technique for creating a map and recognizing an absolute position.

SLAM 기술이란, 획득된 영상을 기반으로 지도를 작성하고, 이동형 로봇이 자신의 위치를 인식하는 영상 기반의 위치 인식 기술이다. 그리고 이와 같은 SLAM은, 스테레오 비전(StereoVision) 카메라나 TOF(Time of Flight) 카메라 등을 사용하여 영상을 촬영하고, 촬영된 영상으로부터 특징점(Feature)을 추출한다. 그리고 상기 특징점에 해당하는 3차원 좌표값을 계산하여 이를 3차원 특징점(3D Feature)으로 등록한다. SLAM technology is an image-based location recognition technology in which a mobile robot creates a map based on acquired images and recognizes its position. In such SLAM, an image is captured using a StereoVision camera or a TOF (Time of Flight) camera, and a feature is extracted from the captured image. Then, three-dimensional coordinate values corresponding to the feature points are calculated and registered as three-dimensional feature points.

그러나 이와 같은 종래 기술에 의한 위치 인식 및 지도 작성 기술에는 다음과 같은 문제점이 발생한다.However, the following problems arise in the technique of position recognition and mapping according to the related art.

종래에는, 상기 카메라가 촬영한 영상으로부터 다수회의 연산을 거쳐서 계산된 3차원 좌표값으로 3차원 특징점을 등록한다. 예를 들면, 상기 카메라가 촬영한 영상을 다운 샘플링(Down-Sampling)하여 획득된 다수개의 영상으로부터 특징점 및 깊이(depth)값을 추출하고, 이로부터 3차원 좌표값을 계산할 수 있다. 또는, 상기 카메라가 촬영한 영상으로부터 깊이 정보에 따라서 배경(Background) 영역과 전경(Foreground) 영역을 추출한 후 상대적으로 깊이값이 작은 전경 영역의 깊이값으로부터 3차원 좌표값을 계산할 수 있다. 그러나 상술한 방법들은 상대적으로 다수회의 연산을 필요로 하므로, 이를 처리하기 위한 별도의 프로세서, 즉 그래픽 처리 장치(Graphics Processing Unit, GPU) 등이 필요로 하게 될 뿐만 아니라, 연산의 처리를 위한 시간이 소요될 수 있다.Conventionally, a three-dimensional feature point is registered as a three-dimensional coordinate value calculated through a plurality of calculations from an image taken by the camera. For example, a feature point and a depth value may be extracted from a plurality of images obtained by down-sampling an image taken by the camera, and three-dimensional coordinate values may be calculated therefrom. Alternatively, a background region and a foreground region may be extracted from the image captured by the camera, and a three-dimensional coordinate value may be calculated from a depth value of a foreground region having a relatively small depth value. However, since the above-described methods require a relatively large number of calculations, a separate processor for processing the same, that is, a graphics processing unit (GPU) or the like is required, It can take.

또한 종래에는, 외부의 조건, 예를 들면, 장애물이나 조명에 의한 음영의 변화 등에 의하여 상기 카메라가 촬영한 영상으로부터 특징점의 깊이값을 계산하는 것이 불가능하게 될 수 있다. 이와 같은 경우에는, 실질적으로 특징점의 추출하지 못함으로써, 정확한 3차원 정보를 등록하지 못하게 된다.In addition, conventionally, it may become impossible to calculate the depth value of a feature point from an image taken by the camera due to external conditions, for example, a change in shade due to an obstacle or illumination. In such a case, since the feature points can not be extracted substantially, accurate three-dimensional information can not be registered.

본 발명은 상술한 바와 같은 종래 기술에 의한 문제점을 해결하기 위한 것으로, 본 발명의 목적은, 보다 간단하고, 정확한 특징점의 추출 및 등록이 가능한 영상 기반 위치 인식을 위한 특징점 등록 장치, 이를 사용한 등록 방법 및 이를 포함하는 로봇 청소기를 제공하는 것이다.It is an object of the present invention to provide a feature point registration device for image-based location recognition that enables simpler and more accurate extraction and registration of feature points, and a registration method using the same And a robot cleaner including the same.

상술한 목적을 달성하기 위한 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치의 실시예의 일 양태는, 2D 영상 및 깊이 영상을 입력하는 영상 입력기; 상기 영상 입력기가 입력한 2D 영상 및 깊이 영상으로부터 특징점 및 깊이 정보를 추출하고, 추출된 상기 특징점 및 깊이 정보를 매칭하여 기술자를 생성하는 영상 처리기; 및 상기 영상 처리기에서 생성된 상기 기술자를 포함하는 상기 특징점을 등록하는 영상 등록기; 를 포함한다.According to another aspect of the present invention, there is provided a feature point registration apparatus for image-based location recognition, the feature point registration apparatus comprising: a video input unit for inputting a 2D image and a depth image; An image processor for extracting feature points and depth information from 2D images and depth images input by the image input device, and for generating descriptors by matching the extracted feature points and depth information; An image register for registering the feature points including the descriptor generated in the image processor; .

본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 방법의 실시예의 일 양태는, 제1 및 제2영상 입력부가, 2D 영상 및 깊이 영상을 입력하는 단계; 특징점 추출부 및 깊이 정보 추출부가, 상기 2D 영상 및 깊이 영상으로부터 특징점 및 깊이 정보를 각각 추출하는 단계; 특징점 매칭부가, 추출된 상기 특징점 및 깊이 정보를 매칭하는 단계; 기술자 생성부가, 추출된 상기 특징점 및 깊이 정보로부터 기술자를 생성하는 단계; 및 특징점 등록부가, 상기 기술자를 포함하는 상기 특징점을 등록하는 단계; 를 포함한다.One aspect of the feature point registration method for image-based location recognition according to the present invention includes: inputting first and second image input units, a 2D image and a depth image; The feature point extracting unit and the depth information extracting unit extracting feature points and depth information from the 2D image and the depth image, respectively; Matching the feature point matching unit with the extracted feature point and depth information; Generating a descriptor from the extracted feature point and depth information; And registering the minutiae point including the descriptor; .

본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치, 이를 사용한 등록 방법 및 이를 포함하는 로봇 청소기의 실시예에서는, 2D 영상 및 깊이 영상으로부터 특징점 및 깊이 정보를 각각 추출한 후, 이들을 매칭하여 기술자를 포함하는 특징점을 생성한다. 또한 본 발명의 실시예에서는, 추출된 특징점에 대응하는 깊이 정보가 존재하지 않는 경우에는, 특징점에 인접하는 다른 픽셀의 깊이값 중 최소값을 특징점의 깊이값으로 추정한다. 따라서 본 발명의 실시예에 의하면, 보다 간단하고, 정확한 특징점의 추출 및 등록이 가능해지는 효과를 기대할 수 있다.In the embodiment of the feature point registration device for image-based position recognition, the registration method using the same, and the robot cleaner including the same, the feature point and depth information are extracted from the 2D image and the depth image, respectively, . In the embodiment of the present invention, when there is no depth information corresponding to the extracted feature points, the minimum value among the depth values of other pixels adjacent to the feature points is estimated as the depth value of the feature points. Therefore, according to the embodiment of the present invention, it is possible to expect a simpler and more accurate feature point extraction and registration.

도 1은 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치의 실시예를 구성하는 SLAM 장치를 보인 블럭도.
도 2는 본 발명의 실시예에 의한 특징점 추출 과정을 보인 제어 흐름도.
도 3 내지 도 7은 본 발명의 실시예에서 특징점 추출 과정을 보인 개념도.
도 8은 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치를 포함하는 로봇 청소기의 실시예를 보인 사시도.
도 9는 본 발명의 실시예를 보인 블럭도.
1 is a block diagram showing an SLAM apparatus constituting an embodiment of a feature point registration apparatus for image-based position recognition according to the present invention;
2 is a control flowchart showing a minutiae point extraction process according to an embodiment of the present invention.
FIGS. 3 to 7 are conceptual diagrams showing a minutiae point extraction process in an embodiment of the present invention. FIG.
FIG. 8 is a perspective view illustrating an embodiment of a robot cleaner including a feature point registration device for image-based position recognition according to the present invention. FIG.
9 is a block diagram showing an embodiment of the present invention.

이하에서는 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치의 실시예를 첨부된 도면을 참조하여 보다 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of a feature point registration apparatus for image-based position recognition according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치의 실시예를 구성하는 SLAM 장치를 보인 블럭도이다.1 is a block diagram showing an SLAM apparatus constituting an embodiment of a feature point registration apparatus for image-based position recognition according to the present invention.

도 1을 참조하면, 본 실시예에 의한 특징점 등록 장치는, 영상 입력기(100), 영상 처리기(200) 및 영상 등록기(300)를 포함한다. 상기 영상 입력기(100)는 특징점의 추출 및 등록을 위한 파사체의 영상을 입력하는 부분이다. 그리고 상기 영상 처리기(200)는, 상기 영상 입력기(100)가 입력한 영상을 통하여 특징점(Feature) 및 깊이(Depth) 정보를 추출하고, 각 특징점에 대한 기술자(Descreptor)를 생성한다. 상기 영상 등록기(300)에는, 상기 영상 처리기(200)에서 추출된 특징점이 등록된다. Referring to FIG. 1, the minutiae registration apparatus according to the present embodiment includes a video input device 100, an image processor 200, and an image register 300. The image input device 100 is a part for inputting images of a subject for extracting and registering minutiae points. The image processor 200 extracts Feature and Depth information from the image input by the image input device 100 and generates a descriptor for each feature point. The feature points extracted from the image processor 200 are registered in the image register 300.

보다 상세하게는, 상기 영상 입력기(100)는 제1영상 입력부(110) 및 제2영상 입력부(120)를 포함한다. 상기 제1영상 입력부(110)는, 피사체의 2D 영상(2D Image)를 입력하고, 상기 제2영상 입력부(120)는, 피사체의 깊이 영상(Depth Image)를 입력한다. 상기 제1영상 입력부(110)로는, 일반적인 피사체의 컬러를 촬영할 수 있는 CMOS(Complementary Metal Oxide Semiconductor) 카메라나 CCD(Charge-Coupled Device) 카메라 등이 사용될 수 있다. 그리고 상기 제2영상 입력부(120)는, 피사체로의 빛의 조사 및 반사 사이의 시간차를 측정하여 깊이값을 산출하고, 이를 영상으로 표현한다. 예를 들면, 상기 제2영상 입력부(120)는, 적외선을 피사체에 조사하고, 반사되는 적외선을 감지하여 양자 사이의 시간차를 측정하며, 이를 통하여 산출된 깊이값을 영상으로 표현할 수 있다.In more detail, the image input device 100 includes a first image input unit 110 and a second image input unit 120. [ The first image input unit 110 inputs a 2D image of a subject and the second image input unit 120 inputs a depth image of a subject. As the first image input unit 110, a CMOS (Complementary Metal Oxide Semiconductor) camera or a CCD (Charge-Coupled Device) camera capable of capturing a color of a general subject can be used. The second image input unit 120 calculates a depth value by measuring a time difference between the irradiation and reflection of light to a subject, and expresses the depth value as an image. For example, the second image input unit 120 irradiates infrared rays to a subject, detects reflected infrared rays, measures a time difference between them, and can express the calculated depth value as an image.

그리고 상기 영상 처리기(200)는, 특징점 추출부(210), 깊이 정보 추출부(220), 특징점 매칭부(230) 및 기술자 생성부(240)를 포함한다. 상기 특징점 추출부(210)는, 상기 제1영상 입력부(110)가 입력한 2D 영상으로부터 특징점을 추출한다. 예를 들면, 상기 2D 영상에 존재하는 코너가 특징점으로 추출될 수 있다. 그리고 상기 깊이 정보 추출부(220)는 상기 제2영상 입력부(120)가 입력한 깊이 영상으로부터 깊이 정보, 즉 깊이값을 추출한다. 상기 특징점 매칭부(230)는, 서로 대응되는 상기 특징점 및 깊이 정보를 매칭시킨다. 이때 상기 특징점 매칭부(230)는, 상기 특징점에 해당하는 상기 깊이 정보가 부존재하는 경우에, 상기 특징점에 인접하는 다른 픽셀의 깊이값 중 최소값을 상기 특징점의 깊이값으로 추정한다. 예를 들면, 주변의 음영이나 장애물에 의하여 상기 깊이 이미지로부터 상기 특징점의 깊이값이 0으로 표현되는 경우에는, 실질적인 깊이값을 추출하지 못하게 된다. 이와 같은 경우에, 상기 특징점 매칭부(230)는, 상기 특징점에 인접하는 다른 픽셀의 깊이값 중 최소값을 상기 특징점의 깊이값으로 추정한다. 예를 들면, 상기 특징점을 중심으로 m×n 영역에 속하는 픽셀의 깊이값 중 최소값을 상기 특징점의 깊이값으로 추정할 수 있다. 이는 통상적으로 배경(Background)에 비하여 전경(Foreground)에서 상기 특징점이 추출되기 때문이다. 그리고 상기 기술자 생성부(240)는, 상기 특징점 추출부(210)에서 추출된 특징점 및 상기 깊이 정보 추출부(220)에서 추출한 깊이 정보로부터 기술자를 생성한다. 예를 들면, 상기 기술자 생성부(240)는, 상기 특징점 추출부(210)에서 추출된 특징점 및 상기 깊이 정보 추출부(220)에서 추출한 깊이 정보를 서로 매칭시켜서 SIFT(Scale Invariant Feature Transform) 기술자를 생성할 수 있다. The image processor 200 includes a feature point extraction unit 210, a depth information extraction unit 220, a feature point matching unit 230, and a descriptor generation unit 240. The feature point extraction unit 210 extracts feature points from the 2D image input by the first image input unit 110. For example, the corners existing in the 2D image may be extracted as feature points. The depth information extracting unit 220 extracts depth information, that is, a depth value, from the depth image input by the second image input unit 120. The feature point matching unit 230 matches the feature points and the depth information corresponding to each other. In this case, when the depth information corresponding to the feature point does not exist, the feature point matching unit 230 estimates a minimum value among the depth values of other pixels adjacent to the feature point as a depth value of the feature point. For example, if the depth value of the feature point is represented as 0 from the depth image by surrounding shadows or obstacles, the actual depth value can not be extracted. In such a case, the feature point matching unit 230 estimates the minimum value among the depth values of other pixels adjacent to the feature point as the depth value of the feature point. For example, a minimum value among the depth values of pixels belonging to the mxn area around the feature point can be estimated as the depth value of the feature point. This is because the feature points are usually extracted in the foreground relative to the background. The descriptor generator 240 generates a descriptor from the minutiae extracted by the minutiae extraction unit 210 and the extracted depth information from the depth information extraction unit 220. [ For example, the descriptor generating unit 240 may match a feature point extracted by the feature point extracting unit 210 and the depth information extracted by the depth information extracting unit 220 to form a SIFT (Scale Invariant Feature Transform) descriptor Can be generated.

한편 상기 영상 등록기(300)는, 특징점 등록부(310) 및 데이터 베이스(320)를 포함한다. 상기 특징점 등록부(310)는, 상기 특징점 매칭부(230)로부터 전달받은 상기 기술자를 포함하는 상기 특징점을 상기 데이터 베이스(320)에 등록한다. The image register 300 includes a minutia point register 310 and a data base 320. The minutia point registering unit 310 registers the minutiae pointing to the descriptor received from the minutia matching unit 230 in the database 320.

이하에서는 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 방법의 실시예를 첨부된 도면을 참조하여 보다 상세하게 설명한다.Hereinafter, embodiments of a feature point registration method for image-based position recognition according to the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 실시예에 의한 특징점 추출 과정을 보인 제어 흐름도이고, 도 3 내지 도 7은 본 발명의 실시예에서 특징점 추출 과정을 보인 개념도이다.FIG. 2 is a control flowchart showing a minutiae point extraction process according to an embodiment of the present invention, and FIGS. 3 to 7 are conceptual diagrams showing a minutiae point extraction process in an embodiment of the present invention.

먼저 도 2를 참조하면, 영상 입력기(100), 즉 제1 및 제2영상 입력부(110)(120)가 각각 피사체에 대한 2D 영상 및 깊이 영상을 입력한다.(S10) 이때 상기 제1영상 입력부(110)가 입력한 2D 영상 및 상기 제2영상 입력부(120)가 입력한 깊이 영상은, 각각 도 3 및 도 4를 참조하면, 용이하게 이해될 수 있을 것이다.2, the image input device 100, that is, the first and second image input units 110 and 120, respectively, inputs a 2D image and a depth image of a subject (S10). At this time, The 2D image input by the first image input unit 110 and the depth image input by the second image input unit 120 can be easily understood with reference to FIG. 3 and FIG. 4, respectively.

다음으로, 영상 처리기(200)가, 상기 영상 입력기(100)가 입력한 영상을 통하여 특징점 및 깊이 정보를 추출하고, 각 특징점에 대한 기술자를 생성한다.(S20)(S30) 그리고 상기 영상 처리기(200)는, 상기 특징점에 해당하는 상기 깊이 정보의 존재 여부를 판단한 후 상기 특징점 및 이에 해당하는 깊이 정보를 매칭한다.(S50)(S60)Next, the image processor 200 extracts feature points and depth information from the images input by the image input device 100, and generates descriptors for the feature points (S20) (S30). Then, the image processor 200 determines whether or not the depth information corresponding to the minutia is present, and then matches the minutiae and corresponding depth information (S50) (S60)

보다 상세하게는, 상기 제20단계에서, 특징점 추출부(210) 및 깊이 정보 추출부(220)가 각각 상기 제1영상 입력부(110)가 입력한 2D 영상 및 상기 제2영상 입력부(120)가 입력한 깊이 영상으로부터 특징점 및 깊이 정보를 각각 추출한다.(도 3 및 도 4참조) 그리고 상기 제30단계에서, 특징점 매칭부(230)가, 상기 특징점 추출부(210)에서 추출한 상기 특징점에 해당하는 상기 깊이 정보, 즉 깊이값이 존재하는지 여부를 판단한다. 다시 말하면, 상기 제30단계에서는, 상기 깊이 정보 추출부(220)가 상기 특징점에 해당하는 상기 깊이 정보를 상기 깊이 영상으로부터 추출할 수 있는지 여부를 판단한다고 할 수 있다. 그리고 상기 제30단계에서 상기 특징점에 해당하는 상기 깊이 정보가 존재하는 것으로 판단되면, 상기 제40단계에서, 기술자 생성부(240)가 기술자를 생성한다. 이때 상기 기술자로는, SIFT 기술자를 예로 들 수 있다.More specifically, in step 20, the feature point extracting unit 210 and the depth information extracting unit 220 extract the 2D image input by the first image input unit 110 and the 2D image input by the second image input unit 120, respectively (Refer to FIG. 3 and FIG. 4). In step 30, the feature point matching unit 230 extracts feature points and depth information corresponding to the feature points extracted from the feature point extraction unit 210 That is, a depth value. In other words, in step 30, the depth information extracting unit 220 may determine whether or not the depth information corresponding to the feature point can be extracted from the depth image. If it is determined in step 30 that the depth information corresponding to the feature point exists, in step 40, the descriptor generating unit 240 generates a descriptor. The descriptor may be SIFT descriptor.

한편 상기 제30단계에서 상기 특징점에 해당하는 상기 깊이 정보가 부존재하는 것으로 판단되면, 상기 특징점 매칭부(230)는, 상기 특징점에 인접하는 픽셀의 깊이값 중 최소값을 상기 특징점의 깊이값으로 추정한다.(S50) 예를 들면, 도 6에 도시된 바와 같이 상기 특징점 추출부(210)가 특징점(C)을 추출할 수 있다. 그런데 도 7에 도시된 바와 같이, 상기 깊이 영상에는 상기 특징점(C)에 해당하는 상기 깊이 정보가 0으로 표시된다. 예를 들면, 주변의 음영이나 장애물 등에 의하여 상기 특징점(C)에 해당하는 상기 깊이 정보가 상기 깊이 영상에 표현되지 못할 수 있다. 이와 같은 경우에는, 상기 특징점 매칭부(230)가 상기 특징점(C)에 인접하는 다수개의 픽셀, 아래의 [표 1]을 참조하면, 상기 특징점(C)을 중심으로는 5×5 영역에 속하는 픽셀(A)의 깊이값 중 최소값인 976을 상기 특징점(C)의 깊이값으로 추정한다. 그러나 상기 특징점(C)의 깊이값을 추정하기 위한 영역이 5×5 영역으로 한정되는 것은 아니다. 그리고 상기 제50단계에서 상기 특징점의 깊이값이 추정되면, 상기 제40단계가 수행된다.Meanwhile, if it is determined in step 30 that the depth information corresponding to the feature point does not exist, the feature point matching unit 230 estimates the minimum depth value of the pixels adjacent to the feature point as the depth value of the feature point (S50) For example, as shown in Fig. 6, the minutiae point extracting unit 210 can extract the minutiae point (C). However, as shown in FIG. 7, depth information corresponding to the feature point C is displayed as 0 in the depth image. For example, the depth information corresponding to the feature point C may not be expressed in the depth image due to surrounding shadows or obstacles. In this case, referring to Table 1 below, when the feature point matching unit 230 refers to a plurality of pixels adjacent to the feature point C, 976, which is the minimum value among the depth values of the pixel A, is estimated as the depth value of the minutiae point (C). However, the region for estimating the depth value of the feature point C is not limited to the 5x5 region. If the depth value of the feature point is estimated in step 50, step 40 is performed.

12781278 12701270 12841284 12731273 12751275 00 00 00 10341034 10271027 00 00 0(특징점)0 (feature point) 00 10881088 00 00 00 00 10701070 00 00 976976 978978 987987

그리고 상기 제40단계에서, 상기 특징점에 대한 상기 기술자가 생성되면, 영상 등록기(300), 즉 특징점 등록부(310)가, 상기 기술자를 포함하는 상기 특징점을 데이터 베이스(320)에 등록한다.(도 5참조)In operation 40, when the descriptor for the feature point is generated, the image register 300, that is, the minutia point registration unit 310 registers the minutiae including the descriptor in the database 320 5)

이하에서는 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치를 포함하는 로봇 청소기의 실시예를 첨부된 도면을 참조하여 보다 상세하게 설명한다.Hereinafter, an embodiment of a robot cleaner including a feature point registration device for image-based position recognition according to the present invention will be described in detail with reference to the accompanying drawings.

도 8은 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치를 포함하는 로봇 청소기의 실시예를 보인 사시도이고, 도 9는 본 발명의 실시예를 보인 블럭도이다. 본 실시예의 구성 요소 중 상술한 본 발명의 실시예의 구성 요소와 동일한 구성 요소에 대해서는, 도 1 내지 도 7의 도면 부호를 원용하고, 이에 대한 상세한 설명을 생략하기로 한다.FIG. 8 is a perspective view illustrating an embodiment of a robot cleaner including a feature point registration device for image-based position recognition according to the present invention, and FIG. 9 is a block diagram illustrating an embodiment of the present invention. The constituent elements of this embodiment that are the same as the constituent elements of the above-described embodiment of the present invention are referred to with reference to Figs. 1 to 7, and a detailed description thereof will be omitted.

도 7 및 도 8을 참조하면, 본 실시예에 의한 로봇 청소기는, 설정된 영역을 주행하면서 청소하는 동작을 수행한다. 상기 로봇 청소기는, 케이싱(10), 주행부(20), 흡입부(30), 영상 입력기(100), 영상 처리기(200), 영상 등록기(300) 및 제어부(40)를 포함한다.Referring to FIGS. 7 and 8, the robot cleaner according to the present embodiment carries out an operation of traveling while moving in a predetermined area. The robot cleaner includes a casing 10, a traveling unit 20, a suction unit 30, an image input device 100, an image processor 200, an image registration device 300, and a control unit 40.

상기 케이싱(10)은, 상기 로봇 청소기의 외관을 형성한다. 그리고 상기 케이싱(10)의 내부에는, 상기 로봇 청소기를 구성하는 부품, 즉 상기 주행부(20), 흡입부(30), 영상 입력기(100), 영상 처리기(200), 영상 등록기(300) 및 제어부(40)가 설치된다. The casing (10) forms the appearance of the robot cleaner. In the casing 10, parts constituting the robot cleaner, that is, the traveling unit 20, the suction unit 30, the image input device 100, the image processor 200, the image recorder 300, A control unit 40 is provided.

상기 주행부(20)는 상기 케이싱(10)의 주행을 위한 구동력을 제공한다. 예를 들면, 상기 주행부(20)는, 주행 모터(미도시) 및 상기 주행 모터에 의하여 회전하는 주행 바퀴(미도시)를 포함할 수 있다.The running section 20 provides a driving force for running the casing 10. [ For example, the traveling section 20 may include a traveling motor (not shown) and a traveling wheel (not shown) rotated by the traveling motor.

그리고 상기 흡입부(30)는, 상기 케이싱(10)의 내부로 이물질을 흡입하기 위한 구동력을 제공한다. 예를 들면, 상기 흡입부(30)로는, 흡입 모터(미도시) 및 상기 흡입 모터에 의하여 회전하는 흡입 팬(미도시)을 포함할 수 있다.The suction unit 30 provides a driving force for sucking foreign matter into the casing 10. [ For example, the suction unit 30 may include a suction motor (not shown) and a suction fan (not shown) rotated by the suction motor.

상기 영상 입력기(100) 및 영상 처리기(200)는, 각각 상기 케이싱(10)의 주행 방향으로 상기 케이싱(10)의 전방에 해당하는 기설정된 영역의 2D 영상 및 깊이 영상을 입력하거나, 상기 영상 입력기(100)가 입력한 2D 영상 및 깊이 영상으로부터 특징점 및 깊이 정보를 추출하고, 추출된 상기 특징점 및 깊이 정보를 매칭하여 기술자를 생성하는 역할을 한다. 그리고 상기 영상 등록기(300)는, 상기 영상 처리기(200)에서 생성된 상기 기술자를 포함하는 상기 특징점을 등록하는 역할을 한다. 실질적으로, 상기 영상 입력기(100), 영상 처리기(200) 및 영상 등록기(300)의 구체적인 구성 및 작용은 상술한 본 발명의 제1실시예의 그것들과 동일하므로, 이에 대한 설명은 생략한다. The image input device 100 and the image processor 200 may respectively input a 2D image and a depth image of a predetermined area corresponding to the front of the casing 10 in the traveling direction of the casing 10, Extracts feature points and depth information from 2D images and depth images input by the image processor 100, and generates descriptors by matching the extracted feature points and depth information. The image register 300 registers the minutiae including the descriptor generated in the image processor 200. Practically, the detailed configuration and operation of the image input device 100, the image processor 200, and the image recorder 300 are the same as those of the first embodiment of the present invention, and a description thereof will be omitted.

상기 제어부(40)는, 상기 로봇 청소기를 구성하는 부품, 즉 상기 주행부(20), 흡입부(30), 영상 입력기(100), 영상 처리기(200) 및 영상 등록기(300)의 동작을 제어한다. 또한 상기 제어부(40)는, 상기 영상 등록기(300)에 등록된 상기 특징점에 정보를 기반으로 지도를 작성하고, 상기 영상 처리기(200)에서 실시간으로 추출된 특징점의 좌표를 작성된 지도 상에서 비교함으로써, 지도 상에서 상기 케이싱(10), 즉 상기 로봇 청소기의 위치를 인식한다. 그리고 상기 제어부(40)는, 지도 상의 상기 로봇 청소기의 위치에 따라서 상기 로봇 청소기가 장애물에 의하여 간섭받지 않고 주행하면서 설정된 영역 전체를 청소할 수 있도록 상기 주행부(20) 및 흡입부(30)의 동작을 제어한다.The control unit 40 controls the operations of the components constituting the robot cleaner, that is, the running unit 20, the suction unit 30, the image input device 100, the image processor 200, do. The control unit 40 creates a map based on the information on the minutiae registered in the video registrar 300 and compares the coordinates of the minutiae extracted in real time in the image processor 200 on the created map, On the map, the position of the casing 10, i.e., the robot cleaner. The control unit 40 controls the operation of the travel unit 20 and the suction unit 30 so that the robot cleaner can clean the entire area while traveling without being interfered with by the obstacle according to the position of the robot cleaner on the map .

이와 같은 본 발명의 기본적인 기술적 사상의 범주 내에서 당업계의 통상의 지식을 가진 자에게 있어서는 다른 많은 변형이 가능함은 물론이고, 본 발명의 권리범위는 첨부한 특허청구범위에 기초하여 해석되어야 할 것이다. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the appended claims and their equivalents. .

Claims (11)

2D 영상 및 깊이 영상을 입력하는 영상 입력기;
상기 영상 입력기가 입력한 2D 영상 및 깊이 영상으로부터 특징점 및 깊이 정보를 추출하고, 추출된 상기 특징점 및 깊이 정보를 매칭하여 기술자를 생성하는 영상 처리기; 및
상기 영상 처리기에서 생성된 상기 기술자를 포함하는 상기 특징점을 등록하는 영상 등록기; 를 포함하고,
상기 영상 처리기는, 상기 특징점에 해당하는 상기 깊이 정보를 상기 깊이 영상으로부터 추출할 수 있는지 여부를 판단하고, 상기 깊이 영상으로부터 상기 특징점에 해당하는 상기 깊이 정보를 추출하지 못하는 경우에는, 상기 특징점을 중심으로 하는 m×n 영역에 속하는 픽셀들의 깊이값 중 최소값을 상기 특징점의 깊이값으로 추정하는 영상 기반 위치 인식을 위한 특징점 등록 장치.
A video input device for inputting a 2D image and a depth image;
An image processor for extracting feature points and depth information from 2D images and depth images input by the image input device, and for generating descriptors by matching the extracted feature points and depth information; And
An image register for registering the feature points including the descriptors generated in the image processor; Lt; / RTI >
Wherein the image processor determines whether or not the depth information corresponding to the feature point can be extracted from the depth image and if the depth information corresponding to the feature point can not be extracted from the depth image, Wherein the minimum value of the depth values of the pixels belonging to the mxn area is estimated as the depth value of the feature point.
제 1 항에 있어서,
상기 영상 입력기는,
상기 2D 영상을 입력하는 제1영상 입력부; 및
상기 깊이 영상을 입력하는 제2영상 입력부; 를 포함하는 영상 기반 위치 인식을 위한 특징점 등록 장치.
The method according to claim 1,
The image input device includes:
A first image input unit for inputting the 2D image; And
A second image input unit for inputting the depth image; And a feature point registration device for image-based location recognition.
삭제delete 삭제delete 제 1 항에 있어서,
상기 영상 처리기는,
상기 2D 영상으로부터 상기 특징점을 추출하는 특징점 추출부;
상기 깊이 영상으로부터 상기 깊이 정보를 추출하는 깊이 정보 추출부; 및
상기 특징점 추출부가 추출한 상기 특징점 및 상기 깊이 정보 추출부가 추출한 상기 깊이 정보를 매칭하는 특징점 매칭부; 를 포함하는 영상 기반 위치 인식을 위한 특징점 등록 장치.
The method according to claim 1,
Wherein the image processor comprises:
A feature point extracting unit for extracting the feature points from the 2D image;
A depth information extracting unit for extracting the depth information from the depth image; And
A feature point matching unit for matching the feature points extracted by the feature point extraction unit and the depth information extracted by the depth information extraction unit; And a feature point registration device for image-based location recognition.
제 5 항에 있어서,
상기 특징점 추출부는, 상기 특징점에 해당하는 상기 깊이 정보가 상기 깊이 영상에서 0으로 표시되는 경우에는, 상기 특징점을 중심으로 하는 m×n 영역에 속하는 픽셀들의 깊이값 중 최소값을 상기 특징점의 깊이값으로 추정하는 영상 기반 위치 인식을 위한 특징점 등록 장치.
6. The method of claim 5,
Wherein the feature point extracting unit extracts a minimum value of depth values of pixels belonging to an mxn area centered on the feature point as a depth value of the feature point when the depth information corresponding to the feature point is displayed as 0 in the depth image A feature point registration device for image - based location recognition.
제1 및 제2영상 입력부가, 2D 영상 및 깊이 영상을 입력하는 단계;
특징점 추출부 및 깊이 정보 추출부가, 상기 2D 영상 및 깊이 영상으로부터 특징점 및 깊이 정보를 각각 추출하는 단계;
특징점 매칭부가, 추출된 상기 특징점 및 깊이 정보를 매칭하는 단계;
기술자 생성부가, 추출된 상기 특징점 및 깊이 정보로부터 기술자를 생성하는 단계; 및
특징점 등록부가, 상기 기술자를 포함하는 상기 특징점을 등록하는 단계; 를 포함하고,
상기 특징점 및 깊이 정보를 각각 추출하는 단계는,
상기 특징점에 해당하는 상기 깊이 정보를 상기 깊이 영상으로부터 추출할 수 있는지 여부를 판단하고, 상기 깊이 영상으로부터 상기 특징점에 해당하는 상기 깊이 정보를 추출하지 못하는 경우에는, 상기 특징점을 중심으로 하는 m×n 영역에 속하는 픽셀들의 깊이값 중 최소값을 상기 특징점의 깊이값으로 추정하는 영상 기반 위치 인식을 위한 특징점 등록 방법.
Inputting first and second image input units, a 2D image and a depth image;
The feature point extracting unit and the depth information extracting unit extracting feature points and depth information from the 2D image and the depth image, respectively;
Matching the feature point matching unit with the extracted feature point and depth information;
Generating a descriptor from the extracted feature point and depth information; And
The minutia point registering unit registers the minutiae including the descriptor; Lt; / RTI >
Extracting the feature points and the depth information, respectively,
Determining whether or not the depth information corresponding to the feature point can be extracted from the depth image, and if it is not possible to extract the depth information corresponding to the feature point from the depth image, And estimating a minimum value among the depth values of the pixels belonging to the region as a depth value of the feature point.
삭제delete 제 7 항에 있어서,
상기 특징점 매칭부는, 상기 깊이 정보 추출부가 추출한 깊이값이 0인 경우에는, 상기 특징점을 중심으로 하는 m×n 영역에 속하는 픽셀들의 깊이값 중 최소값을 상기 특징점의 깊이값으로 추정하는 영상 기반 위치 인식을 위한 특징점 등록 방법.
8. The method of claim 7,
The feature point matching unit may further include an image-based position recognition unit that estimates a minimum value among depth values of pixels belonging to an mxn area around the feature point as a depth value of the feature point, when the depth value extracted by the depth information extraction unit is 0 A minutiae registration method for.
삭제delete 삭제delete
KR1020120005535A 2012-01-18 2012-01-18 Apparatus and method of feature registration for image based localization and robot cleaner comprising the same apparatus KR101980677B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120005535A KR101980677B1 (en) 2012-01-18 2012-01-18 Apparatus and method of feature registration for image based localization and robot cleaner comprising the same apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120005535A KR101980677B1 (en) 2012-01-18 2012-01-18 Apparatus and method of feature registration for image based localization and robot cleaner comprising the same apparatus

Publications (2)

Publication Number Publication Date
KR20130084747A KR20130084747A (en) 2013-07-26
KR101980677B1 true KR101980677B1 (en) 2019-05-22

Family

ID=48995214

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120005535A KR101980677B1 (en) 2012-01-18 2012-01-18 Apparatus and method of feature registration for image based localization and robot cleaner comprising the same apparatus

Country Status (1)

Country Link
KR (1) KR101980677B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101503904B1 (en) * 2008-07-07 2015-03-19 삼성전자 주식회사 Apparatus and method for building map for mobile robot
KR20110064622A (en) * 2009-12-08 2011-06-15 삼성전자주식회사 3d edge extracting method and apparatus using tof camera
KR101633620B1 (en) * 2010-01-04 2016-06-27 삼성전자 주식회사 Feature registration apparatus for image based localization and method the same
KR101686171B1 (en) * 2010-06-08 2016-12-13 삼성전자주식회사 Apparatus for recognizing location using image and range data and method thereof

Also Published As

Publication number Publication date
KR20130084747A (en) 2013-07-26

Similar Documents

Publication Publication Date Title
US10192313B2 (en) Networked capture and 3D display of localized, segmented images
KR101758058B1 (en) Apparatus and method for estimating camera motion using depth information, augmented reality system
US9807365B2 (en) System and method for hybrid simultaneous localization and mapping of 2D and 3D data acquired by sensors from a 3D scene
US10762386B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
US8781217B2 (en) Analysis of three-dimensional scenes with a surface model
EP2531980B1 (en) Depth camera compatibility
KR101633620B1 (en) Feature registration apparatus for image based localization and method the same
US8687044B2 (en) Depth camera compatibility
EP2602761A1 (en) Object detection device, object detection method, and program
KR20130066438A (en) Image processing apparatus and image processing method
JP2011123071A (en) Image capturing device, method for searching occlusion area, and program
JP5297779B2 (en) Shape measuring apparatus and program
JP2010133752A (en) Shape measuring device and program
TW201705088A (en) Generating a disparity map based on stereo images of a scene
US9947106B2 (en) Method and electronic device for object tracking in a light-field capture
JP2014170368A (en) Image processing device, method and program and movable body
KR101980677B1 (en) Apparatus and method of feature registration for image based localization and robot cleaner comprising the same apparatus
Hadi et al. Fusion of thermal and depth images for occlusion handling for human detection from mobile robot
Zheng Feature recognition and obstacle detection for drive assistance in indoor environments
Mkhitaryan et al. RGB-D sensor data correction and enhancement by introduction of an additional RGB view
Abdelhamid et al. Extracting depth information using a correlation matching algorithm
Niijima et al. Extrinsic Calibration of Multiple LiDARs for a Mobile Robot based on Floor Plane And Object Segmentation
Hau et al. Combined Plane and Point Registration of Sequential Depth Images for Indoor Localization
KR20240076344A (en) SLAM that can be implemented at low cost and uses sensor fusion technology
Wang et al. Motion estimation for a mobile robot based on real-time stereo vision system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant