KR101980677B1 - Apparatus and method of feature registration for image based localization and robot cleaner comprising the same apparatus - Google Patents
Apparatus and method of feature registration for image based localization and robot cleaner comprising the same apparatus Download PDFInfo
- Publication number
- KR101980677B1 KR101980677B1 KR1020120005535A KR20120005535A KR101980677B1 KR 101980677 B1 KR101980677 B1 KR 101980677B1 KR 1020120005535 A KR1020120005535 A KR 1020120005535A KR 20120005535 A KR20120005535 A KR 20120005535A KR 101980677 B1 KR101980677 B1 KR 101980677B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- depth
- feature point
- depth information
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 230000004807 localization Effects 0.000 title description 2
- 238000000605 extraction Methods 0.000 claims abstract description 16
- 239000000284 extract Substances 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2836—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
- A47L9/2852—Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 영상 기반 위치 인식을 위한 특징점 등록 장치 및 등록 방법에 관한 것이다. 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치의 실시예의 일 양태는, 2D 영상 및 깊이 영상을 입력하는 영상 입력기; 상기 영상 입력기가 입력한 2D 영상 및 깊이 영상으로부터 특징점 및 깊이 정보를 추출하고, 추출된 상기 특징점 및 깊이 정보를 매칭하여 기술자를 생성하는 영상 처리기; 및 상기 영상 처리기에서 생성된 상기 기술자를 포함하는 상기 특징점을 등록하는 영상 등록기; 를 포함한다. 따라서 본 발명의 실시예에 의하면, 보다 간단하고, 정확한 특징점의 추출 및 등록이 가능해지는 효과를 기대할 수 있다.The present invention relates to a feature point registration apparatus and a registration method for image-based position recognition. One aspect of an embodiment of a feature point registration apparatus for image-based position recognition according to the present invention is a feature point registration apparatus for inputting a 2D image and a depth image; An image processor for extracting feature points and depth information from 2D images and depth images input by the image input device, and for generating descriptors by matching the extracted feature points and depth information; An image register for registering the feature points including the descriptor generated in the image processor; . Therefore, according to the embodiment of the present invention, it is possible to expect a simpler and more accurate feature point extraction and registration.
Description
본 발명은 영상 기반 위치 인식을 위한 특징점 등록 장치, 이를 사용한 등록 방법 및 이를 포함하는 로봇 청소기에 관한 것이다.The present invention relates to a feature point registration apparatus for image-based position recognition, a registration method using the feature point registration apparatus, and a robot cleaner including the same.
이동형 로봇이란, 주행하면서 기설정된 동작을 수행하는 것으로, 예를 들면, 로봇형 청소기나 로봇형 의료기기 등이 있다. 이와 같은 이동형 로봇의 동작 수행을 위해서는, 지도의 작성 및 맵 상에서의 절대 위치를 인식하는 작업이 필요하다. 이와 같은 지도의 작성 및 절대 위치의 인식을 위한 기술의 대표적 예로는, 동시 위치 인식 및 지도 작성(Simultaneous Localization And Mapping; SLAM) 기술이 있다.A mobile robot is a robot that performs a predetermined operation while traveling, for example, a robot-type vacuum cleaner or a robot-type medical device. In order to perform such an operation of the mobile robot, it is necessary to create a map and recognize an absolute position on the map. Simultaneous localization and mapping (SLAM) technology is a representative example of such a technique for creating a map and recognizing an absolute position.
SLAM 기술이란, 획득된 영상을 기반으로 지도를 작성하고, 이동형 로봇이 자신의 위치를 인식하는 영상 기반의 위치 인식 기술이다. 그리고 이와 같은 SLAM은, 스테레오 비전(StereoVision) 카메라나 TOF(Time of Flight) 카메라 등을 사용하여 영상을 촬영하고, 촬영된 영상으로부터 특징점(Feature)을 추출한다. 그리고 상기 특징점에 해당하는 3차원 좌표값을 계산하여 이를 3차원 특징점(3D Feature)으로 등록한다. SLAM technology is an image-based location recognition technology in which a mobile robot creates a map based on acquired images and recognizes its position. In such SLAM, an image is captured using a StereoVision camera or a TOF (Time of Flight) camera, and a feature is extracted from the captured image. Then, three-dimensional coordinate values corresponding to the feature points are calculated and registered as three-dimensional feature points.
그러나 이와 같은 종래 기술에 의한 위치 인식 및 지도 작성 기술에는 다음과 같은 문제점이 발생한다.However, the following problems arise in the technique of position recognition and mapping according to the related art.
종래에는, 상기 카메라가 촬영한 영상으로부터 다수회의 연산을 거쳐서 계산된 3차원 좌표값으로 3차원 특징점을 등록한다. 예를 들면, 상기 카메라가 촬영한 영상을 다운 샘플링(Down-Sampling)하여 획득된 다수개의 영상으로부터 특징점 및 깊이(depth)값을 추출하고, 이로부터 3차원 좌표값을 계산할 수 있다. 또는, 상기 카메라가 촬영한 영상으로부터 깊이 정보에 따라서 배경(Background) 영역과 전경(Foreground) 영역을 추출한 후 상대적으로 깊이값이 작은 전경 영역의 깊이값으로부터 3차원 좌표값을 계산할 수 있다. 그러나 상술한 방법들은 상대적으로 다수회의 연산을 필요로 하므로, 이를 처리하기 위한 별도의 프로세서, 즉 그래픽 처리 장치(Graphics Processing Unit, GPU) 등이 필요로 하게 될 뿐만 아니라, 연산의 처리를 위한 시간이 소요될 수 있다.Conventionally, a three-dimensional feature point is registered as a three-dimensional coordinate value calculated through a plurality of calculations from an image taken by the camera. For example, a feature point and a depth value may be extracted from a plurality of images obtained by down-sampling an image taken by the camera, and three-dimensional coordinate values may be calculated therefrom. Alternatively, a background region and a foreground region may be extracted from the image captured by the camera, and a three-dimensional coordinate value may be calculated from a depth value of a foreground region having a relatively small depth value. However, since the above-described methods require a relatively large number of calculations, a separate processor for processing the same, that is, a graphics processing unit (GPU) or the like is required, It can take.
또한 종래에는, 외부의 조건, 예를 들면, 장애물이나 조명에 의한 음영의 변화 등에 의하여 상기 카메라가 촬영한 영상으로부터 특징점의 깊이값을 계산하는 것이 불가능하게 될 수 있다. 이와 같은 경우에는, 실질적으로 특징점의 추출하지 못함으로써, 정확한 3차원 정보를 등록하지 못하게 된다.In addition, conventionally, it may become impossible to calculate the depth value of a feature point from an image taken by the camera due to external conditions, for example, a change in shade due to an obstacle or illumination. In such a case, since the feature points can not be extracted substantially, accurate three-dimensional information can not be registered.
본 발명은 상술한 바와 같은 종래 기술에 의한 문제점을 해결하기 위한 것으로, 본 발명의 목적은, 보다 간단하고, 정확한 특징점의 추출 및 등록이 가능한 영상 기반 위치 인식을 위한 특징점 등록 장치, 이를 사용한 등록 방법 및 이를 포함하는 로봇 청소기를 제공하는 것이다.It is an object of the present invention to provide a feature point registration device for image-based location recognition that enables simpler and more accurate extraction and registration of feature points, and a registration method using the same And a robot cleaner including the same.
상술한 목적을 달성하기 위한 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치의 실시예의 일 양태는, 2D 영상 및 깊이 영상을 입력하는 영상 입력기; 상기 영상 입력기가 입력한 2D 영상 및 깊이 영상으로부터 특징점 및 깊이 정보를 추출하고, 추출된 상기 특징점 및 깊이 정보를 매칭하여 기술자를 생성하는 영상 처리기; 및 상기 영상 처리기에서 생성된 상기 기술자를 포함하는 상기 특징점을 등록하는 영상 등록기; 를 포함한다.According to another aspect of the present invention, there is provided a feature point registration apparatus for image-based location recognition, the feature point registration apparatus comprising: a video input unit for inputting a 2D image and a depth image; An image processor for extracting feature points and depth information from 2D images and depth images input by the image input device, and for generating descriptors by matching the extracted feature points and depth information; An image register for registering the feature points including the descriptor generated in the image processor; .
본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 방법의 실시예의 일 양태는, 제1 및 제2영상 입력부가, 2D 영상 및 깊이 영상을 입력하는 단계; 특징점 추출부 및 깊이 정보 추출부가, 상기 2D 영상 및 깊이 영상으로부터 특징점 및 깊이 정보를 각각 추출하는 단계; 특징점 매칭부가, 추출된 상기 특징점 및 깊이 정보를 매칭하는 단계; 기술자 생성부가, 추출된 상기 특징점 및 깊이 정보로부터 기술자를 생성하는 단계; 및 특징점 등록부가, 상기 기술자를 포함하는 상기 특징점을 등록하는 단계; 를 포함한다.One aspect of the feature point registration method for image-based location recognition according to the present invention includes: inputting first and second image input units, a 2D image and a depth image; The feature point extracting unit and the depth information extracting unit extracting feature points and depth information from the 2D image and the depth image, respectively; Matching the feature point matching unit with the extracted feature point and depth information; Generating a descriptor from the extracted feature point and depth information; And registering the minutiae point including the descriptor; .
본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치, 이를 사용한 등록 방법 및 이를 포함하는 로봇 청소기의 실시예에서는, 2D 영상 및 깊이 영상으로부터 특징점 및 깊이 정보를 각각 추출한 후, 이들을 매칭하여 기술자를 포함하는 특징점을 생성한다. 또한 본 발명의 실시예에서는, 추출된 특징점에 대응하는 깊이 정보가 존재하지 않는 경우에는, 특징점에 인접하는 다른 픽셀의 깊이값 중 최소값을 특징점의 깊이값으로 추정한다. 따라서 본 발명의 실시예에 의하면, 보다 간단하고, 정확한 특징점의 추출 및 등록이 가능해지는 효과를 기대할 수 있다.In the embodiment of the feature point registration device for image-based position recognition, the registration method using the same, and the robot cleaner including the same, the feature point and depth information are extracted from the 2D image and the depth image, respectively, . In the embodiment of the present invention, when there is no depth information corresponding to the extracted feature points, the minimum value among the depth values of other pixels adjacent to the feature points is estimated as the depth value of the feature points. Therefore, according to the embodiment of the present invention, it is possible to expect a simpler and more accurate feature point extraction and registration.
도 1은 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치의 실시예를 구성하는 SLAM 장치를 보인 블럭도.
도 2는 본 발명의 실시예에 의한 특징점 추출 과정을 보인 제어 흐름도.
도 3 내지 도 7은 본 발명의 실시예에서 특징점 추출 과정을 보인 개념도.
도 8은 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치를 포함하는 로봇 청소기의 실시예를 보인 사시도.
도 9는 본 발명의 실시예를 보인 블럭도.1 is a block diagram showing an SLAM apparatus constituting an embodiment of a feature point registration apparatus for image-based position recognition according to the present invention;
2 is a control flowchart showing a minutiae point extraction process according to an embodiment of the present invention.
FIGS. 3 to 7 are conceptual diagrams showing a minutiae point extraction process in an embodiment of the present invention. FIG.
FIG. 8 is a perspective view illustrating an embodiment of a robot cleaner including a feature point registration device for image-based position recognition according to the present invention. FIG.
9 is a block diagram showing an embodiment of the present invention.
이하에서는 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치의 실시예를 첨부된 도면을 참조하여 보다 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of a feature point registration apparatus for image-based position recognition according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치의 실시예를 구성하는 SLAM 장치를 보인 블럭도이다.1 is a block diagram showing an SLAM apparatus constituting an embodiment of a feature point registration apparatus for image-based position recognition according to the present invention.
도 1을 참조하면, 본 실시예에 의한 특징점 등록 장치는, 영상 입력기(100), 영상 처리기(200) 및 영상 등록기(300)를 포함한다. 상기 영상 입력기(100)는 특징점의 추출 및 등록을 위한 파사체의 영상을 입력하는 부분이다. 그리고 상기 영상 처리기(200)는, 상기 영상 입력기(100)가 입력한 영상을 통하여 특징점(Feature) 및 깊이(Depth) 정보를 추출하고, 각 특징점에 대한 기술자(Descreptor)를 생성한다. 상기 영상 등록기(300)에는, 상기 영상 처리기(200)에서 추출된 특징점이 등록된다. Referring to FIG. 1, the minutiae registration apparatus according to the present embodiment includes a
보다 상세하게는, 상기 영상 입력기(100)는 제1영상 입력부(110) 및 제2영상 입력부(120)를 포함한다. 상기 제1영상 입력부(110)는, 피사체의 2D 영상(2D Image)를 입력하고, 상기 제2영상 입력부(120)는, 피사체의 깊이 영상(Depth Image)를 입력한다. 상기 제1영상 입력부(110)로는, 일반적인 피사체의 컬러를 촬영할 수 있는 CMOS(Complementary Metal Oxide Semiconductor) 카메라나 CCD(Charge-Coupled Device) 카메라 등이 사용될 수 있다. 그리고 상기 제2영상 입력부(120)는, 피사체로의 빛의 조사 및 반사 사이의 시간차를 측정하여 깊이값을 산출하고, 이를 영상으로 표현한다. 예를 들면, 상기 제2영상 입력부(120)는, 적외선을 피사체에 조사하고, 반사되는 적외선을 감지하여 양자 사이의 시간차를 측정하며, 이를 통하여 산출된 깊이값을 영상으로 표현할 수 있다.In more detail, the
그리고 상기 영상 처리기(200)는, 특징점 추출부(210), 깊이 정보 추출부(220), 특징점 매칭부(230) 및 기술자 생성부(240)를 포함한다. 상기 특징점 추출부(210)는, 상기 제1영상 입력부(110)가 입력한 2D 영상으로부터 특징점을 추출한다. 예를 들면, 상기 2D 영상에 존재하는 코너가 특징점으로 추출될 수 있다. 그리고 상기 깊이 정보 추출부(220)는 상기 제2영상 입력부(120)가 입력한 깊이 영상으로부터 깊이 정보, 즉 깊이값을 추출한다. 상기 특징점 매칭부(230)는, 서로 대응되는 상기 특징점 및 깊이 정보를 매칭시킨다. 이때 상기 특징점 매칭부(230)는, 상기 특징점에 해당하는 상기 깊이 정보가 부존재하는 경우에, 상기 특징점에 인접하는 다른 픽셀의 깊이값 중 최소값을 상기 특징점의 깊이값으로 추정한다. 예를 들면, 주변의 음영이나 장애물에 의하여 상기 깊이 이미지로부터 상기 특징점의 깊이값이 0으로 표현되는 경우에는, 실질적인 깊이값을 추출하지 못하게 된다. 이와 같은 경우에, 상기 특징점 매칭부(230)는, 상기 특징점에 인접하는 다른 픽셀의 깊이값 중 최소값을 상기 특징점의 깊이값으로 추정한다. 예를 들면, 상기 특징점을 중심으로 m×n 영역에 속하는 픽셀의 깊이값 중 최소값을 상기 특징점의 깊이값으로 추정할 수 있다. 이는 통상적으로 배경(Background)에 비하여 전경(Foreground)에서 상기 특징점이 추출되기 때문이다. 그리고 상기 기술자 생성부(240)는, 상기 특징점 추출부(210)에서 추출된 특징점 및 상기 깊이 정보 추출부(220)에서 추출한 깊이 정보로부터 기술자를 생성한다. 예를 들면, 상기 기술자 생성부(240)는, 상기 특징점 추출부(210)에서 추출된 특징점 및 상기 깊이 정보 추출부(220)에서 추출한 깊이 정보를 서로 매칭시켜서 SIFT(Scale Invariant Feature Transform) 기술자를 생성할 수 있다. The
한편 상기 영상 등록기(300)는, 특징점 등록부(310) 및 데이터 베이스(320)를 포함한다. 상기 특징점 등록부(310)는, 상기 특징점 매칭부(230)로부터 전달받은 상기 기술자를 포함하는 상기 특징점을 상기 데이터 베이스(320)에 등록한다. The
이하에서는 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 방법의 실시예를 첨부된 도면을 참조하여 보다 상세하게 설명한다.Hereinafter, embodiments of a feature point registration method for image-based position recognition according to the present invention will be described in detail with reference to the accompanying drawings.
도 2는 본 발명의 실시예에 의한 특징점 추출 과정을 보인 제어 흐름도이고, 도 3 내지 도 7은 본 발명의 실시예에서 특징점 추출 과정을 보인 개념도이다.FIG. 2 is a control flowchart showing a minutiae point extraction process according to an embodiment of the present invention, and FIGS. 3 to 7 are conceptual diagrams showing a minutiae point extraction process in an embodiment of the present invention.
먼저 도 2를 참조하면, 영상 입력기(100), 즉 제1 및 제2영상 입력부(110)(120)가 각각 피사체에 대한 2D 영상 및 깊이 영상을 입력한다.(S10) 이때 상기 제1영상 입력부(110)가 입력한 2D 영상 및 상기 제2영상 입력부(120)가 입력한 깊이 영상은, 각각 도 3 및 도 4를 참조하면, 용이하게 이해될 수 있을 것이다.2, the
다음으로, 영상 처리기(200)가, 상기 영상 입력기(100)가 입력한 영상을 통하여 특징점 및 깊이 정보를 추출하고, 각 특징점에 대한 기술자를 생성한다.(S20)(S30) 그리고 상기 영상 처리기(200)는, 상기 특징점에 해당하는 상기 깊이 정보의 존재 여부를 판단한 후 상기 특징점 및 이에 해당하는 깊이 정보를 매칭한다.(S50)(S60)Next, the
보다 상세하게는, 상기 제20단계에서, 특징점 추출부(210) 및 깊이 정보 추출부(220)가 각각 상기 제1영상 입력부(110)가 입력한 2D 영상 및 상기 제2영상 입력부(120)가 입력한 깊이 영상으로부터 특징점 및 깊이 정보를 각각 추출한다.(도 3 및 도 4참조) 그리고 상기 제30단계에서, 특징점 매칭부(230)가, 상기 특징점 추출부(210)에서 추출한 상기 특징점에 해당하는 상기 깊이 정보, 즉 깊이값이 존재하는지 여부를 판단한다. 다시 말하면, 상기 제30단계에서는, 상기 깊이 정보 추출부(220)가 상기 특징점에 해당하는 상기 깊이 정보를 상기 깊이 영상으로부터 추출할 수 있는지 여부를 판단한다고 할 수 있다. 그리고 상기 제30단계에서 상기 특징점에 해당하는 상기 깊이 정보가 존재하는 것으로 판단되면, 상기 제40단계에서, 기술자 생성부(240)가 기술자를 생성한다. 이때 상기 기술자로는, SIFT 기술자를 예로 들 수 있다.More specifically, in
한편 상기 제30단계에서 상기 특징점에 해당하는 상기 깊이 정보가 부존재하는 것으로 판단되면, 상기 특징점 매칭부(230)는, 상기 특징점에 인접하는 픽셀의 깊이값 중 최소값을 상기 특징점의 깊이값으로 추정한다.(S50) 예를 들면, 도 6에 도시된 바와 같이 상기 특징점 추출부(210)가 특징점(C)을 추출할 수 있다. 그런데 도 7에 도시된 바와 같이, 상기 깊이 영상에는 상기 특징점(C)에 해당하는 상기 깊이 정보가 0으로 표시된다. 예를 들면, 주변의 음영이나 장애물 등에 의하여 상기 특징점(C)에 해당하는 상기 깊이 정보가 상기 깊이 영상에 표현되지 못할 수 있다. 이와 같은 경우에는, 상기 특징점 매칭부(230)가 상기 특징점(C)에 인접하는 다수개의 픽셀, 아래의 [표 1]을 참조하면, 상기 특징점(C)을 중심으로는 5×5 영역에 속하는 픽셀(A)의 깊이값 중 최소값인 976을 상기 특징점(C)의 깊이값으로 추정한다. 그러나 상기 특징점(C)의 깊이값을 추정하기 위한 영역이 5×5 영역으로 한정되는 것은 아니다. 그리고 상기 제50단계에서 상기 특징점의 깊이값이 추정되면, 상기 제40단계가 수행된다.Meanwhile, if it is determined in
그리고 상기 제40단계에서, 상기 특징점에 대한 상기 기술자가 생성되면, 영상 등록기(300), 즉 특징점 등록부(310)가, 상기 기술자를 포함하는 상기 특징점을 데이터 베이스(320)에 등록한다.(도 5참조)In
이하에서는 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치를 포함하는 로봇 청소기의 실시예를 첨부된 도면을 참조하여 보다 상세하게 설명한다.Hereinafter, an embodiment of a robot cleaner including a feature point registration device for image-based position recognition according to the present invention will be described in detail with reference to the accompanying drawings.
도 8은 본 발명에 의한 영상 기반 위치 인식을 위한 특징점 등록 장치를 포함하는 로봇 청소기의 실시예를 보인 사시도이고, 도 9는 본 발명의 실시예를 보인 블럭도이다. 본 실시예의 구성 요소 중 상술한 본 발명의 실시예의 구성 요소와 동일한 구성 요소에 대해서는, 도 1 내지 도 7의 도면 부호를 원용하고, 이에 대한 상세한 설명을 생략하기로 한다.FIG. 8 is a perspective view illustrating an embodiment of a robot cleaner including a feature point registration device for image-based position recognition according to the present invention, and FIG. 9 is a block diagram illustrating an embodiment of the present invention. The constituent elements of this embodiment that are the same as the constituent elements of the above-described embodiment of the present invention are referred to with reference to Figs. 1 to 7, and a detailed description thereof will be omitted.
도 7 및 도 8을 참조하면, 본 실시예에 의한 로봇 청소기는, 설정된 영역을 주행하면서 청소하는 동작을 수행한다. 상기 로봇 청소기는, 케이싱(10), 주행부(20), 흡입부(30), 영상 입력기(100), 영상 처리기(200), 영상 등록기(300) 및 제어부(40)를 포함한다.Referring to FIGS. 7 and 8, the robot cleaner according to the present embodiment carries out an operation of traveling while moving in a predetermined area. The robot cleaner includes a
상기 케이싱(10)은, 상기 로봇 청소기의 외관을 형성한다. 그리고 상기 케이싱(10)의 내부에는, 상기 로봇 청소기를 구성하는 부품, 즉 상기 주행부(20), 흡입부(30), 영상 입력기(100), 영상 처리기(200), 영상 등록기(300) 및 제어부(40)가 설치된다. The casing (10) forms the appearance of the robot cleaner. In the
상기 주행부(20)는 상기 케이싱(10)의 주행을 위한 구동력을 제공한다. 예를 들면, 상기 주행부(20)는, 주행 모터(미도시) 및 상기 주행 모터에 의하여 회전하는 주행 바퀴(미도시)를 포함할 수 있다.The running
그리고 상기 흡입부(30)는, 상기 케이싱(10)의 내부로 이물질을 흡입하기 위한 구동력을 제공한다. 예를 들면, 상기 흡입부(30)로는, 흡입 모터(미도시) 및 상기 흡입 모터에 의하여 회전하는 흡입 팬(미도시)을 포함할 수 있다.The
상기 영상 입력기(100) 및 영상 처리기(200)는, 각각 상기 케이싱(10)의 주행 방향으로 상기 케이싱(10)의 전방에 해당하는 기설정된 영역의 2D 영상 및 깊이 영상을 입력하거나, 상기 영상 입력기(100)가 입력한 2D 영상 및 깊이 영상으로부터 특징점 및 깊이 정보를 추출하고, 추출된 상기 특징점 및 깊이 정보를 매칭하여 기술자를 생성하는 역할을 한다. 그리고 상기 영상 등록기(300)는, 상기 영상 처리기(200)에서 생성된 상기 기술자를 포함하는 상기 특징점을 등록하는 역할을 한다. 실질적으로, 상기 영상 입력기(100), 영상 처리기(200) 및 영상 등록기(300)의 구체적인 구성 및 작용은 상술한 본 발명의 제1실시예의 그것들과 동일하므로, 이에 대한 설명은 생략한다. The
상기 제어부(40)는, 상기 로봇 청소기를 구성하는 부품, 즉 상기 주행부(20), 흡입부(30), 영상 입력기(100), 영상 처리기(200) 및 영상 등록기(300)의 동작을 제어한다. 또한 상기 제어부(40)는, 상기 영상 등록기(300)에 등록된 상기 특징점에 정보를 기반으로 지도를 작성하고, 상기 영상 처리기(200)에서 실시간으로 추출된 특징점의 좌표를 작성된 지도 상에서 비교함으로써, 지도 상에서 상기 케이싱(10), 즉 상기 로봇 청소기의 위치를 인식한다. 그리고 상기 제어부(40)는, 지도 상의 상기 로봇 청소기의 위치에 따라서 상기 로봇 청소기가 장애물에 의하여 간섭받지 않고 주행하면서 설정된 영역 전체를 청소할 수 있도록 상기 주행부(20) 및 흡입부(30)의 동작을 제어한다.The
이와 같은 본 발명의 기본적인 기술적 사상의 범주 내에서 당업계의 통상의 지식을 가진 자에게 있어서는 다른 많은 변형이 가능함은 물론이고, 본 발명의 권리범위는 첨부한 특허청구범위에 기초하여 해석되어야 할 것이다. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the appended claims and their equivalents. .
Claims (11)
상기 영상 입력기가 입력한 2D 영상 및 깊이 영상으로부터 특징점 및 깊이 정보를 추출하고, 추출된 상기 특징점 및 깊이 정보를 매칭하여 기술자를 생성하는 영상 처리기; 및
상기 영상 처리기에서 생성된 상기 기술자를 포함하는 상기 특징점을 등록하는 영상 등록기; 를 포함하고,
상기 영상 처리기는, 상기 특징점에 해당하는 상기 깊이 정보를 상기 깊이 영상으로부터 추출할 수 있는지 여부를 판단하고, 상기 깊이 영상으로부터 상기 특징점에 해당하는 상기 깊이 정보를 추출하지 못하는 경우에는, 상기 특징점을 중심으로 하는 m×n 영역에 속하는 픽셀들의 깊이값 중 최소값을 상기 특징점의 깊이값으로 추정하는 영상 기반 위치 인식을 위한 특징점 등록 장치.A video input device for inputting a 2D image and a depth image;
An image processor for extracting feature points and depth information from 2D images and depth images input by the image input device, and for generating descriptors by matching the extracted feature points and depth information; And
An image register for registering the feature points including the descriptors generated in the image processor; Lt; / RTI >
Wherein the image processor determines whether or not the depth information corresponding to the feature point can be extracted from the depth image and if the depth information corresponding to the feature point can not be extracted from the depth image, Wherein the minimum value of the depth values of the pixels belonging to the mxn area is estimated as the depth value of the feature point.
상기 영상 입력기는,
상기 2D 영상을 입력하는 제1영상 입력부; 및
상기 깊이 영상을 입력하는 제2영상 입력부; 를 포함하는 영상 기반 위치 인식을 위한 특징점 등록 장치.
The method according to claim 1,
The image input device includes:
A first image input unit for inputting the 2D image; And
A second image input unit for inputting the depth image; And a feature point registration device for image-based location recognition.
상기 영상 처리기는,
상기 2D 영상으로부터 상기 특징점을 추출하는 특징점 추출부;
상기 깊이 영상으로부터 상기 깊이 정보를 추출하는 깊이 정보 추출부; 및
상기 특징점 추출부가 추출한 상기 특징점 및 상기 깊이 정보 추출부가 추출한 상기 깊이 정보를 매칭하는 특징점 매칭부; 를 포함하는 영상 기반 위치 인식을 위한 특징점 등록 장치.The method according to claim 1,
Wherein the image processor comprises:
A feature point extracting unit for extracting the feature points from the 2D image;
A depth information extracting unit for extracting the depth information from the depth image; And
A feature point matching unit for matching the feature points extracted by the feature point extraction unit and the depth information extracted by the depth information extraction unit; And a feature point registration device for image-based location recognition.
상기 특징점 추출부는, 상기 특징점에 해당하는 상기 깊이 정보가 상기 깊이 영상에서 0으로 표시되는 경우에는, 상기 특징점을 중심으로 하는 m×n 영역에 속하는 픽셀들의 깊이값 중 최소값을 상기 특징점의 깊이값으로 추정하는 영상 기반 위치 인식을 위한 특징점 등록 장치.6. The method of claim 5,
Wherein the feature point extracting unit extracts a minimum value of depth values of pixels belonging to an mxn area centered on the feature point as a depth value of the feature point when the depth information corresponding to the feature point is displayed as 0 in the depth image A feature point registration device for image - based location recognition.
특징점 추출부 및 깊이 정보 추출부가, 상기 2D 영상 및 깊이 영상으로부터 특징점 및 깊이 정보를 각각 추출하는 단계;
특징점 매칭부가, 추출된 상기 특징점 및 깊이 정보를 매칭하는 단계;
기술자 생성부가, 추출된 상기 특징점 및 깊이 정보로부터 기술자를 생성하는 단계; 및
특징점 등록부가, 상기 기술자를 포함하는 상기 특징점을 등록하는 단계; 를 포함하고,
상기 특징점 및 깊이 정보를 각각 추출하는 단계는,
상기 특징점에 해당하는 상기 깊이 정보를 상기 깊이 영상으로부터 추출할 수 있는지 여부를 판단하고, 상기 깊이 영상으로부터 상기 특징점에 해당하는 상기 깊이 정보를 추출하지 못하는 경우에는, 상기 특징점을 중심으로 하는 m×n 영역에 속하는 픽셀들의 깊이값 중 최소값을 상기 특징점의 깊이값으로 추정하는 영상 기반 위치 인식을 위한 특징점 등록 방법.Inputting first and second image input units, a 2D image and a depth image;
The feature point extracting unit and the depth information extracting unit extracting feature points and depth information from the 2D image and the depth image, respectively;
Matching the feature point matching unit with the extracted feature point and depth information;
Generating a descriptor from the extracted feature point and depth information; And
The minutia point registering unit registers the minutiae including the descriptor; Lt; / RTI >
Extracting the feature points and the depth information, respectively,
Determining whether or not the depth information corresponding to the feature point can be extracted from the depth image, and if it is not possible to extract the depth information corresponding to the feature point from the depth image, And estimating a minimum value among the depth values of the pixels belonging to the region as a depth value of the feature point.
상기 특징점 매칭부는, 상기 깊이 정보 추출부가 추출한 깊이값이 0인 경우에는, 상기 특징점을 중심으로 하는 m×n 영역에 속하는 픽셀들의 깊이값 중 최소값을 상기 특징점의 깊이값으로 추정하는 영상 기반 위치 인식을 위한 특징점 등록 방법.
8. The method of claim 7,
The feature point matching unit may further include an image-based position recognition unit that estimates a minimum value among depth values of pixels belonging to an mxn area around the feature point as a depth value of the feature point, when the depth value extracted by the depth information extraction unit is 0 A minutiae registration method for.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120005535A KR101980677B1 (en) | 2012-01-18 | 2012-01-18 | Apparatus and method of feature registration for image based localization and robot cleaner comprising the same apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120005535A KR101980677B1 (en) | 2012-01-18 | 2012-01-18 | Apparatus and method of feature registration for image based localization and robot cleaner comprising the same apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130084747A KR20130084747A (en) | 2013-07-26 |
KR101980677B1 true KR101980677B1 (en) | 2019-05-22 |
Family
ID=48995214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120005535A KR101980677B1 (en) | 2012-01-18 | 2012-01-18 | Apparatus and method of feature registration for image based localization and robot cleaner comprising the same apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101980677B1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101503904B1 (en) * | 2008-07-07 | 2015-03-19 | 삼성전자 주식회사 | Apparatus and method for building map for mobile robot |
KR20110064622A (en) * | 2009-12-08 | 2011-06-15 | 삼성전자주식회사 | 3d edge extracting method and apparatus using tof camera |
KR101633620B1 (en) * | 2010-01-04 | 2016-06-27 | 삼성전자 주식회사 | Feature registration apparatus for image based localization and method the same |
KR101686171B1 (en) * | 2010-06-08 | 2016-12-13 | 삼성전자주식회사 | Apparatus for recognizing location using image and range data and method thereof |
-
2012
- 2012-01-18 KR KR1020120005535A patent/KR101980677B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20130084747A (en) | 2013-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10192313B2 (en) | Networked capture and 3D display of localized, segmented images | |
KR101758058B1 (en) | Apparatus and method for estimating camera motion using depth information, augmented reality system | |
US9807365B2 (en) | System and method for hybrid simultaneous localization and mapping of 2D and 3D data acquired by sensors from a 3D scene | |
US10762386B2 (en) | Method of determining a similarity transformation between first and second coordinates of 3D features | |
US8781217B2 (en) | Analysis of three-dimensional scenes with a surface model | |
EP2531980B1 (en) | Depth camera compatibility | |
KR101633620B1 (en) | Feature registration apparatus for image based localization and method the same | |
US8687044B2 (en) | Depth camera compatibility | |
EP2602761A1 (en) | Object detection device, object detection method, and program | |
KR20130066438A (en) | Image processing apparatus and image processing method | |
JP2011123071A (en) | Image capturing device, method for searching occlusion area, and program | |
JP5297779B2 (en) | Shape measuring apparatus and program | |
JP2010133752A (en) | Shape measuring device and program | |
TW201705088A (en) | Generating a disparity map based on stereo images of a scene | |
US9947106B2 (en) | Method and electronic device for object tracking in a light-field capture | |
JP2014170368A (en) | Image processing device, method and program and movable body | |
KR101980677B1 (en) | Apparatus and method of feature registration for image based localization and robot cleaner comprising the same apparatus | |
Hadi et al. | Fusion of thermal and depth images for occlusion handling for human detection from mobile robot | |
Zheng | Feature recognition and obstacle detection for drive assistance in indoor environments | |
Mkhitaryan et al. | RGB-D sensor data correction and enhancement by introduction of an additional RGB view | |
Abdelhamid et al. | Extracting depth information using a correlation matching algorithm | |
Niijima et al. | Extrinsic Calibration of Multiple LiDARs for a Mobile Robot based on Floor Plane And Object Segmentation | |
Hau et al. | Combined Plane and Point Registration of Sequential Depth Images for Indoor Localization | |
KR20240076344A (en) | SLAM that can be implemented at low cost and uses sensor fusion technology | |
Wang et al. | Motion estimation for a mobile robot based on real-time stereo vision system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |