KR20120078339A - Image-based simultaneous localization and mapping for moving robot - Google Patents
Image-based simultaneous localization and mapping for moving robot Download PDFInfo
- Publication number
- KR20120078339A KR20120078339A KR1020100140609A KR20100140609A KR20120078339A KR 20120078339 A KR20120078339 A KR 20120078339A KR 1020100140609 A KR1020100140609 A KR 1020100140609A KR 20100140609 A KR20100140609 A KR 20100140609A KR 20120078339 A KR20120078339 A KR 20120078339A
- Authority
- KR
- South Korea
- Prior art keywords
- straight line
- estimated
- candidate
- image
- mobile robot
- Prior art date
Links
- 238000013507 mapping Methods 0.000 title claims abstract description 12
- 230000004807 localization Effects 0.000 title abstract description 3
- 230000033001 locomotion Effects 0.000 claims abstract description 19
- 238000000034 method Methods 0.000 claims description 21
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000008859 change Effects 0.000 claims description 14
- 102000008115 Signaling Lymphocytic Activation Molecule Family Member 1 Human genes 0.000 description 9
- 108010074687 Signaling Lymphocytic Activation Molecule Family Member 1 Proteins 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
Abstract
Description
본 발명은 로봇의 동시적 위치 인식 및 지도 작성 방법(SLAM : Simultaneous Localization And Mapping)에 관한 것으로서, 더욱 상세하게는, 카메라를 통해 입력되는 이미지에서 직선 성분을 추출하고 이를 특징 데이터로 사용하여 위치 인식과 지도 작성을 동시에 수행하는 방법에 관한 것이다.
The present invention relates to a simultaneous location recognition and mapping method of a robot (SLAM: Simultaneous Localization And Mapping), and more particularly, location recognition by extracting a linear component from an image input through a camera and using it as feature data And how to do mapping at the same time.
동시적 위치 인식 및 지도 작성 방법(이하, "SLAM"이라 한다)은 자율주행을 필수로 하는 로봇에 있어서 가장 기본이 되는 기능 중 하나이다. 로봇이 처음으로 접하는 환경에 진입하게 될 경우, 그 환경에 대한 지도를 작성하여 환경을 이해해야 하는데, 이를 위해서는 작성 진행되는 지도에서 로봇의 현재 위치를 항상 정확하게 인식할 수 있어야 최종적으로 정확한 지도를 작성할 수 있다.Simultaneous location recognition and mapping (hereinafter referred to as "SLAM") is one of the most basic functions for robots requiring autonomous driving. When the robot enters the first encounter environment, it is necessary to understand the environment by creating a map of the environment. In order to do this, it is necessary to be able to recognize the current position of the robot on the map in order to create an accurate map. have.
로봇에서 사용하는 센서 유형에 따라서 SLAM 알고리즘에 활용되는 특징 데이터도 다르다. 예컨대, 초음파(Sonar), 레이저와 같은 거리 센서를 통해 얻어진 거리 정보, GPS 기기를 통해 직접 얻어지는 좌표 정보, IMU 장비를 통해 얻어지는 가속도 정보, 스테레오 카메라 혹은 모노 카메라를 이용한 비전 정보 등이 특징 데이터로 사용될 수 있다.Depending on the type of sensor used in the robot, the characteristic data used in the SLAM algorithm is also different. For example, feature information may include distance information obtained through a distance sensor such as an ultrasonic wave or a laser, coordinate information obtained directly from a GPS device, acceleration information obtained through an IMU device, and vision information using a stereo camera or a mono camera. Can be.
모노 카메라는 기타 종류의 센서들에 비하여 가격이 싸고 센서가 차지하는 부피가 작은 장점이 있다. 또한, 카메라로부터 취득하는 비전 정보는 SLAM 외에도 물체 식별, 휴먼 표정 인식 등 기타 유용한 정보 추출에 활용될 수 있으므로 다른 센서에 비하여 더욱 유용하고 다양한 서비스에 제공에도 효과적이다.Mono cameras offer the advantages of lower cost and smaller volume than other types of sensors. In addition, since the vision information obtained from the camera can be used to extract other useful information such as object identification and human facial recognition, in addition to SLAM, it is more useful than other sensors and effective in providing various services.
비전 정보를 이용하는 SLAM(이하, "vSLAM"이라 한다)은 특징 데이터로 특징점을 이용하는 방법이 주로 연구되어 왔다. 특징점은 비전 알고리즘으로 처리하기 간편하고 다양한 환경에 적용할 수 있는 장점이 있는 반면, 필요한 특징점의 개수가 많아야만 하고 작성된 지도가 진일보 확장하기 어려운 단점이 있다.SLAM using vision information (hereinafter, referred to as "vSLAM") has been mainly studied how to use feature points as feature data. While feature points have the advantage of being easy to process with vision algorithms and applicable to various environments, the number of required feature points must be large and the created maps are difficult to expand further.
이에 비하여, 직선 성분을 특징 데이터로 삼는 경우 불확실성이 증가하는 문제가 있어 상대적으로 연구 진행이 미흡하다. 즉, 직선 성분은 인공구조물이 많은 환경에 적절하다는 평가가 있으나 지도를 구성하는데 필요한 개수가 적고 작성된 지도는 의미적 레이블을 추가하기 용이하다는 빼어난 장점이 있다. 직선성분을 SLAM에 적용하기 위한 기존의 연구는 직선을 표현하기 위한 방법으로 주로 일반적인 모델링 방식으로 접근하여 특징 데이터의 불확실성을 크게 하는 단점이 있다.
On the other hand, there is a problem in that uncertainty increases when a linear component is used as feature data, and research is relatively insufficient. In other words, there is an evaluation that the linear component is suitable for an environment with many artificial structures, but there is an advantage that the number of maps required for constructing the map is small, and that the prepared map is easy to add semantic labels. Existing researches for applying linear components to SLAMs have a drawback to increase the uncertainty of feature data by approaching general modeling methods.
따라서 본 발명은 기존 직선 성분을 이용한 vSLAM 알고리즘을 개선하여, 데이터 처리가 간편하고 불확실성이 감소한 SLAM을 제공하는 것을 목적으로 한다.
Accordingly, an object of the present invention is to improve a vSLAM algorithm using an existing linear component, and to provide a SLAM having simple data processing and reduced uncertainty.
상기 목적은 본 발명의 일 양태에 따른, 이동 로봇의 이미지 기반 동시적 위치 인식 및 지도 작성 방법에 있어서, 촬영 이미지에서 추출된 선들로부터 상기 이동 로봇이 주행하는 바닥에 위치하는 선으로 추정되는 제1 후보 직선을 결정하는 단계; 상기 이동 로봇의 움직임에 따라 다음 촬영 이미지에서 예측되는 상기 후보 직선의 대응 추정 직선을 산출하는 단계; 상기 이동 로봇의 움직임 후 촬영된 이미지 중 상기 이동 로봇이 주행하는 바닥에 위치하는 선으로 추정되는 제2 후보 직선을 결정하는 단계; 상기 추정 직선과 상기 제2 후보 직선의 동일성을 판정하는 단계; 및 판정 결과 상기 추정 직선과 동일성이 인정되는 상기 제2 후보 직선을 활용하여 지도를 작성하는 단계를 포함하는 것을 특징으로 하는 동시적 위치 인식 및 지도 작성 방법에 의해 달성될 수 있다.According to one aspect of the present invention, in the image-based simultaneous position recognition and mapping method of a mobile robot, a first line estimated from a line extracted from a photographed image is a line located on the floor on which the mobile robot travels. Determining a candidate straight line; Calculating a corresponding estimated straight line of the candidate straight line predicted in a next captured image according to the movement of the mobile robot; Determining a second candidate straight line estimated as a line located on a floor on which the mobile robot travels among the images photographed after the movement of the mobile robot; Determining the identity of the estimated straight line and the second candidate straight line; And generating a map by using the second candidate straight line whose identity is recognized as the estimated straight line as a result of the determination.
여기에서, 상기 추정 직선과 상기 제2 후보 직선의 동일성을 판정하는 단계는, 상기 추정 직선을 특정하는 좌표와 상기 제2 후보 직선을 특정하는 좌표의 차이가 미리 결정된 임계범위 내에 있는지 여부에 따라 동일성을 결정하는 단계를 포함할 수 있다. 그리고, 상기 좌표는 상기 이미지에서의 임의의 점으로부터 직선에 이르는 거리와 수평 직선과 상기 직선이 이루는 각으로 구해지는 것으로 특정할 수 있다.The determining of the identity between the estimated straight line and the second candidate straight line may include determining whether the difference between the coordinates specifying the estimated straight line and the coordinates specifying the second candidate straight line is within a predetermined threshold range. It may include the step of determining. The coordinates can be specified to be obtained from a distance from an arbitrary point in the image to a straight line and an angle formed by the horizontal straight line and the straight line.
또한, 상기 본 발명은 상기 촬영 이미지로부터 상기 바닥에 수직을 이루는 수직 직선을 추출하는 단계를 더 포함하고, 촬영 이미지에서 추출된 선들로부터 상기 이동 로봇이 주행하는 바닥에 위치하는 선으로 추정되는 제1 후보 직선을 결정하는 단계는, 상기 수직 직선의 중간 점보다 낮은 위치에 형성된 직선 중에서 제1 후보 직선을 결정하는 단계를 포함하도록 선택할 수 있다.The present invention may further include extracting a vertical straight line perpendicular to the floor from the photographed image, wherein the first line is estimated to be a line located on the floor on which the mobile robot travels from the lines extracted from the photographed image. The determining of the candidate straight line may be selected to include determining a first candidate straight line among straight lines formed at a position lower than a midpoint of the vertical straight line.
또한, 상기 본 발명은 상기 촬영 이미지로부터 상기 바닥에 수직을 이루는 수직 직선을 추출하는 단계를 더 포함하고, 상기 추정 직선과 동일성이 인정된 상기 제2 후보 직선을 활용하여 작성되는 지도에 상기 수직 직선이 상기 바닥에 투영되는 점을 추가하여 2차원의 지도로 3차원의 지도 정보를 표현하도록 하는 단계를 포함하도록 함으로써 데이터 처리를 간편하게 하고 불확실성을 감소시킬 수 있다.The method may further include extracting a vertical straight line perpendicular to the floor from the photographed image, wherein the vertical straight line is formed on a map created by using the second candidate straight line recognized as the estimated straight line. By adding a point projected to the floor to include a three-dimensional map information to represent a two-dimensional map, it is possible to simplify the data processing and reduce the uncertainty.
상기 일련의 본 발명들은 상기 추정 직선을 산출하는 단계는 다음 수식에 의해 상기 추정 직선을 결정하도록 할 수 있다.In the series of the present invention, calculating the estimated straight line may determine the estimated straight line by the following equation.
여기에서, I는 제1 후보 직선, I'은 추정 직선, H는 호모그라피 행렬로서 다음과 같이 정의된다:Where I is the first candidate straight line, I 'is the estimated straight line, H is the homography matrix, and is defined as follows:
여기에서, K'은 이동 로봇의 움직임 후 카메라 속성 행렬, 은 카메라의 각도 변화를 나타내는 회전 행렬, 0 는 3×1의 영 행렬, 는 카메라의 위치 변화를 나타내는 행렬 , h는 이미지 촬영에 사용된 카메라의 높이를 나타낸다.
Where K 'is the camera property matrix after the movement of the mobile robot, Is the rotation matrix representing the angle change of the camera, 0 is the zero matrix of 3 × 1, Is a matrix representing the change in the position of the camera, and h is the height of the camera used to capture the image.
직선 성분을 특징 데이터로 사용하여 SLAM을 수행하는 본 발명에 의할 때 특징점으로 작성된 지도보다 주변 환경을 더욱 잘 표현한다는 장점이 있다. According to the present invention in which a SLAM is performed using a linear component as feature data, there is an advantage of better representation of the surrounding environment than a map created as a feature point.
또한, 본 발명이 제공하는 신규한 방법에 의해 바닥 직선에 대한 관측 모델을 결정함에 따라 불확실성을 크게 개선할 수 있으며, 3차원을 구성하는 수직 직선과 바닥 직선을 2차원의 바닥 평면에 표현할 수 있으므로 데이터 처리를 간편화할 수 있다.
In addition, the uncertainty can be greatly improved by determining the observation model for the floor straight line by the novel method provided by the present invention. Data processing can be simplified.
도1은 본 발명의 실시예에 따른 이동 로봇의 이미지 기반 동시적 위치 인식 및 지도 작성 방법에 관한 순서도
도2는 호모그라피 행렬에 의한 직선 변환 관계를 설명하기 위한 개념도;
도3은 이미지상에서 직선을 특정하는 구좌표계를 설명하기 위한 개념도;
도4는 결정된 바닥 직선에 대한 관측 모델을 설명하기 위한 개념도;
도5는 수직 직선의 투영점의 개념을 설명하기 위한 개념도;
도6은 결정된 투영점에 대한 관측 모델을 설명하기 위한 개념도;
도7은 바닥 직선 및 수직 직선의 관측 모델을 EFK 알고리즘에 적용하여 완성한 최종 지도의 예; 및
도8은 특징점에 의해 작성된 지도와 직선에 의해 작성된 지도를 비교하기 위한 도면이다.1 is a flowchart illustrating a method for image-based simultaneous location recognition and mapping of a mobile robot according to an embodiment of the present invention.
2 is a conceptual diagram for explaining a linear transformation relationship by a homography matrix;
3 is a conceptual diagram for explaining a spherical coordinate system for specifying a straight line on an image;
4 is a conceptual diagram for explaining an observation model for the determined floor straight line;
5 is a conceptual diagram for explaining the concept of a projection point of a vertical straight line;
6 is a conceptual diagram for explaining an observation model for the determined projection point;
7 is an example of the final map completed by applying the observation model of the floor straight line and the vertical straight line to the EFK algorithm; And
8 is a diagram for comparing a map created by a feature point with a map created by a straight line.
본 발명은 이동 로봇의 SLAM 알고리즘에 관한 것이므로, 이동 로봇의 하드웨어적인 부분의 구체적인 설명은 생략하며, 본 발명의 실시예는 이동 가능하고 모노 카메라가 탑재되어 있는 이동 로봇의 하드웨어 구조를 상정하여 기술하도록 한다.Since the present invention relates to a SLAM algorithm of a mobile robot, a detailed description of the hardware part of the mobile robot is omitted, and an embodiment of the present invention is assumed to describe a hardware structure of a mobile robot that is movable and is equipped with a mono camera. do.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 구체적으로 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도1은 본 발명의 실시예에 따른 이동 로봇의 이미지 기반 동시적 위치 인식 및 지도 작성 방법에 관한 순서도이다.1 is a flowchart illustrating a method of image-based simultaneous location recognition and mapping of a mobile robot according to an exemplary embodiment of the present invention.
먼저, 이동 로봇은 모노 카메라를 이용하여 촬영하여 촬영 이미지를 획득하고, 촬영 이미지로부터 직선 성분들을 추출한다. 이미지로부터 직성 성분을 추출하는 방법으로 주지의 캐니 에지 검출(Canny edge detection) 및 호프 변환(Hough transform)을 활용한다.First, the mobile robot captures a photographed image by using a mono camera, and extracts linear components from the photographed image. Well-known Canny edge detection and Hough transform are utilized as a method of extracting a straight component from an image.
다음, 추출된 직선 성분들 중 이동 로봇이 주행하는 바닥에 위치하는 선으로 추정되는 제1 후보 직선을 결정한다. Next, among the extracted linear components, a first candidate straight line estimated as a line located on the floor on which the mobile robot travels is determined.
이때, 모노 카메라의 회전 정보 및 직선들의 방향성을 바탕으로 추출된 직선들이 바닥 상에 위치하는 선인지를 1차 구별할 수 있으며, 수직 직선 성분의 중간 지점보다 상위하는 직선은 바닥 선의 후보로부터 제하는 등 다양한 직간접 기준을 가지고 제1 후보 직선을 결정하는 것이 또한 가능하다. 카메라가 수평을 유지하는 경우, 추출된 직선 중에서 두 끝점의 수직 좌표 사이의 차이가 허용 범위 내의 픽셀 차이를 나타내는 경우 바닥 직선으로 또한 1차 추정할 수 있다. At this time, based on the rotation information of the mono camera and the directionality of the straight lines can be distinguished whether the first straight line is located on the floor, and the straight line higher than the middle point of the vertical straight component is subtracted from the candidate of the bottom line, etc. It is also possible to determine the first candidate straight line with various direct and indirect criteria. When the camera is horizontal, it can also be first-order estimated as the bottom straight line if the difference between the vertical coordinates of the two endpoints of the extracted straight lines represents a pixel difference within the acceptable range.
다음, 이동 로봇이 움직임이 있는 경우, 모노 카메라로 다시 촬영하여 움직임 이후의 이미지를 획득한다. 여기에서 이동 로봇의 움직임은 이동 로봇의 주행, 회전, 카메라의 회전 등의 개별적 움직임 혹은 동시 다발적인 움직임을 포함한다. 어느 경우에나 로봇의 움직임 또는 제어 정보가 축적되어 활용될 수 있다.Next, when the mobile robot has a motion, the camera photographs again with a mono camera to obtain an image after the motion. Here, the movement of the mobile robot includes individual movements such as driving, rotation, and rotation of the camera, or simultaneous movements of the mobile robot. In either case, the movement or control information of the robot may be accumulated and utilized.
다음, 움직임에 의한 제1 후보 직선에 대응하는 새로운 이미지상의 직선 성분을 추정한다. 여기에서, 움직임에 따른 로봇의 전후좌우 이동량, 카메라의 회전량, 카메라 속성의 변화, 로봇의 회전량 등이 제1 후보 직선을 예측하고 추정하는데 근거로 활용될 수 있다.Next, a straight line component on the new image corresponding to the first candidate straight line due to the motion is estimated. Here, the front, rear, left, and right movements of the robot, the amount of rotation of the camera, the change of camera properties, the amount of rotation of the robot, and the like may be used as a basis for predicting and estimating the first candidate straight line.
추정 방법으로 다음과 같은 수식을 사용하는 것이 가능하다: It is possible to use the following formula as an estimation method:
[수식 1][Equation 1]
여기에서, I는 제1 후보 직선, I'은 추정 직선, H는 호모그라피 행렬로서 다음과 같이 정의된다:Where I is the first candidate straight line, I 'is the estimated straight line, H is the homography matrix, and is defined as follows:
[수식 2][Equation 2]
여기에서, K'은 이동 로봇의 움직임 후 카메라 속성 행렬, 은 카메라의 각도 변화를 나타내는 회전 행렬, 0 는 3×1의 영 행렬, 는 카메라의 위치 변화를 나타내는 행렬, h는 이미지 촬영에 사용된 카메라의 높이를 나타낸다.Where K 'is the camera property matrix after the movement of the mobile robot, Is the rotation matrix representing the angle change of the camera, 0 is the zero matrix of 3 × 1, Is a matrix representing a change in the position of the camera, and h is the height of the camera used to capture an image.
수식 1은 도2에 도시된 개념도로부터 용이하게 이해될 수 있다.
즉, 이동 로봇의 카메라가 C 위치에서 C'으로 이동하는 경우에서, C 위치에서 획득된 이미지(π) 상에 바닥 직선(L)의 투영 직선(l)이, C' 위치에서 획득된 이미지(π') 상에서는 어떻게 나타날 것인지, 즉 C에서 C'으로 카메라 이동시 두 이미지 평면상에서 직선의 변환이 어떻게 일어나는지가 호모그라피 행렬(H: homography matrix)에 의해 결정된다. That is, in the case where the camera of the mobile robot moves from the C position to C ', the projection straight line l of the bottom straight line L is on the image π obtained at the C position, and the image obtained at the C' position ( It is determined by the homography matrix (H) how it will appear on π '), ie the transformation of straight lines on the two image planes when moving the camera from C to C'.
은 도2에서 개시된 카메라의 위치 변화(C->C')에 따른 각도 변화를 나타내는 것으로서, 따라서 로봇의 회전에 따른 카메라 촬영 방향의 각도 변화를 포함하는 것이다. 또한, 는 로봇의 이동을 포함한 카메라의 위치 이동을 반영하는 것으로서 역시 카메라의 위치 변화(C->C')를 반영하기 위한 것이다. 2 represents an angle change according to the position change (C-> C ′) of the camera disclosed in FIG. 2, and thus includes an angle change in the camera photographing direction according to the rotation of the robot. Also, Is to reflect the positional movement of the camera including the movement of the robot, and also to reflect the change in position of the camera (C-> C ').
본 발명자는 수식 2와 같은 호모그라피 행렬을 새롭게 제안하여 본 발명에 따른 정확한 추정 직선의 산출 방법을 제공한다.The inventor newly proposes a homography matrix such as Equation 2 to provide a method for calculating an accurate estimated straight line according to the present invention.
이제, 제1 후보 직선을 결정했던 것과 마찬가지로 움직임 후 촬영된 이미지로부터 추출된 직선 성분들로부터 바닥 선으로 추정되는 제2 후보 직선을 결정한다.Now, as in the case where the first candidate straight line is determined, a second candidate straight line estimated as the bottom line is determined from the straight line components extracted from the image captured after the movement.
그리고 산출된 추정 직선과 제2 후보 직선의 동일성을 판정한다. 추정 직선과 제2 후보 직선이 다수인 경우에는 개별적으로 동일성 판정을 시행한다.The sameness of the calculated estimated straight line and the second candidate straight line is determined. In the case where there are a large number of estimated straight lines and second candidate straight lines, equality judgment is performed separately.
이때 직선들의 동일성 판정은 이미지상에서 직선을 특정하는 좌표 비교에 의할 수 있다. 예를 들어, 도3을 참조하면 이미지의 좌측 모서리 점을 원점으로 하고, 원점으로부터 직선이 이르는 최단 거리(d)와 이미지의 수평 방향과 직선이 이루는 각(θ)에 의해 직선을 특정하는 좌표로 삼을 수 있다. In this case, the determination of the identity of the straight lines may be based on a coordinate comparison specifying a straight line on the image. For example, referring to Fig. 3, the left corner of the image is referred to as the origin, and the coordinates are specified by the shortest distance d from the origin to the straight line and the angle (θ) between the horizontal direction and the straight line of the image. Can do it.
이제 직선 사이의 동일성을 판단하기 위해, 거리(d)와 각도(θ)의 차에 가중치(α,β)를 부여하여 평가된 에러의 크기(ε)를 산출한다.Now, in order to determine the identity between the straight lines, weights α and β are given to the difference between the distance d and the angle θ to calculate the magnitude of the estimated error ε.
[수식 3][Equation 3]
ε= α(d-d') + β(θ-θ') < Ζε = α (d-d ') + β (θ-θ') <Ζ
산출된 에러가 미리 결정된 임계값(Z)보다 작은 경우, 추정 직선과 제2 후보직선의 동일성이 있는 것으로 판정한다.When the calculated error is smaller than the predetermined threshold value Z, it is determined that there is an identity between the estimated straight line and the second candidate straight line.
이제, 추정 직선과 동일성이 인정된 제2 후보 직선을 바닥 직선으로 결정하게 되고, 이에 따라 바닥 직선에 대한 관측 모델이 결정된다. 즉, 도4에 도시된 바와 같이, 이동 로봇의 좌표(x,y) 변화와 그에 따른 바닥 직선(L) 사이의 거리 변화 및 주행 방향과 이루는 각도 변화(θk) 등을 정의할 수 있게 된다. Now, the second candidate straight line whose identity is recognized as the estimated straight line is determined as the bottom straight line, and thus the observation model for the bottom straight line is determined. That is, as shown in Figure 4, it is possible to define the change in the coordinate (x, y) of the mobile robot and the distance change between the floor straight line (L) and the angle change (θ k ) to the driving direction, etc. .
바닥 직선에 대한 관측 모델이 마련되면 표준 EFK 알고리즘을 적용하여 통상의 절차에 따라 지도를 작성하게 된다. Once the observation model for the floor line is in place, the map is created according to the usual procedures using standard EFK algorithms.
본 발명의 실시예는 바닥에 수직한 수직 직선을 포함하는 지도 작성을 더 포함할 수 있다. Embodiments of the present invention may further comprise a map comprising a vertical straight line perpendicular to the floor.
도5에 도시된 바와 같이, 수직 직선은 바닥 평면으로 투영하면 한 개의 점으로 표현될 수 있다. 모토 카메라로부터 이미지에서 추출한 수직직선은 각도 정보만 있고 거리 정보가 없으므로 Inverse Depth Parameterization(IDP) 방법으로 모델링하는 것이 가능하며, 도6과 같은 투영점에 대한 관측 모델을 마련할 수 있다. As shown in Fig. 5, the vertical straight line may be expressed as one point when projected to the floor plane. Since the vertical line extracted from the image from the moto camera has only angular information and no distance information, it can be modeled by Inverse Depth Parameterization (IDP) method, and an observation model for the projection point as shown in FIG. 6 can be prepared.
이와 같이 마련된 바닥 직선과 수직 직선에 대한 관측 모델을 표준 EFK(Extended Kalman Filter)에 적용하여, 수직 직선과 바닥 직선을 이용하여 얻어진 최종 지도가 도7에 개시되어 있다.The final map obtained using the vertical straight line and the bottom straight line by applying the observation model of the floor straight line and the vertical straight line thus prepared to the standard Extended Kalman Filter (EFK) is shown in FIG. 7.
도7의 3차원 지도는 실질적으로는 바닥 직선과 투영점의 2차원 정보로 작성될 수 있는 것이며, 따라서 데이터 표현이 용이하고 연산이 간단한 등 데이터 처리에 상당한 이점을 제공한다.The three-dimensional map of FIG. 7 can be substantially created with two-dimensional information of the floor straight line and the projection point, thus providing a significant advantage in data processing such as easy data representation and simple operation.
도8에서 알 수 있는 바와 같이, 특징점에 의해 작성된 지도와 비교하여 볼 때, 바닥 직선과 수직 직선에 의한 지도가 주변 환경을 더욱 잘 표현할 수 있다는 것을 알 수 있다. As can be seen from FIG. 8, it can be seen that the maps by the floor straight line and the vertical straight line can better express the surrounding environment as compared with the map created by the feature points.
지금까지 본 발명의 실시예를 설명하였으나 본 발명의 기술적 사상을 벗어나지 않는 범위에서 본 발명의 변형이 가능하다는 것을 당업자는 이해할 수 있을 것이다.Although the embodiments of the present invention have been described so far, those skilled in the art will understand that variations of the present invention are possible without departing from the spirit of the present invention.
따라서, 전술한 본 발명의 실시예는 예시적인 것으로 이해되어야 하며, 이하 특허청구범위에 기재된 본 발명의 기술적 사상을 중심으로 그 균등범위까지 본 발명의 보호범위가 인정되어야 할 것이다.
Therefore, the embodiments of the present invention described above should be understood as illustrative, and the protection scope of the present invention should be recognized to the equivalent range based on the technical spirit of the present invention described in the claims below.
Claims (6)
촬영 이미지에서 추출된 선들로부터 상기 이동 로봇이 주행하는 바닥에 위치하는 선으로 추정되는 제1 후보 직선을 결정하는 단계;
상기 이동 로봇의 움직임에 따라 다음 촬영 이미지에서 예측되는 상기 제1 후보 직선의 대응 추정 직선을 산출하는 단계;
상기 이동 로봇의 움직임 후 촬영된 이미지 중 상기 이동 로봇이 주행하는 바닥에 위치하는 선으로 추정되는 제2 후보 직선을 결정하는 단계;
상기 추정 직선과 상기 제2 후보 직선의 동일성을 판정하는 단계; 및
판정 결과 상기 추정 직선과 동일성이 인정되는 상기 제2 후보 직선을 활용하여 지도를 작성하는 단계를 포함하는 것을 특징으로 하는 동시적 위치 인식 및 지도 작성 방법.
In the image-based simultaneous location recognition and mapping method of a mobile robot,
Determining a first candidate straight line estimated from a line extracted from a photographed image as a line located on a floor on which the mobile robot travels;
Calculating a corresponding estimated straight line of the first candidate straight line predicted in a next captured image according to the movement of the mobile robot;
Determining a second candidate straight line estimated as a line located on a floor on which the mobile robot travels among the images photographed after the movement of the mobile robot;
Determining the identity of the estimated straight line and the second candidate straight line; And
And generating a map by utilizing the second candidate straight line whose determination result is the same as the estimated straight line.
상기 추정 직선과 상기 제2 후보 직선의 동일성을 판정하는 단계는,
상기 추정 직선을 특정하는 좌표와 상기 제2 후보 직선을 특정하는 좌표의 차이가 미리 결정된 임계범위 내에 있는지 여부에 따라 동일성을 결정하는 단계를 포함하는 것을 특징으로 하는 동시적 위치 인식 및 지도 작성 방법.
The method of claim 1,
Determining the identity of the estimated straight line and the second candidate straight line,
And determining the identity according to whether a difference between the coordinates specifying the estimated straight line and the coordinates specifying the second candidate straight line is within a predetermined threshold range.
상기 좌표는 상기 이미지에서의 임의의 점으로부터 직선에 이르는 거리와 수평 직선과 상기 직선이 이루는 각으로 구해지는 것을 특징으로 하는 동시적 위치 인식 및 지도 작성 방법.
The method of claim 2,
And the coordinates are obtained at a distance from an arbitrary point in the image to a straight line and at an angle formed by a horizontal straight line and the straight line.
상기 촬영 이미지로부터 상기 바닥에 수직을 이루는 수직 직선을 추출하는 단계를 더 포함하고,
촬영 이미지에서 추출된 선들로부터 상기 이동 로봇이 주행하는 바닥에 위치하는 선으로 추정되는 제1 후보 직선을 결정하는 단계는, 상기 수직 직선의 중간 점보다 낮은 위치에 형성된 직선 중에서 제1 후보 직선을 결정하는 단계를 포함하는 것을 특징으로 하는 동시적 위치 인식 및 지도 작성 방법.
The method of claim 1,
Extracting a vertical straight line perpendicular to the floor from the photographed image;
Determining a first candidate straight line estimated from a line extracted from a photographed image as a line located on a floor on which the mobile robot travels, determines a first candidate straight line among straight lines formed at a position lower than a middle point of the vertical straight line. Simultaneous location recognition and mapping method comprising the steps of.
상기 촬영 이미지로부터 상기 바닥에 수직을 이루는 수직 직선을 추출하는 단계를 더 포함하고,
상기 추정 직선과 동일성이 인정된 상기 제2 후보 직선을 활용하여 작성되는 지도에 상기 수직 직선이 상기 바닥에 투영되는 점을 추가하여 2차원의 지도로 3차원의 지도 정보를 표현하도록 하는 단계를 포함하는 것을 특징으로 하는 동시적 위치 인식 및 지도 작성 방법.
The method of claim 1,
Extracting a vertical straight line perpendicular to the floor from the photographed image;
And adding a point at which the vertical straight line is projected on the floor to a map created by using the second candidate straight line that has been identified to be equal to the estimated straight line so as to express three-dimensional map information in a two-dimensional map. Simultaneous location recognition and mapping method.
상기 추정 직선을 산출하는 단계는 다음 수식에 의해 상기 추정 직선을 결정하는 것을 특징으로 하는 동시적 위치 인식 및 지도 작성 방법:
여기에서, I는 제1 후보 직선, I'은 추정 직선, H는 호모그라피 행렬로서 다음과 같이 정의:
여기에서, K'은 이동 로봇의 움직임 후 카메라 속성 행렬, 은 카메라의 각도 변화를 나타내는 회전 행렬, 0 는 3×1의 영 행렬, 는 카메라의 위치 변화를 나타내는 행렬, h는 이미지 촬영에 사용된 카메라의 높이)
The method according to any one of claims 1 to 5,
The calculating of the estimated straight line may include determining the estimated straight line by the following equation.
Where I is the first candidate straight line, I 'is the estimated straight line, and H is a homography matrix, defined as:
Where K 'is the camera property matrix after the movement of the mobile robot, Is the rotation matrix representing the angle change of the camera, 0 is the zero matrix of 3 × 1, Is a matrix representing the change in position of the camera, and h is the height of the camera used to capture the image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100140609A KR101207535B1 (en) | 2010-12-31 | 2010-12-31 | Image-based simultaneous localization and mapping for moving robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100140609A KR101207535B1 (en) | 2010-12-31 | 2010-12-31 | Image-based simultaneous localization and mapping for moving robot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120078339A true KR20120078339A (en) | 2012-07-10 |
KR101207535B1 KR101207535B1 (en) | 2012-12-03 |
Family
ID=46711703
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100140609A KR101207535B1 (en) | 2010-12-31 | 2010-12-31 | Image-based simultaneous localization and mapping for moving robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101207535B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103914068A (en) * | 2013-01-07 | 2014-07-09 | 中国人民解放军第二炮兵工程大学 | Service robot autonomous navigation method based on raster maps |
CN105136144A (en) * | 2015-08-05 | 2015-12-09 | 中科新松有限公司 | Mall navigation system and mall navigation method |
CN105579811A (en) * | 2013-09-27 | 2016-05-11 | 高通股份有限公司 | Exterior hybrid photo mapping |
KR20190127838A (en) * | 2017-07-07 | 2019-11-13 | 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 | Method, apparatus and device, and storage medium for determining camera pose information |
CN112767818A (en) * | 2019-11-01 | 2021-05-07 | 北京初速度科技有限公司 | Map construction method and device |
US11747822B2 (en) | 2015-11-02 | 2023-09-05 | Starship Technologies Oü | Mobile robot system and method for autonomous localization using straight lines extracted from visual images |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101423139B1 (en) | 2012-06-19 | 2014-07-28 | 한양대학교 산학협력단 | Method for localization and mapping using 3D line, and mobile body thereof |
CN104932494B (en) * | 2015-04-27 | 2018-04-13 | 广州大学 | The build mechanism of distribution of obstacles figure in a kind of probabilistic type room |
-
2010
- 2010-12-31 KR KR1020100140609A patent/KR101207535B1/en not_active IP Right Cessation
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103914068A (en) * | 2013-01-07 | 2014-07-09 | 中国人民解放军第二炮兵工程大学 | Service robot autonomous navigation method based on raster maps |
CN105579811A (en) * | 2013-09-27 | 2016-05-11 | 高通股份有限公司 | Exterior hybrid photo mapping |
US9947100B2 (en) | 2013-09-27 | 2018-04-17 | Qualcomm Incorporated | Exterior hybrid photo mapping |
CN105579811B (en) * | 2013-09-27 | 2019-06-28 | 高通股份有限公司 | Method for the drawing of external mix photo |
CN105136144A (en) * | 2015-08-05 | 2015-12-09 | 中科新松有限公司 | Mall navigation system and mall navigation method |
US11747822B2 (en) | 2015-11-02 | 2023-09-05 | Starship Technologies Oü | Mobile robot system and method for autonomous localization using straight lines extracted from visual images |
KR20190127838A (en) * | 2017-07-07 | 2019-11-13 | 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 | Method, apparatus and device, and storage medium for determining camera pose information |
CN112767818A (en) * | 2019-11-01 | 2021-05-07 | 北京初速度科技有限公司 | Map construction method and device |
CN112767818B (en) * | 2019-11-01 | 2022-09-27 | 北京初速度科技有限公司 | Map construction method and device |
Also Published As
Publication number | Publication date |
---|---|
KR101207535B1 (en) | 2012-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101207535B1 (en) | Image-based simultaneous localization and mapping for moving robot | |
KR101725060B1 (en) | Apparatus for recognizing location mobile robot using key point based on gradient and method thereof | |
CN110807350B (en) | System and method for scan-matching oriented visual SLAM | |
KR101776621B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
KR101776622B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
KR101633620B1 (en) | Feature registration apparatus for image based localization and method the same | |
US10068344B2 (en) | Method and system for 3D capture based on structure from motion with simplified pose detection | |
JP4912388B2 (en) | Visual tracking method for real world objects using 2D appearance and multi-cue depth estimation | |
KR101784183B1 (en) | APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF | |
US20150235367A1 (en) | Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image | |
Moosmann et al. | Motion estimation from range images in dynamic outdoor scenes | |
JP4100239B2 (en) | Obstacle detection device and autonomous mobile robot using the same device, obstacle detection method, and obstacle detection program | |
EP2166375B1 (en) | System and method of extracting plane features | |
KR101423139B1 (en) | Method for localization and mapping using 3D line, and mobile body thereof | |
JP2011048706A (en) | Device, method, and program for automatically generating map by sensor fusion and moving mobile body by using the map automatically generated | |
JP2017191576A (en) | Information processor, control method information processor and program | |
JP7372708B2 (en) | Wide viewing angle stereo camera device and depth image processing method using the same | |
WO2015040119A1 (en) | 3d reconstruction | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
CN103744110B (en) | The ultrasonic obstacle recognition system being combined with monocular vision sensor | |
JP2014178967A (en) | Three-dimensional object recognition device and three-dimensional object recognition method | |
JP2017182564A (en) | Positioning device, positioning method, and positioning computer program | |
JP7444292B2 (en) | Detection system, detection method, and program | |
EP4016456A1 (en) | Method and system for determining a three dimensional position | |
WO2021109068A1 (en) | Gesture control method and movable platform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20151030 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20161004 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |