KR20120078339A - Image-based simultaneous localization and mapping for moving robot - Google Patents

Image-based simultaneous localization and mapping for moving robot Download PDF

Info

Publication number
KR20120078339A
KR20120078339A KR1020100140609A KR20100140609A KR20120078339A KR 20120078339 A KR20120078339 A KR 20120078339A KR 1020100140609 A KR1020100140609 A KR 1020100140609A KR 20100140609 A KR20100140609 A KR 20100140609A KR 20120078339 A KR20120078339 A KR 20120078339A
Authority
KR
South Korea
Prior art keywords
straight line
estimated
candidate
image
mobile robot
Prior art date
Application number
KR1020100140609A
Other languages
Korean (ko)
Other versions
KR101207535B1 (en
Inventor
서일홍
장국현
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020100140609A priority Critical patent/KR101207535B1/en
Publication of KR20120078339A publication Critical patent/KR20120078339A/en
Application granted granted Critical
Publication of KR101207535B1 publication Critical patent/KR101207535B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means

Abstract

PURPOSE: An image-based simultaneous localization and mapping for moving robot are provided to simplify data handling by expressing a vertical straight line composing three dimensions and a floor straight line in a two dimensional plane. CONSTITUTION: A first candidate straight line is determined from extracted lines of photographing images. A corresponding estimated straight line expected in the next photographing images according to the movement of a robot is calculated. A second candidate straight line is determined from the photographing images after the robots moved. The identity of the estimated straight line and the second candidate straight line is determined. A map is made based on the second candidate straight line admitted to have an identity with an estimated straight line.

Description

이동 로봇의 이미지 기반 동시적 위치 인식 및 지도 작성 방법{IMAGE-BASED SIMULTANEOUS LOCALIZATION AND MAPPING FOR MOVING ROBOT}Image-based simultaneous location recognition and mapping of mobile robots {IMAGE-BASED SIMULTANEOUS LOCALIZATION AND MAPPING FOR MOVING ROBOT}

본 발명은 로봇의 동시적 위치 인식 및 지도 작성 방법(SLAM : Simultaneous Localization And Mapping)에 관한 것으로서, 더욱 상세하게는, 카메라를 통해 입력되는 이미지에서 직선 성분을 추출하고 이를 특징 데이터로 사용하여 위치 인식과 지도 작성을 동시에 수행하는 방법에 관한 것이다.
The present invention relates to a simultaneous location recognition and mapping method of a robot (SLAM: Simultaneous Localization And Mapping), and more particularly, location recognition by extracting a linear component from an image input through a camera and using it as feature data And how to do mapping at the same time.

동시적 위치 인식 및 지도 작성 방법(이하, "SLAM"이라 한다)은 자율주행을 필수로 하는 로봇에 있어서 가장 기본이 되는 기능 중 하나이다. 로봇이 처음으로 접하는 환경에 진입하게 될 경우, 그 환경에 대한 지도를 작성하여 환경을 이해해야 하는데, 이를 위해서는 작성 진행되는 지도에서 로봇의 현재 위치를 항상 정확하게 인식할 수 있어야 최종적으로 정확한 지도를 작성할 수 있다.Simultaneous location recognition and mapping (hereinafter referred to as "SLAM") is one of the most basic functions for robots requiring autonomous driving. When the robot enters the first encounter environment, it is necessary to understand the environment by creating a map of the environment. In order to do this, it is necessary to be able to recognize the current position of the robot on the map in order to create an accurate map. have.

로봇에서 사용하는 센서 유형에 따라서 SLAM 알고리즘에 활용되는 특징 데이터도 다르다. 예컨대, 초음파(Sonar), 레이저와 같은 거리 센서를 통해 얻어진 거리 정보, GPS 기기를 통해 직접 얻어지는 좌표 정보, IMU 장비를 통해 얻어지는 가속도 정보, 스테레오 카메라 혹은 모노 카메라를 이용한 비전 정보 등이 특징 데이터로 사용될 수 있다.Depending on the type of sensor used in the robot, the characteristic data used in the SLAM algorithm is also different. For example, feature information may include distance information obtained through a distance sensor such as an ultrasonic wave or a laser, coordinate information obtained directly from a GPS device, acceleration information obtained through an IMU device, and vision information using a stereo camera or a mono camera. Can be.

모노 카메라는 기타 종류의 센서들에 비하여 가격이 싸고 센서가 차지하는 부피가 작은 장점이 있다. 또한, 카메라로부터 취득하는 비전 정보는 SLAM 외에도 물체 식별, 휴먼 표정 인식 등 기타 유용한 정보 추출에 활용될 수 있으므로 다른 센서에 비하여 더욱 유용하고 다양한 서비스에 제공에도 효과적이다.Mono cameras offer the advantages of lower cost and smaller volume than other types of sensors. In addition, since the vision information obtained from the camera can be used to extract other useful information such as object identification and human facial recognition, in addition to SLAM, it is more useful than other sensors and effective in providing various services.

비전 정보를 이용하는 SLAM(이하, "vSLAM"이라 한다)은 특징 데이터로 특징점을 이용하는 방법이 주로 연구되어 왔다. 특징점은 비전 알고리즘으로 처리하기 간편하고 다양한 환경에 적용할 수 있는 장점이 있는 반면, 필요한 특징점의 개수가 많아야만 하고 작성된 지도가 진일보 확장하기 어려운 단점이 있다.SLAM using vision information (hereinafter, referred to as "vSLAM") has been mainly studied how to use feature points as feature data. While feature points have the advantage of being easy to process with vision algorithms and applicable to various environments, the number of required feature points must be large and the created maps are difficult to expand further.

이에 비하여, 직선 성분을 특징 데이터로 삼는 경우 불확실성이 증가하는 문제가 있어 상대적으로 연구 진행이 미흡하다. 즉, 직선 성분은 인공구조물이 많은 환경에 적절하다는 평가가 있으나 지도를 구성하는데 필요한 개수가 적고 작성된 지도는 의미적 레이블을 추가하기 용이하다는 빼어난 장점이 있다. 직선성분을 SLAM에 적용하기 위한 기존의 연구는 직선을 표현하기 위한 방법으로 주로 일반적인 모델링 방식으로 접근하여 특징 데이터의 불확실성을 크게 하는 단점이 있다.
On the other hand, there is a problem in that uncertainty increases when a linear component is used as feature data, and research is relatively insufficient. In other words, there is an evaluation that the linear component is suitable for an environment with many artificial structures, but there is an advantage that the number of maps required for constructing the map is small, and that the prepared map is easy to add semantic labels. Existing researches for applying linear components to SLAMs have a drawback to increase the uncertainty of feature data by approaching general modeling methods.

따라서 본 발명은 기존 직선 성분을 이용한 vSLAM 알고리즘을 개선하여, 데이터 처리가 간편하고 불확실성이 감소한 SLAM을 제공하는 것을 목적으로 한다.
Accordingly, an object of the present invention is to improve a vSLAM algorithm using an existing linear component, and to provide a SLAM having simple data processing and reduced uncertainty.

상기 목적은 본 발명의 일 양태에 따른, 이동 로봇의 이미지 기반 동시적 위치 인식 및 지도 작성 방법에 있어서, 촬영 이미지에서 추출된 선들로부터 상기 이동 로봇이 주행하는 바닥에 위치하는 선으로 추정되는 제1 후보 직선을 결정하는 단계; 상기 이동 로봇의 움직임에 따라 다음 촬영 이미지에서 예측되는 상기 후보 직선의 대응 추정 직선을 산출하는 단계; 상기 이동 로봇의 움직임 후 촬영된 이미지 중 상기 이동 로봇이 주행하는 바닥에 위치하는 선으로 추정되는 제2 후보 직선을 결정하는 단계; 상기 추정 직선과 상기 제2 후보 직선의 동일성을 판정하는 단계; 및 판정 결과 상기 추정 직선과 동일성이 인정되는 상기 제2 후보 직선을 활용하여 지도를 작성하는 단계를 포함하는 것을 특징으로 하는 동시적 위치 인식 및 지도 작성 방법에 의해 달성될 수 있다.According to one aspect of the present invention, in the image-based simultaneous position recognition and mapping method of a mobile robot, a first line estimated from a line extracted from a photographed image is a line located on the floor on which the mobile robot travels. Determining a candidate straight line; Calculating a corresponding estimated straight line of the candidate straight line predicted in a next captured image according to the movement of the mobile robot; Determining a second candidate straight line estimated as a line located on a floor on which the mobile robot travels among the images photographed after the movement of the mobile robot; Determining the identity of the estimated straight line and the second candidate straight line; And generating a map by using the second candidate straight line whose identity is recognized as the estimated straight line as a result of the determination.

여기에서, 상기 추정 직선과 상기 제2 후보 직선의 동일성을 판정하는 단계는, 상기 추정 직선을 특정하는 좌표와 상기 제2 후보 직선을 특정하는 좌표의 차이가 미리 결정된 임계범위 내에 있는지 여부에 따라 동일성을 결정하는 단계를 포함할 수 있다. 그리고, 상기 좌표는 상기 이미지에서의 임의의 점으로부터 직선에 이르는 거리와 수평 직선과 상기 직선이 이루는 각으로 구해지는 것으로 특정할 수 있다.The determining of the identity between the estimated straight line and the second candidate straight line may include determining whether the difference between the coordinates specifying the estimated straight line and the coordinates specifying the second candidate straight line is within a predetermined threshold range. It may include the step of determining. The coordinates can be specified to be obtained from a distance from an arbitrary point in the image to a straight line and an angle formed by the horizontal straight line and the straight line.

또한, 상기 본 발명은 상기 촬영 이미지로부터 상기 바닥에 수직을 이루는 수직 직선을 추출하는 단계를 더 포함하고, 촬영 이미지에서 추출된 선들로부터 상기 이동 로봇이 주행하는 바닥에 위치하는 선으로 추정되는 제1 후보 직선을 결정하는 단계는, 상기 수직 직선의 중간 점보다 낮은 위치에 형성된 직선 중에서 제1 후보 직선을 결정하는 단계를 포함하도록 선택할 수 있다.The present invention may further include extracting a vertical straight line perpendicular to the floor from the photographed image, wherein the first line is estimated to be a line located on the floor on which the mobile robot travels from the lines extracted from the photographed image. The determining of the candidate straight line may be selected to include determining a first candidate straight line among straight lines formed at a position lower than a midpoint of the vertical straight line.

또한, 상기 본 발명은 상기 촬영 이미지로부터 상기 바닥에 수직을 이루는 수직 직선을 추출하는 단계를 더 포함하고, 상기 추정 직선과 동일성이 인정된 상기 제2 후보 직선을 활용하여 작성되는 지도에 상기 수직 직선이 상기 바닥에 투영되는 점을 추가하여 2차원의 지도로 3차원의 지도 정보를 표현하도록 하는 단계를 포함하도록 함으로써 데이터 처리를 간편하게 하고 불확실성을 감소시킬 수 있다.The method may further include extracting a vertical straight line perpendicular to the floor from the photographed image, wherein the vertical straight line is formed on a map created by using the second candidate straight line recognized as the estimated straight line. By adding a point projected to the floor to include a three-dimensional map information to represent a two-dimensional map, it is possible to simplify the data processing and reduce the uncertainty.

상기 일련의 본 발명들은 상기 추정 직선을 산출하는 단계는 다음 수식에 의해 상기 추정 직선을 결정하도록 할 수 있다.In the series of the present invention, calculating the estimated straight line may determine the estimated straight line by the following equation.

Figure pat00001
Figure pat00001

여기에서, I는 제1 후보 직선, I'은 추정 직선, H는 호모그라피 행렬로서 다음과 같이 정의된다:Where I is the first candidate straight line, I 'is the estimated straight line, H is the homography matrix, and is defined as follows:

Figure pat00002
Figure pat00002

여기에서, K'은 이동 로봇의 움직임 후 카메라 속성 행렬,

Figure pat00003
은 카메라의 각도 변화를 나타내는 회전 행렬, 0 는 3×1의 영 행렬,
Figure pat00004
는 카메라의 위치 변화를 나타내는 행렬 , h는 이미지 촬영에 사용된 카메라의 높이를 나타낸다.
Where K 'is the camera property matrix after the movement of the mobile robot,
Figure pat00003
Is the rotation matrix representing the angle change of the camera, 0 is the zero matrix of 3 × 1,
Figure pat00004
Is a matrix representing the change in the position of the camera, and h is the height of the camera used to capture the image.

직선 성분을 특징 데이터로 사용하여 SLAM을 수행하는 본 발명에 의할 때 특징점으로 작성된 지도보다 주변 환경을 더욱 잘 표현한다는 장점이 있다. According to the present invention in which a SLAM is performed using a linear component as feature data, there is an advantage of better representation of the surrounding environment than a map created as a feature point.

또한, 본 발명이 제공하는 신규한 방법에 의해 바닥 직선에 대한 관측 모델을 결정함에 따라 불확실성을 크게 개선할 수 있으며, 3차원을 구성하는 수직 직선과 바닥 직선을 2차원의 바닥 평면에 표현할 수 있으므로 데이터 처리를 간편화할 수 있다.
In addition, the uncertainty can be greatly improved by determining the observation model for the floor straight line by the novel method provided by the present invention. Data processing can be simplified.

도1은 본 발명의 실시예에 따른 이동 로봇의 이미지 기반 동시적 위치 인식 및 지도 작성 방법에 관한 순서도
도2는 호모그라피 행렬에 의한 직선 변환 관계를 설명하기 위한 개념도;
도3은 이미지상에서 직선을 특정하는 구좌표계를 설명하기 위한 개념도;
도4는 결정된 바닥 직선에 대한 관측 모델을 설명하기 위한 개념도;
도5는 수직 직선의 투영점의 개념을 설명하기 위한 개념도;
도6은 결정된 투영점에 대한 관측 모델을 설명하기 위한 개념도;
도7은 바닥 직선 및 수직 직선의 관측 모델을 EFK 알고리즘에 적용하여 완성한 최종 지도의 예; 및
도8은 특징점에 의해 작성된 지도와 직선에 의해 작성된 지도를 비교하기 위한 도면이다.
1 is a flowchart illustrating a method for image-based simultaneous location recognition and mapping of a mobile robot according to an embodiment of the present invention.
2 is a conceptual diagram for explaining a linear transformation relationship by a homography matrix;
3 is a conceptual diagram for explaining a spherical coordinate system for specifying a straight line on an image;
4 is a conceptual diagram for explaining an observation model for the determined floor straight line;
5 is a conceptual diagram for explaining the concept of a projection point of a vertical straight line;
6 is a conceptual diagram for explaining an observation model for the determined projection point;
7 is an example of the final map completed by applying the observation model of the floor straight line and the vertical straight line to the EFK algorithm; And
8 is a diagram for comparing a map created by a feature point with a map created by a straight line.

본 발명은 이동 로봇의 SLAM 알고리즘에 관한 것이므로, 이동 로봇의 하드웨어적인 부분의 구체적인 설명은 생략하며, 본 발명의 실시예는 이동 가능하고 모노 카메라가 탑재되어 있는 이동 로봇의 하드웨어 구조를 상정하여 기술하도록 한다.Since the present invention relates to a SLAM algorithm of a mobile robot, a detailed description of the hardware part of the mobile robot is omitted, and an embodiment of the present invention is assumed to describe a hardware structure of a mobile robot that is movable and is equipped with a mono camera. do.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 구체적으로 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도1은 본 발명의 실시예에 따른 이동 로봇의 이미지 기반 동시적 위치 인식 및 지도 작성 방법에 관한 순서도이다.1 is a flowchart illustrating a method of image-based simultaneous location recognition and mapping of a mobile robot according to an exemplary embodiment of the present invention.

먼저, 이동 로봇은 모노 카메라를 이용하여 촬영하여 촬영 이미지를 획득하고, 촬영 이미지로부터 직선 성분들을 추출한다. 이미지로부터 직성 성분을 추출하는 방법으로 주지의 캐니 에지 검출(Canny edge detection) 및 호프 변환(Hough transform)을 활용한다.First, the mobile robot captures a photographed image by using a mono camera, and extracts linear components from the photographed image. Well-known Canny edge detection and Hough transform are utilized as a method of extracting a straight component from an image.

다음, 추출된 직선 성분들 중 이동 로봇이 주행하는 바닥에 위치하는 선으로 추정되는 제1 후보 직선을 결정한다. Next, among the extracted linear components, a first candidate straight line estimated as a line located on the floor on which the mobile robot travels is determined.

이때, 모노 카메라의 회전 정보 및 직선들의 방향성을 바탕으로 추출된 직선들이 바닥 상에 위치하는 선인지를 1차 구별할 수 있으며, 수직 직선 성분의 중간 지점보다 상위하는 직선은 바닥 선의 후보로부터 제하는 등 다양한 직간접 기준을 가지고 제1 후보 직선을 결정하는 것이 또한 가능하다. 카메라가 수평을 유지하는 경우, 추출된 직선 중에서 두 끝점의 수직 좌표 사이의 차이가 허용 범위 내의 픽셀 차이를 나타내는 경우 바닥 직선으로 또한 1차 추정할 수 있다. At this time, based on the rotation information of the mono camera and the directionality of the straight lines can be distinguished whether the first straight line is located on the floor, and the straight line higher than the middle point of the vertical straight component is subtracted from the candidate of the bottom line, etc. It is also possible to determine the first candidate straight line with various direct and indirect criteria. When the camera is horizontal, it can also be first-order estimated as the bottom straight line if the difference between the vertical coordinates of the two endpoints of the extracted straight lines represents a pixel difference within the acceptable range.

다음, 이동 로봇이 움직임이 있는 경우, 모노 카메라로 다시 촬영하여 움직임 이후의 이미지를 획득한다. 여기에서 이동 로봇의 움직임은 이동 로봇의 주행, 회전, 카메라의 회전 등의 개별적 움직임 혹은 동시 다발적인 움직임을 포함한다. 어느 경우에나 로봇의 움직임 또는 제어 정보가 축적되어 활용될 수 있다.Next, when the mobile robot has a motion, the camera photographs again with a mono camera to obtain an image after the motion. Here, the movement of the mobile robot includes individual movements such as driving, rotation, and rotation of the camera, or simultaneous movements of the mobile robot. In either case, the movement or control information of the robot may be accumulated and utilized.

다음, 움직임에 의한 제1 후보 직선에 대응하는 새로운 이미지상의 직선 성분을 추정한다. 여기에서, 움직임에 따른 로봇의 전후좌우 이동량, 카메라의 회전량, 카메라 속성의 변화, 로봇의 회전량 등이 제1 후보 직선을 예측하고 추정하는데 근거로 활용될 수 있다.Next, a straight line component on the new image corresponding to the first candidate straight line due to the motion is estimated. Here, the front, rear, left, and right movements of the robot, the amount of rotation of the camera, the change of camera properties, the amount of rotation of the robot, and the like may be used as a basis for predicting and estimating the first candidate straight line.

추정 방법으로 다음과 같은 수식을 사용하는 것이 가능하다: It is possible to use the following formula as an estimation method:

[수식 1][Equation 1]

Figure pat00005
Figure pat00005

여기에서, I는 제1 후보 직선, I'은 추정 직선, H는 호모그라피 행렬로서 다음과 같이 정의된다:Where I is the first candidate straight line, I 'is the estimated straight line, H is the homography matrix, and is defined as follows:

[수식 2][Equation 2]

Figure pat00006
Figure pat00006

여기에서, K'은 이동 로봇의 움직임 후 카메라 속성 행렬,

Figure pat00007
은 카메라의 각도 변화를 나타내는 회전 행렬, 0 는 3×1의 영 행렬,
Figure pat00008
는 카메라의 위치 변화를 나타내는 행렬, h는 이미지 촬영에 사용된 카메라의 높이를 나타낸다.Where K 'is the camera property matrix after the movement of the mobile robot,
Figure pat00007
Is the rotation matrix representing the angle change of the camera, 0 is the zero matrix of 3 × 1,
Figure pat00008
Is a matrix representing a change in the position of the camera, and h is the height of the camera used to capture an image.

수식 1은 도2에 도시된 개념도로부터 용이하게 이해될 수 있다.Equation 1 can be easily understood from the conceptual diagram shown in FIG.

즉, 이동 로봇의 카메라가 C 위치에서 C'으로 이동하는 경우에서, C 위치에서 획득된 이미지(π) 상에 바닥 직선(L)의 투영 직선(l)이, C' 위치에서 획득된 이미지(π') 상에서는 어떻게 나타날 것인지, 즉 C에서 C'으로 카메라 이동시 두 이미지 평면상에서 직선의 변환이 어떻게 일어나는지가 호모그라피 행렬(H: homography matrix)에 의해 결정된다. That is, in the case where the camera of the mobile robot moves from the C position to C ', the projection straight line l of the bottom straight line L is on the image π obtained at the C position, and the image obtained at the C' position ( It is determined by the homography matrix (H) how it will appear on π '), ie the transformation of straight lines on the two image planes when moving the camera from C to C'.

Figure pat00009
은 도2에서 개시된 카메라의 위치 변화(C->C')에 따른 각도 변화를 나타내는 것으로서, 따라서 로봇의 회전에 따른 카메라 촬영 방향의 각도 변화를 포함하는 것이다. 또한,
Figure pat00010
는 로봇의 이동을 포함한 카메라의 위치 이동을 반영하는 것으로서 역시 카메라의 위치 변화(C->C')를 반영하기 위한 것이다.
Figure pat00009
2 represents an angle change according to the position change (C-> C ′) of the camera disclosed in FIG. 2, and thus includes an angle change in the camera photographing direction according to the rotation of the robot. Also,
Figure pat00010
Is to reflect the positional movement of the camera including the movement of the robot, and also to reflect the change in position of the camera (C-> C ').

본 발명자는 수식 2와 같은 호모그라피 행렬을 새롭게 제안하여 본 발명에 따른 정확한 추정 직선의 산출 방법을 제공한다.The inventor newly proposes a homography matrix such as Equation 2 to provide a method for calculating an accurate estimated straight line according to the present invention.

이제, 제1 후보 직선을 결정했던 것과 마찬가지로 움직임 후 촬영된 이미지로부터 추출된 직선 성분들로부터 바닥 선으로 추정되는 제2 후보 직선을 결정한다.Now, as in the case where the first candidate straight line is determined, a second candidate straight line estimated as the bottom line is determined from the straight line components extracted from the image captured after the movement.

그리고 산출된 추정 직선과 제2 후보 직선의 동일성을 판정한다. 추정 직선과 제2 후보 직선이 다수인 경우에는 개별적으로 동일성 판정을 시행한다.The sameness of the calculated estimated straight line and the second candidate straight line is determined. In the case where there are a large number of estimated straight lines and second candidate straight lines, equality judgment is performed separately.

이때 직선들의 동일성 판정은 이미지상에서 직선을 특정하는 좌표 비교에 의할 수 있다. 예를 들어, 도3을 참조하면 이미지의 좌측 모서리 점을 원점으로 하고, 원점으로부터 직선이 이르는 최단 거리(d)와 이미지의 수평 방향과 직선이 이루는 각(θ)에 의해 직선을 특정하는 좌표로 삼을 수 있다. In this case, the determination of the identity of the straight lines may be based on a coordinate comparison specifying a straight line on the image. For example, referring to Fig. 3, the left corner of the image is referred to as the origin, and the coordinates are specified by the shortest distance d from the origin to the straight line and the angle (θ) between the horizontal direction and the straight line of the image. Can do it.

이제 직선 사이의 동일성을 판단하기 위해, 거리(d)와 각도(θ)의 차에 가중치(α,β)를 부여하여 평가된 에러의 크기(ε)를 산출한다.Now, in order to determine the identity between the straight lines, weights α and β are given to the difference between the distance d and the angle θ to calculate the magnitude of the estimated error ε.

[수식 3][Equation 3]

ε= α(d-d') + β(θ-θ') < Ζε = α (d-d ') + β (θ-θ') <Ζ

산출된 에러가 미리 결정된 임계값(Z)보다 작은 경우, 추정 직선과 제2 후보직선의 동일성이 있는 것으로 판정한다.When the calculated error is smaller than the predetermined threshold value Z, it is determined that there is an identity between the estimated straight line and the second candidate straight line.

이제, 추정 직선과 동일성이 인정된 제2 후보 직선을 바닥 직선으로 결정하게 되고, 이에 따라 바닥 직선에 대한 관측 모델이 결정된다. 즉, 도4에 도시된 바와 같이, 이동 로봇의 좌표(x,y) 변화와 그에 따른 바닥 직선(L) 사이의 거리 변화 및 주행 방향과 이루는 각도 변화(θk) 등을 정의할 수 있게 된다. Now, the second candidate straight line whose identity is recognized as the estimated straight line is determined as the bottom straight line, and thus the observation model for the bottom straight line is determined. That is, as shown in Figure 4, it is possible to define the change in the coordinate (x, y) of the mobile robot and the distance change between the floor straight line (L) and the angle change (θ k ) to the driving direction, etc. .

바닥 직선에 대한 관측 모델이 마련되면 표준 EFK 알고리즘을 적용하여 통상의 절차에 따라 지도를 작성하게 된다. Once the observation model for the floor line is in place, the map is created according to the usual procedures using standard EFK algorithms.

본 발명의 실시예는 바닥에 수직한 수직 직선을 포함하는 지도 작성을 더 포함할 수 있다. Embodiments of the present invention may further comprise a map comprising a vertical straight line perpendicular to the floor.

도5에 도시된 바와 같이, 수직 직선은 바닥 평면으로 투영하면 한 개의 점으로 표현될 수 있다. 모토 카메라로부터 이미지에서 추출한 수직직선은 각도 정보만 있고 거리 정보가 없으므로 Inverse Depth Parameterization(IDP) 방법으로 모델링하는 것이 가능하며, 도6과 같은 투영점에 대한 관측 모델을 마련할 수 있다. As shown in Fig. 5, the vertical straight line may be expressed as one point when projected to the floor plane. Since the vertical line extracted from the image from the moto camera has only angular information and no distance information, it can be modeled by Inverse Depth Parameterization (IDP) method, and an observation model for the projection point as shown in FIG. 6 can be prepared.

이와 같이 마련된 바닥 직선과 수직 직선에 대한 관측 모델을 표준 EFK(Extended Kalman Filter)에 적용하여, 수직 직선과 바닥 직선을 이용하여 얻어진 최종 지도가 도7에 개시되어 있다.The final map obtained using the vertical straight line and the bottom straight line by applying the observation model of the floor straight line and the vertical straight line thus prepared to the standard Extended Kalman Filter (EFK) is shown in FIG. 7.

도7의 3차원 지도는 실질적으로는 바닥 직선과 투영점의 2차원 정보로 작성될 수 있는 것이며, 따라서 데이터 표현이 용이하고 연산이 간단한 등 데이터 처리에 상당한 이점을 제공한다.The three-dimensional map of FIG. 7 can be substantially created with two-dimensional information of the floor straight line and the projection point, thus providing a significant advantage in data processing such as easy data representation and simple operation.

도8에서 알 수 있는 바와 같이, 특징점에 의해 작성된 지도와 비교하여 볼 때, 바닥 직선과 수직 직선에 의한 지도가 주변 환경을 더욱 잘 표현할 수 있다는 것을 알 수 있다. As can be seen from FIG. 8, it can be seen that the maps by the floor straight line and the vertical straight line can better express the surrounding environment as compared with the map created by the feature points.

지금까지 본 발명의 실시예를 설명하였으나 본 발명의 기술적 사상을 벗어나지 않는 범위에서 본 발명의 변형이 가능하다는 것을 당업자는 이해할 수 있을 것이다.Although the embodiments of the present invention have been described so far, those skilled in the art will understand that variations of the present invention are possible without departing from the spirit of the present invention.

따라서, 전술한 본 발명의 실시예는 예시적인 것으로 이해되어야 하며, 이하 특허청구범위에 기재된 본 발명의 기술적 사상을 중심으로 그 균등범위까지 본 발명의 보호범위가 인정되어야 할 것이다.
Therefore, the embodiments of the present invention described above should be understood as illustrative, and the protection scope of the present invention should be recognized to the equivalent range based on the technical spirit of the present invention described in the claims below.

Claims (6)

이동 로봇의 이미지 기반 동시적 위치 인식 및 지도 작성 방법에 있어서,
촬영 이미지에서 추출된 선들로부터 상기 이동 로봇이 주행하는 바닥에 위치하는 선으로 추정되는 제1 후보 직선을 결정하는 단계;
상기 이동 로봇의 움직임에 따라 다음 촬영 이미지에서 예측되는 상기 제1 후보 직선의 대응 추정 직선을 산출하는 단계;
상기 이동 로봇의 움직임 후 촬영된 이미지 중 상기 이동 로봇이 주행하는 바닥에 위치하는 선으로 추정되는 제2 후보 직선을 결정하는 단계;
상기 추정 직선과 상기 제2 후보 직선의 동일성을 판정하는 단계; 및
판정 결과 상기 추정 직선과 동일성이 인정되는 상기 제2 후보 직선을 활용하여 지도를 작성하는 단계를 포함하는 것을 특징으로 하는 동시적 위치 인식 및 지도 작성 방법.
In the image-based simultaneous location recognition and mapping method of a mobile robot,
Determining a first candidate straight line estimated from a line extracted from a photographed image as a line located on a floor on which the mobile robot travels;
Calculating a corresponding estimated straight line of the first candidate straight line predicted in a next captured image according to the movement of the mobile robot;
Determining a second candidate straight line estimated as a line located on a floor on which the mobile robot travels among the images photographed after the movement of the mobile robot;
Determining the identity of the estimated straight line and the second candidate straight line; And
And generating a map by utilizing the second candidate straight line whose determination result is the same as the estimated straight line.
제1항에 있어서,
상기 추정 직선과 상기 제2 후보 직선의 동일성을 판정하는 단계는,
상기 추정 직선을 특정하는 좌표와 상기 제2 후보 직선을 특정하는 좌표의 차이가 미리 결정된 임계범위 내에 있는지 여부에 따라 동일성을 결정하는 단계를 포함하는 것을 특징으로 하는 동시적 위치 인식 및 지도 작성 방법.
The method of claim 1,
Determining the identity of the estimated straight line and the second candidate straight line,
And determining the identity according to whether a difference between the coordinates specifying the estimated straight line and the coordinates specifying the second candidate straight line is within a predetermined threshold range.
제2항에 있어서,
상기 좌표는 상기 이미지에서의 임의의 점으로부터 직선에 이르는 거리와 수평 직선과 상기 직선이 이루는 각으로 구해지는 것을 특징으로 하는 동시적 위치 인식 및 지도 작성 방법.
The method of claim 2,
And the coordinates are obtained at a distance from an arbitrary point in the image to a straight line and at an angle formed by a horizontal straight line and the straight line.
제1항에 있어서,
상기 촬영 이미지로부터 상기 바닥에 수직을 이루는 수직 직선을 추출하는 단계를 더 포함하고,
촬영 이미지에서 추출된 선들로부터 상기 이동 로봇이 주행하는 바닥에 위치하는 선으로 추정되는 제1 후보 직선을 결정하는 단계는, 상기 수직 직선의 중간 점보다 낮은 위치에 형성된 직선 중에서 제1 후보 직선을 결정하는 단계를 포함하는 것을 특징으로 하는 동시적 위치 인식 및 지도 작성 방법.
The method of claim 1,
Extracting a vertical straight line perpendicular to the floor from the photographed image;
Determining a first candidate straight line estimated from a line extracted from a photographed image as a line located on a floor on which the mobile robot travels, determines a first candidate straight line among straight lines formed at a position lower than a middle point of the vertical straight line. Simultaneous location recognition and mapping method comprising the steps of.
제1항에 있어서,
상기 촬영 이미지로부터 상기 바닥에 수직을 이루는 수직 직선을 추출하는 단계를 더 포함하고,
상기 추정 직선과 동일성이 인정된 상기 제2 후보 직선을 활용하여 작성되는 지도에 상기 수직 직선이 상기 바닥에 투영되는 점을 추가하여 2차원의 지도로 3차원의 지도 정보를 표현하도록 하는 단계를 포함하는 것을 특징으로 하는 동시적 위치 인식 및 지도 작성 방법.
The method of claim 1,
Extracting a vertical straight line perpendicular to the floor from the photographed image;
And adding a point at which the vertical straight line is projected on the floor to a map created by using the second candidate straight line that has been identified to be equal to the estimated straight line so as to express three-dimensional map information in a two-dimensional map. Simultaneous location recognition and mapping method.
제1항 내지 제5항 중 어느 한 항에 있어서,
상기 추정 직선을 산출하는 단계는 다음 수식에 의해 상기 추정 직선을 결정하는 것을 특징으로 하는 동시적 위치 인식 및 지도 작성 방법:
Figure pat00011

여기에서, I는 제1 후보 직선, I'은 추정 직선, H는 호모그라피 행렬로서 다음과 같이 정의:
Figure pat00012

여기에서, K'은 이동 로봇의 움직임 후 카메라 속성 행렬,
Figure pat00013
은 카메라의 각도 변화를 나타내는 회전 행렬, 0 는 3×1의 영 행렬,
Figure pat00014
는 카메라의 위치 변화를 나타내는 행렬, h는 이미지 촬영에 사용된 카메라의 높이)


The method according to any one of claims 1 to 5,
The calculating of the estimated straight line may include determining the estimated straight line by the following equation.
Figure pat00011

Where I is the first candidate straight line, I 'is the estimated straight line, and H is a homography matrix, defined as:
Figure pat00012

Where K 'is the camera property matrix after the movement of the mobile robot,
Figure pat00013
Is the rotation matrix representing the angle change of the camera, 0 is the zero matrix of 3 × 1,
Figure pat00014
Is a matrix representing the change in position of the camera, and h is the height of the camera used to capture the image.


KR1020100140609A 2010-12-31 2010-12-31 Image-based simultaneous localization and mapping for moving robot KR101207535B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100140609A KR101207535B1 (en) 2010-12-31 2010-12-31 Image-based simultaneous localization and mapping for moving robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100140609A KR101207535B1 (en) 2010-12-31 2010-12-31 Image-based simultaneous localization and mapping for moving robot

Publications (2)

Publication Number Publication Date
KR20120078339A true KR20120078339A (en) 2012-07-10
KR101207535B1 KR101207535B1 (en) 2012-12-03

Family

ID=46711703

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100140609A KR101207535B1 (en) 2010-12-31 2010-12-31 Image-based simultaneous localization and mapping for moving robot

Country Status (1)

Country Link
KR (1) KR101207535B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103914068A (en) * 2013-01-07 2014-07-09 中国人民解放军第二炮兵工程大学 Service robot autonomous navigation method based on raster maps
CN105136144A (en) * 2015-08-05 2015-12-09 中科新松有限公司 Mall navigation system and mall navigation method
CN105579811A (en) * 2013-09-27 2016-05-11 高通股份有限公司 Exterior hybrid photo mapping
KR20190127838A (en) * 2017-07-07 2019-11-13 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 Method, apparatus and device, and storage medium for determining camera pose information
CN112767818A (en) * 2019-11-01 2021-05-07 北京初速度科技有限公司 Map construction method and device
US11747822B2 (en) 2015-11-02 2023-09-05 Starship Technologies Oü Mobile robot system and method for autonomous localization using straight lines extracted from visual images

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101423139B1 (en) 2012-06-19 2014-07-28 한양대학교 산학협력단 Method for localization and mapping using 3D line, and mobile body thereof
CN104932494B (en) * 2015-04-27 2018-04-13 广州大学 The build mechanism of distribution of obstacles figure in a kind of probabilistic type room

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103914068A (en) * 2013-01-07 2014-07-09 中国人民解放军第二炮兵工程大学 Service robot autonomous navigation method based on raster maps
CN105579811A (en) * 2013-09-27 2016-05-11 高通股份有限公司 Exterior hybrid photo mapping
US9947100B2 (en) 2013-09-27 2018-04-17 Qualcomm Incorporated Exterior hybrid photo mapping
CN105579811B (en) * 2013-09-27 2019-06-28 高通股份有限公司 Method for the drawing of external mix photo
CN105136144A (en) * 2015-08-05 2015-12-09 中科新松有限公司 Mall navigation system and mall navigation method
US11747822B2 (en) 2015-11-02 2023-09-05 Starship Technologies Oü Mobile robot system and method for autonomous localization using straight lines extracted from visual images
KR20190127838A (en) * 2017-07-07 2019-11-13 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 Method, apparatus and device, and storage medium for determining camera pose information
CN112767818A (en) * 2019-11-01 2021-05-07 北京初速度科技有限公司 Map construction method and device
CN112767818B (en) * 2019-11-01 2022-09-27 北京初速度科技有限公司 Map construction method and device

Also Published As

Publication number Publication date
KR101207535B1 (en) 2012-12-03

Similar Documents

Publication Publication Date Title
KR101207535B1 (en) Image-based simultaneous localization and mapping for moving robot
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
CN110807350B (en) System and method for scan-matching oriented visual SLAM
KR101776621B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
KR101633620B1 (en) Feature registration apparatus for image based localization and method the same
US10068344B2 (en) Method and system for 3D capture based on structure from motion with simplified pose detection
JP4912388B2 (en) Visual tracking method for real world objects using 2D appearance and multi-cue depth estimation
KR101784183B1 (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
US20150235367A1 (en) Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image
Moosmann et al. Motion estimation from range images in dynamic outdoor scenes
JP4100239B2 (en) Obstacle detection device and autonomous mobile robot using the same device, obstacle detection method, and obstacle detection program
EP2166375B1 (en) System and method of extracting plane features
KR101423139B1 (en) Method for localization and mapping using 3D line, and mobile body thereof
JP2011048706A (en) Device, method, and program for automatically generating map by sensor fusion and moving mobile body by using the map automatically generated
JP2017191576A (en) Information processor, control method information processor and program
JP7372708B2 (en) Wide viewing angle stereo camera device and depth image processing method using the same
WO2015040119A1 (en) 3d reconstruction
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
CN103744110B (en) The ultrasonic obstacle recognition system being combined with monocular vision sensor
JP2014178967A (en) Three-dimensional object recognition device and three-dimensional object recognition method
JP2017182564A (en) Positioning device, positioning method, and positioning computer program
JP7444292B2 (en) Detection system, detection method, and program
EP4016456A1 (en) Method and system for determining a three dimensional position
WO2021109068A1 (en) Gesture control method and movable platform

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151030

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20161004

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee