KR20220115422A - ORB SLAM-based object tracking device and method thereof - Google Patents

ORB SLAM-based object tracking device and method thereof Download PDF

Info

Publication number
KR20220115422A
KR20220115422A KR1020210019424A KR20210019424A KR20220115422A KR 20220115422 A KR20220115422 A KR 20220115422A KR 1020210019424 A KR1020210019424 A KR 1020210019424A KR 20210019424 A KR20210019424 A KR 20210019424A KR 20220115422 A KR20220115422 A KR 20220115422A
Authority
KR
South Korea
Prior art keywords
keyframe
frame
feature points
object tracking
orb
Prior art date
Application number
KR1020210019424A
Other languages
Korean (ko)
Inventor
서영건
Original Assignee
경상국립대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경상국립대학교산학협력단 filed Critical 경상국립대학교산학협력단
Priority to KR1020210019424A priority Critical patent/KR20220115422A/en
Publication of KR20220115422A publication Critical patent/KR20220115422A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

The present invention proposes an ORB SLAM-based object tracking device for improving an object (image) tracking function by reducing failure frequency in the image tracking of an autonomous vehicle, and a method thereof. The ORB SLAM-based object tracking device of the present invention includes: a configuration of increasing the number of feature points by pre-processing an input image so that common feature points between a current frame and a key frame are sufficient; a configuration of adding a new keyframe to maintain continuity between the current keyframe and the previous keyframe. The possibility of the tracking failure is minimized.

Description

ORB SLAM 기반의 물체 추적 장치 및 그 방법{ORB SLAM-based object tracking device and method thereof}ORB SLAM-based object tracking device and method thereof

본 발명은 ORB SLAM 기술에 관한 것으로, 더욱 상세하게는 자율 주행차량에서의 이미지 추적시 실패 빈도를 감소시켜 물체(이미지)의 추적 기능을 향상시키도록 하는 ORB SLAM 기반의 물체 추적 장치 및 그 방법에 관한 것이다. The present invention relates to ORB SLAM technology, and more particularly, to an ORB SLAM-based object tracking device and method for improving the tracking function of an object (image) by reducing the frequency of failures during image tracking in an autonomous vehicle. it's about

최근 자율주행에 대한 연구는 자동 제어와 차량의 역학을 기본으로 주행 중 다양한 물체들을 감지해낼 수 있는 센서들을 사용하여 자율주행기술을 발전시켜나가고 있다. Recent research on autonomous driving is advancing autonomous driving technology by using sensors that can detect various objects while driving based on automatic control and vehicle dynamics.

자율주행차량에는 안전을 위한 다양한 기술이 탑재된다. ADAS(AEB, 차선보조유지장치), C-V2X, 딥러닝, 라이다(LIDAR), SLAM(Simultaneous Localization And Mapping) 등이 있다. 그 중 SLAM 기술은 외부의 도움없이 주변 환경에 대한 지도를 작성하는 것으로, 사용자 주변 환경 맵핑작업을 통해 GPS에서 생기는 오차를 해결해주는 역할을 할 수 있다. 이러한 SLAM 기술은 알고리즘에 따라 EKF SLAM, Fast SLAM, Graph SLAM, BA(Bundle Adjustment) SLAM, ORB SLAM 등으로 나눌 수 있고, 그중 ORB SLAM(Oriented FAST and Rotated BRIEF Simultaneous Localization And Mapping) 기술이, 위치추정 - 지도생성 - 루프 결합(tracking, local mapping, loop closing)의 3개의 스레드로 구성된 병렬 시스템을 지원하고 있어, 속도가 빠르며 3차원 정보를 보다 정확하게 계산할 수 있다는 점에서 많이 사용되고 있다. 참고로, 상기 tracking은 영상에서 특징을 추출하여 키 프레임을 생성하고 카메라의 위치를 추정하는 것이고, 상기 local mapping은 중복되는 키 프레임과 트래킹 후에 생성된 map point를 최적화하는 것, 상기 loop closing은 맵 생성시 누적된 오차를 수정하여, 모든 키 프레임과 맵 포인트를 최적화하는 것이다. 상기 ORB SLAM 기술에서는 입력된 영상에서 ORB의 FAST 검출자를 이용하여 특징점을 추출한다. Autonomous vehicles are equipped with various technologies for safety. ADAS (AEB, Lane Assisting System), C-V2X, Deep Learning, LIDAR, SLAM (Simultaneous Localization And Mapping), etc. Among them, SLAM technology creates a map of the surrounding environment without external help, and can play a role in resolving errors caused by GPS through mapping of the user's surrounding environment. These SLAM technologies can be divided into EKF SLAM, Fast SLAM, Graph SLAM, BA (Bundle Adjustment) SLAM, ORB SLAM, etc. depending on the algorithm. Among them, ORB SLAM (Oriented FAST and Rotated BRIEF Simultaneous Localization And Mapping) technology is a - Map generation - It supports a parallel system consisting of three threads of loop combining (tracking, local mapping, and loop closing), so it is used a lot because it is fast and can calculate 3D information more accurately. For reference, the tracking is to extract a feature from an image to generate a key frame and to estimate the position of the camera, the local mapping is to optimize the overlapping key frame and the map point generated after tracking, and the loop closing is the map It optimizes all keyframes and map points by correcting the errors accumulated during creation. In the ORB SLAM technique, a feature point is extracted from an input image by using the FAST detector of the ORB.

그러나, 상기한 특징점을 추출하는 방법은, 흔들림이 심하거나 환경 변화의 차이가 큰 영상의 경우 현재 프레임과 마지막 키프레임 사이에서 공유되는 충분한 특징점의 개수가 적어, 추적 실패(track lost)의 문제가 발생한다. 상기 추적 실패는 마지막 키프레임과 현재 프레임 사이에 매칭(matching) 된 특징점의 개수가 통상적으로 30개 미만일 때 발생하기 때문에, 특징점의 개수가 이보다 적으면 물체 추적이 쉽지 않다. However, in the above-described method for extracting key points, in the case of an image with severe shaking or a large difference in environmental change, the number of sufficient key points shared between the current frame and the last key frame is small, so the problem of track loss is reduced. Occurs. Since the tracking failure occurs when the number of keyframes matched between the last keyframe and the current frame is typically less than 30, if the number of keyframes is less than this, it is difficult to track an object.

또 종래 ORB SLAM 기술에서는 연속된 프레임 중에 추출되는 특징점의 개수가 이전 키프레임 특징점의 90% 미만을 참조할 경우 추적 실패 가능성이 존재한다. 이 경우 새로운 키프레임을 생성하여 제공해야 하지만, 그 조건이 명확하지 않아 상기와 같이 90% 미만을 참조할 경우 키프레임을 추가할 수 없어 현재 키프레임과 이전 키프레임 사이에 연속성을 유지할 수 없었다. In addition, in the conventional ORB SLAM technology, when the number of feature points extracted from consecutive frames refers to less than 90% of the feature points of the previous keyframe, there is a possibility of tracking failure. In this case, a new keyframe must be created and provided, but the condition is not clear. As mentioned above, if the reference is less than 90%, a keyframe cannot be added, and continuity between the current keyframe and the previous keyframe could not be maintained.

따라서 본 발명의 목적은 현재 프레임과 마지막 프레임 사이에서 공유되는 충분한 특징점의 개수가 적어 발생하는 추적 실패의 발생 빈도를 최소화하는 ORB SLAM 기반의 물체 추적 장치 및 그 방법을 제공하는 것이다. Accordingly, it is an object of the present invention to provide an ORB SLAM-based object tracking apparatus and method for minimizing the frequency of tracking failure occurring due to a small number of sufficient feature points shared between a current frame and a last frame.

본 발명의 다른 목적은 연속된 프레임 중에 추출되는 특징점의 개수가 이전 키프레임 특징점의 90% 미만을 참조하여 물체 추적을 수행할 경우, 완화된 키프레임 삽입 조건에 따라 새로운 키프레임을 생성, 제공하여 추적 실패의 발생 빈도를 최소화하는 ORB SLAM 기반의 물체 추적 장치 및 그 방법을 제공하는 것이다. Another object of the present invention is to generate and provide a new keyframe according to the relaxed keyframe insertion condition when the number of feature points extracted from consecutive frames is less than 90% of the previous keyframe feature points to perform object tracking. To provide an ORB SLAM-based object tracking device and method for minimizing the frequency of tracking failure.

이와 같은 목적을 달성하기 위한 본 발명은, ORB SLAM(Oriented FAST and Rotated BRIEF Simultaneous Localization And Mapping)기술을 기반으로 한 물체 추적 장치에 있어서, 입력된 영상정보에서 특징점을 추출하는 특징점 추출부; 현재 프레임과 이전 키프레임 사이에 공유되는 특징점의 개수를 판단하는 특징점 개수 판단부; 상기 공유되는 특징점 개수가 기 정해진 개수 미만이면 현재 프레임을 전처리하는 프레임 전처리부; 상기 프레임 전처리부의 전처리 후, 기 정해진 개수 이상이면 현재 프레임과 이전 키프레임 간의 매칭작업을 수행하는 매칭부; 및 새로운 키프레임 생성조건에 따라 새로운 키 프레임을 생성하고, 생성된 키프레임을 상기 입력된 영상정보로 제공하는 키프레임 생성부를 포함하여 구성되는 ORB SLAM 기반의 물체 추적 장치를 제공한다. In order to achieve the above object, the present invention provides an object tracking apparatus based on ORB SLAM (Oriented FAST and Rotated BRIEF Simultaneous Localization And Mapping) technology, comprising: a feature point extraction unit for extracting feature points from input image information; a feature point number determination unit for determining the number of feature points shared between the current frame and the previous key frame; a frame preprocessor for preprocessing a current frame when the number of shared feature points is less than a predetermined number; a matching unit that performs a matching operation between the current frame and the previous key frame if the number is greater than or equal to a predetermined number after the frame preprocessing unit; and a keyframe generator that generates a new keyframe according to a new keyframe generation condition and provides the generated keyframe as the input image information.

상기 특징점의 개수는, 추적 실패 확률이 최소화되는 개수 또는 추적 실패가 발생하지 않을 개수일 수 있다. The number of the feature points may be a number in which a tracking failure probability is minimized or a number in which a tracking failure does not occur.

상기 전처리부는, 상기 현재 프레임의 이미지를 현재보다 더 선명하게 하여, 특징점의 개수를 더 추출한다. The preprocessor further extracts the number of feature points by making the image of the current frame clearer than the current one.

상기 키프레임 생성조건은, 현재 프레임의 특징점의 개수가 이전 키프레임 특징점의 90% 미만으로 참고하는 경우, 20개의 연속된 프레임 당 1개의 새로운 키프레임을 생성하던 것을 모든 프레임에 새로운 키프레임을 생성하도록 변경하여 제공한다. The keyframe generation condition is that, when the number of feature points in the current frame is less than 90% of the previous keyframe feature points, one new keyframe is generated per 20 consecutive frames, but a new keyframe is generated in every frame. Change it so that it is provided.

본 발명의 다른 특징에 따르면, ORB SLAM(Oriented FAST and Rotated BRIEF Simultaneous Localization And Mapping) 기반의 물체 추적 장치가, 입력된 영상에서 특징점을 추출하는 단계; 추출된 특징점을 이용하여 현재 프레임과 이전 키프레임 사이에 공유되는 특징점 개수를 판단하는 단계; 상기 판단에 따라 상기 특징점 개수가 소정 개수 미만이며 현재 프레임을 전처리하는 단계; 상기 전처리에 따라 특징점 개수를 더 추출하고, 소정 개수 이상이 되면 상기 현재 프레임과 이전 키프레임을 매칭작업하는 단계; 상기 현재 프레임의 특징점의 개수가 이전 키프레임 특징점의 90% 미만을 참조하여 물체 추적할 경우, 키프레임 생성조건에 의해 새로운 키프레임을 생성하는 단계; 및 생성된 키프레임을 상기 입력된 영상에 제공하고, 상기 단계들을 반복 수행하면서 물체 인식 및 추적을 수행하는 ORB SLAM 기반의 물체 추적 방법을 제공한다. According to another feature of the present invention, an object tracking apparatus based on ORB SLAM (Oriented FAST and Rotated BRIEF Simultaneous Localization And Mapping) includes extracting feature points from an input image; determining the number of keyframes shared between the current frame and the previous keyframe by using the extracted keyframes; pre-processing a current frame when the number of feature points is less than a predetermined number according to the determination; further extracting the number of feature points according to the preprocessing, and matching the current frame with the previous keyframe when the number is greater than or equal to a predetermined number; generating a new keyframe according to a keyframe generation condition when the number of feature points of the current frame is less than 90% of the feature points of a previous keyframe to track an object; and an ORB SLAM-based object tracking method that provides the generated keyframe to the input image, and performs object recognition and tracking while repeating the above steps.

상기 특징점을 추출하는 단계에서, 상기 특징점은 ORB(Oriented FAST and Rotated BRIEF)를 이용하여 추출한다. In the step of extracting the key points, the key points are extracted using Oriented FAST and Rotated BRIEF (ORB).

상기 키프레임 생성조건은, 20개의 연속된 프레임 당 1개의 새로운 키프레임을 생성하던 것을 모든 프레임에 새로운 키프레임을 생성하도록 변경하여 제공한다. The keyframe generation condition is provided by changing from generating one new keyframe per 20 consecutive frames to generating a new keyframe in every frame.

상기 소정 개수는, 상기 현재 키프레임과 이전 키프레임 사이에 정합된 특징점 개수에 의해 추적 실패가 발생하는 임계 개수이고, 상기 임계 개수는 30개이다.The predetermined number is a threshold number in which tracking failure occurs due to the number of keyframes matched between the current keyframe and the previous keyframe, and the threshold number is 30.

이상과 같은 본 발명의 ORB SLAM 기반의 물체 추적 장치 및 그 방법에 따르면, 현재 프레임과 키프레임 사이의 공통된 특징점이 충분하도록 입력된 이미지를 전처리하여 특징점의 개수를 증가시키고, 또 현재 키프레임과 이전 키프레임 사이에 연속성을 유지하기 위하여 새로운 키프레임을 추가하여, 입력된 영상 정보를 극대화시키고 있다. According to the ORB SLAM-based object tracking apparatus and method of the present invention as described above, the number of feature points is increased by preprocessing the input image so that the common feature points between the current frame and the key frame are sufficient, and the number of feature points is increased between the current key frame and the previous key frame. In order to maintain continuity between keyframes, new keyframes are added to maximize the input image information.

따라서 본 발명은 현재 프레임과 이전 키프레임 사이에 정합된 특징점 개수가 부족하거나 새로운 키프레임을 추가하지 못하여 발생하는 추적 실패 가능성을 최소화할 수 있다. 결과적으로 자율 주행차량에서의 물체 인식 또는 물체 추적 기능의 향상을 기대할 수 있다. Accordingly, the present invention can minimize the possibility of tracking failure caused by insufficient number of keyframes matched between the current frame and the previous keyframe or failure to add a new keyframe. As a result, the improvement of object recognition or object tracking functions in autonomous vehicles can be expected.

도 1은 본 발명의 바람직한 실시 예에 따른 ORB SLAM 기반의 물체 추적 장치의 구성도이고,
도 2는 본 발명의 바람직한 실시 예에 따른 ORB SLAM 기반의 물체 추적 방법을 설명하는 흐름도이다.
1 is a block diagram of an ORB SLAM-based object tracking device according to a preferred embodiment of the present invention;
2 is a flowchart illustrating an ORB SLAM-based object tracking method according to a preferred embodiment of the present invention.

본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.Objects and effects of the present invention, and technical configurations for achieving them will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings. In describing the present invention, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.In addition, the terms described below are terms defined in consideration of functions in the present invention, which may vary according to intentions or customs of users and operators.

그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 따라서, 본 발명의 사상은 설명된 실시 예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. Only the present embodiments are provided so that the disclosure of the present invention is complete, and to completely inform those of ordinary skill in the art to which the present invention belongs, the scope of the invention, the present invention is defined by the scope of the claims it will only be Therefore, the definition should be made based on the content throughout this specification. Therefore, the spirit of the present invention should not be limited to the described embodiments, and not only the claims to be described later, but also all those with equivalent or equivalent modifications to the claims will be said to belong to the scope of the spirit of the present invention. .

이하에서는 도면에 도시한 실시 예에 기초하면서 본 발명에 대하여 더욱 상세하게 설명하기로 한다. Hereinafter, the present invention will be described in more detail based on the embodiments shown in the drawings.

도 1은 본 발명의 바람직한 실시 예에 따른 ORB SLAM 기반의 물체 추적 장치의 구성도이다. 도 1에 도시한 바와 같이, 본 발명 장치(100)는, 특징점 추출부(110), 특징점 개수 판단부(120), 프레임 전처리부(130), 매칭부(140), 키프레임 생성부(150)를 포함하여 구성된다.1 is a block diagram of an ORB SLAM-based object tracking apparatus according to a preferred embodiment of the present invention. As shown in FIG. 1 , the apparatus 100 of the present invention includes a feature point extracting unit 110 , a feature point number determining unit 120 , a frame preprocessing unit 130 , a matching unit 140 , and a keyframe generating unit 150 . ) is included.

특징점 추출부(110)는, 미 도시된 입력장치를 통해 입력된 영상정보에서 특징점을 추출하는 유닛이다. 이미지 추적을 위해서는 현재 프레임과 마지막 키프레임 사이에 매칭(matching)된 특징점의 개수가 소정 개수 이상이어야 하기 때문에, 각 프레임마다 특징점을 추출해야 한다. 이렇게 특징점을 추출하는 이유는 현재 프레임과 이전에 생성된 프레임 사이에 공유되는 특징점의 개수를 기초로 하여 키프레임을 선정하는 과정을 수행해야 하기 때문이다.The key point extraction unit 110 is a unit for extracting key points from image information input through an input device (not shown). For image tracking, since the number of keyframes matched between the current frame and the last keyframe must be a predetermined number or more, it is necessary to extract keypoints for each frame. The reason for extracting the keyframe in this way is that a process of selecting a keyframe must be performed based on the number of keyframes shared between the current frame and the previously generated frame.

특징점 개수 판단부(120)는, 현재 프레임과 이전 키프레임 사이에 공유되는 특징점의 개수가 소정 개수(즉 30개) 미만 또는 이상인지를 판단하는 유닛이다. 판단결과에 따라 다음에 수행되는 과정이 상이하게 이루어질 수 있다. The feature point number determining unit 120 is a unit that determines whether the number of feature points shared between the current frame and the previous key frame is less than or equal to a predetermined number (that is, 30). Depending on the determination result, the next process may be performed differently.

프레임 전처리부(130)는 특징점의 개수가 상기한 개수(즉 30개) 미만인 경우, 특징점의 개수를 더 추출할 수 있도록 현재 프레임을 전처리하는 유닛이다. 전처리는 예를 들면 프레임을 더 선명하게 하는 작업일 수 있다. 다시 말해 현재 프레임과 이전 키프레임 사이의 공통된 특징점이 많게 하는 것이다. The frame preprocessor 130 is a unit that pre-processes the current frame so that the number of key points can be further extracted when the number of key points is less than the above-described number (ie, 30). The pre-processing may be, for example, an operation to sharpen the frame. In other words, there are many common features between the current frame and the previous keyframe.

매칭부(140)는 특징점 개수가 30개 이상일 때 현재 프레임과 이전에 생성된 키프레임 간의 매칭작업을 수행하는 유닛이다. 즉 매칭부(140)는 이미지 추적 실패 확률을 최소화하도록 현재 프레임과 이전 키프레임 사이에 매칭된 특징점의 개수가 30개 이상인 경우 수행된다. 여기서 특징점의 개수를 30개로 언급하고 있지만 반드시 이에 국한될 필요는 없다. 하나의 실시 예에 불과하며, 공유되는 특징점의 개수가 그 이하인 경우에도 이미지 추적 실패 확률이 낮다면 판단이 되는 특징점의 개수는 변경할 수 있다.The matching unit 140 is a unit that performs a matching operation between the current frame and a previously generated key frame when the number of feature points is 30 or more. That is, the matching unit 140 is performed when the number of matched feature points between the current frame and the previous keyframe is 30 or more to minimize the image tracking failure probability. Here, the number of feature points is mentioned as 30, but it is not necessarily limited thereto. This is only one embodiment, and even when the number of shared feature points is less than that, if the probability of image tracking failure is low, the number of feature points that are determined may be changed.

키프레임 생성부(150)는, 추적 실패의 가능성을 방지하기 위하여 20개의 연속된 프레임 당 1개의 새로운 프레임을 생성하던 것을 모든 프레임에 새로운 키프레임을 생성하는 유닛이다. 이때 키프레임 생성부(150)는 새로운 키프레임 생성조건이 반영된다. 이러한 조건은 20개의 연속된 프레임 당 1개의 새로운 프레임을 생성하던 것을 모든 프레임에 새로운 키프레임을 생성하는 것이다. 즉 특징점의 개수가 이전 키프레임 특징점의 90%만 참고할 경우 이미지 추적 실패의 가능성이 있기 때문에, 이를 보완하는 것이라 할 것이다. The keyframe generating unit 150 is a unit that generates a new keyframe in every frame from which one new frame is generated per 20 consecutive frames in order to prevent the possibility of tracking failure. At this time, the keyframe generation unit 150 reflects the new keyframe generation condition. This condition is that a new keyframe is generated in every frame instead of one new frame per 20 consecutive frames. In other words, if the number of keyframes refers to only 90% of the keyframe keyframes, there is a possibility of image tracking failure.

이러한 구성을 가지는 본 발명은 이미지 선명화 및 키프레임 생성조건을 수정하여, 키프레임간의 특징점 매칭 실패율을 줄여서 이미지 추적을 더 용이하게 하기 위한 것이고, 이를 도 2를 참조하여 구체적으로 살펴본다.The present invention having such a configuration is to further facilitate image tracking by reducing the keyframe matching failure rate by modifying image sharpening and keyframe generation conditions, which will be described in detail with reference to FIG. 2 .

도 2는 본 발명의 바람직한 실시 예에 따른 ORB SLAM 기반의 물체 추적 방법을 설명하는 흐름도이다. 도시한 바와 같이 자율 주행차량 등에 구비된 입력장치로부터 주변 영상정보가 입력된다(s100). 2 is a flowchart illustrating an ORB SLAM-based object tracking method according to a preferred embodiment of the present invention. As shown, peripheral image information is input from an input device provided in an autonomous vehicle or the like (s100).

그러면, 특징점 추출부(110)는 ORB를 이용하여 입력장치를 통해 입력된 영상정보에서 특징점을 추출한다(s100). 이미지 추적 실패를 최소화하기 위해서는 현재 프레임과 마지막 키프레임 사이에서 공유되는 특징점의 개수가 충분해야 한다. 특징점 추출부(110)는 입력된 영상정보의 각 프레임마다 특징점을 추출한다. Then, the key point extraction unit 110 extracts the key point from the image information input through the input device using the ORB (s100). In order to minimize the image tracking failure, the number of feature points shared between the current frame and the last keyframe should be sufficient. The key point extraction unit 110 extracts a key point for each frame of the input image information.

현재 프레임에서 특징점이 추출되면, 특징점 개수 판단부(120)는 현재 프레임과 이전 키프레임 사이에 공유되는 특징점의 개수가 소정 조건, 예를 들면 30개 미만인지 판단한다(s120). 특징점의 개수를 판단하는 이유는, 현재 프레임과 이전에 생성된 키프레임 사이의 특징점의 개수가 30개 미만이면 이미지 추적 실패의 원인이 되기 때문이다. When the keypoints are extracted from the current frame, the number of keypoints determining unit 120 determines whether the number of keypoints shared between the current frame and the previous keyframe is less than a predetermined condition, for example, 30 (s120). The reason for determining the number of keyframes is that if the number of keyframes between the current frame and the previously generated keyframe is less than 30, image tracking fails.

그래서 판단결과, 현재 프레임과 키프레임 사이의 매칭된 특징점 수가 30개 이상이 된다면, 바로 현재 프레임과 키프레임 간의 매칭작업을 수행하게 될 것이다(s140). 반면 특징점 개수 판단부(120)의 판단결과, 프레임의 특징점의 개수가 30개 미만이며, 현재 프레임과 이전 키프레임을 매칭하더라도 이미지를 추적할 수 없는 가능성이 존재한다. 따라서 이 경우에는 현재 프레임의 특징점의 개수를 증가시키는 과정이 필요하다. 본 발명에서는 이처럼 특징점의 개수가 30개 미만인 경우 이미지 추적 기능을 향상시키도록 프레임 전처리부(130)가 전처리 과정을 수행하게 된다(s130). 즉 전처리 과정은 현재 프레임에서 특징점의 개수를 더 추출할 수 있도록 하는 것이고, 이를 위해 현재 프레임의 이미지를 선명화하여 특징점을 추출한다. 이미지 선명화의 방법의 예로 선명화 마스크를 이용할 수 있을 것이다. 그리고 전처리 과정은 현재 프레임과 이전 키프레임 사이에 공유되는 특징점의 개수가 30개 이상이 될 때까지 반복 수행될 수 있다.Therefore, as a result of the determination, if the number of matched feature points between the current frame and the key frame is 30 or more, the matching operation between the current frame and the key frame will be immediately performed (s140). On the other hand, as a result of the determination of the number of keyframes, the number of keyframes in the frame is less than 30, and even if the current frame and the previous keyframe are matched, there is a possibility that the image cannot be tracked. Therefore, in this case, a process of increasing the number of feature points of the current frame is required. In the present invention, when the number of feature points is less than 30, the frame preprocessor 130 performs a preprocessing process to improve the image tracking function (s130). That is, the pre-processing process enables the extraction of the number of feature points from the current frame further, and for this purpose, the image of the current frame is sharpened to extract the feature points. A sharpening mask may be used as an example of a method of image sharpening. In addition, the preprocessing process may be repeatedly performed until the number of feature points shared between the current frame and the previous keyframe reaches 30 or more.

이러한 과정에 따라 특징점의 개수가 30개 이상이 되면, 앞서 말한 매칭부(140)가 매칭작업을 수행하고(s140), 키프레임을 선정한다. According to this process, when the number of feature points is 30 or more, the aforementioned matching unit 140 performs a matching operation (s140) and selects a keyframe.

매칭 작업 후에는 현재 키프레임과 이전 키프레임 사이의 연속성을 유지해줘야 하며, 경우에 따라 새로운 키프레임이 필요하다. 이 역시 이미지 추적 실패 가능성을 줄이기 위한 방법이다. After matching, it is necessary to maintain continuity between the current keyframe and the previous keyframe, and in some cases a new keyframe is required. This is also a method to reduce the possibility of image tracking failure.

도 2와 같이 현재 키프레임의 특징점의 개수가 이전 키프레임의 특징점의 90% 이상을 참조할 경우(s150에서 '아니오'), 이미지 추적 실패 가능성이 낮기 때문에 영상 입력단계로 복귀하여 상기한 과정을 반복해서 수행하게 된다. 그러나 현재 키프레임의 특징점의 개수가 이전 키프레임의 특징점의 90% 보다 적은 개수를 참조할 경우에는 이미지 추적 실패 가능성이 여전히 존재하게 된다. 따라서 이 경우에 새로운 키프레임이 생성하여 현재 키프레임과 이전 키프레임 사이의 연속성을 유지할 필요가 있다. As shown in Figure 2, if the number of feature points of the current key frame refers to 90% or more of the feature points of the previous key frame ('No' in s150), the probability of image tracking failure is low, so return to the image input step and repeat the above process. will be performed repeatedly. However, when the number of feature points of the current keyframe refers to a number less than 90% of the feature points of the previous keyframe, the possibility of image tracking failure still exists. Therefore, in this case, it is necessary to create a new keyframe to maintain continuity between the current keyframe and the previous keyframe.

본 발명에서는 키프레임 삽입 조건을 완화하여, 새로운 키프레임을 추가하도록 한다. 이렇게 완화된 조건에 따라 새로운 키프레임의 생성조건인 20개의 연속된 프레임 당 1개를 모든 프레임으로 변경할 수 있고, 이에 키프레임 생성부(150)는 새로운 키프레임을 생성할 수 있다(s160). 여기서 새로운 키프레임은 앞서 설명한 바와 같이 현재 키프레임과 이전 키프레임 사이에 연속성을 유지시키기 위한 프레임이라 할 수 있다. 그리고 새로운 키프레임이 생성되면, 키프레임을 추가한 후 영상입력 단계로 진행한다(s170). In the present invention, a new keyframe is added by relaxing the keyframe insertion condition. According to the relaxed condition, one per 20 consecutive frames, which is a condition for generating a new keyframe, may be changed to all frames, and the keyframe generator 150 may generate a new keyframe (s160). Here, the new keyframe may be referred to as a frame for maintaining continuity between the current keyframe and the previous keyframe as described above. Then, when a new key frame is generated, after adding the key frame, the image input step proceeds (s170).

이처럼 본 발명은 현재 프레임과 키프레임 사이의 특징점의 개수가 적을 경우 이미지 선명화를 통한 전처리 과정을 통해 특징점의 개수를 증가시키며, 나아가 현재 키프레임과 이전 키프레임 사이의 연속성을 유지하기 위해 완화된 조건에 따라 새로운 키프레임을 추가함으로써, 키프레임 간의 특징점의 매칭 실패율을 낮춰 이미지 추적 성능을 향상시키고 있음을 알 수 있다.As such, the present invention increases the number of feature points through a pre-processing process through image sharpening when the number of feature points between the current frame and the keyframe is small, and furthermore, to maintain continuity between the current keyframe and the previous keyframe, the By adding new keyframes according to conditions, it can be seen that the image tracking performance is improved by lowering the matching failure rate of keyframes.

이상과 같이 본 발명의 도시된 실시 예를 참고하여 설명하고 있으나, 이는 예시적인 것들에 불과하며, 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자라면 본 발명의 요지 및 범위에 벗어나지 않으면서도 다양한 변형, 변경 및 균등한 타 실시 예들이 가능하다는 것을 명백하게 알 수 있을 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적인 사상에 의해 정해져야 할 것이다.Although described with reference to the illustrated embodiments of the present invention as described above, these are merely exemplary, and those of ordinary skill in the art to which the present invention pertains can use various methods without departing from the spirit and scope of the present invention. It will be apparent that modifications, variations, and other equivalent embodiments are possible. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

110: 특징점 추출부
120: 특징점 개수 판단부
130: 프레임 전처리부
140: 매칭부
150: 키프레임 생성부
110: feature point extraction unit
120: feature point number determination unit
130: frame preprocessor
140: matching unit
150: keyframe generator

Claims (8)

ORB SLAM(Oriented FAST and Rotated BRIEF Simultaneous Localization And Mapping)기술을 기반으로 한 물체 추적 장치에 있어서,
입력된 영상정보에서 특징점을 추출하는 특징점 추출부;
현재 프레임과 이전 키프레임 사이에 공유되는 특징점의 개수를 판단하는 특징점 개수 판단부;
상기 공유되는 특징점 개수가 기 정해진 개수 미만이면 현재 프레임을 전처리하는 프레임 전처리부;
상기 프레임 전처리부의 전처리 후, 기 정해진 개수 이상이면 현재 프레임과 이전 키프레임 간의 매칭작업을 수행하는 매칭부; 및
새로운 키프레임 생성조건에 따라 새로운 키 프레임을 생성하고, 생성된 키프레임을 상기 입력된 영상정보로 제공하는 키프레임 생성부를 포함하여 구성되는 것을 특징으로 하는 ORB SLAM 기반의 물체 추적 장치.
In an object tracking device based on ORB SLAM (Oriented FAST and Rotated BRIEF Simultaneous Localization And Mapping) technology,
a feature point extraction unit for extracting a feature point from the input image information;
a feature point number determination unit for determining the number of feature points shared between the current frame and the previous key frame;
a frame preprocessor for preprocessing a current frame when the number of shared feature points is less than a predetermined number;
a matching unit for performing a matching operation between a current frame and a previous key frame if the number is greater than or equal to a predetermined number after the frame preprocessing unit; and
ORB SLAM-based object tracking apparatus, comprising: a key frame generator that generates a new key frame according to a new key frame generation condition and provides the generated key frame as the input image information.
제 1 항에 있어서,
상기 특징점의 개수는,
추적 실패 확률이 최소화되는 개수 또는 추적 실패가 발생하지 않을 개수인 ORB SLAM 기반의 물체 추적 장치.
The method of claim 1,
The number of feature points is
ORB SLAM-based object tracking device, which is the number that minimizes the probability of tracking failure or the number that does not cause tracking failure.
제 1 항에 있어서,
상기 전처리부는,
상기 현재 프레임의 이미지를 현재보다 더 선명하게 하여, 특징점의 개수를 더 추출하는 ORB SLAM 기반의 물체 추적 장치.
The method of claim 1,
The preprocessor is
ORB SLAM-based object tracking apparatus for further extracting the number of feature points by making the image of the current frame clearer than the current one.
제 1 항에 있어서,
상기 키프레임 생성조건은,
현재 프레임의 특징점의 개수가 이전 키프레임 특징점의 90% 미만으로 참고하는 경우, 새로운 키프레임을 생성하도록 20개의 연속된 프레임 당 1개의 프레임에서 모든 프레임으로 변경하여 제공하는 ORB SLAM 기반의 물체 추적 장치.
The method of claim 1,
The keyframe generation condition is:
ORB SLAM-based object tracking device that provides a change from one frame to all frames per 20 consecutive frames to generate a new keyframe when the number of keyframe points in the current frame is less than 90% of the previous keyframe keyframe .
ORB SLAM(Oriented FAST and Rotated BRIEF Simultaneous Localization And Mapping) 기반의 물체 추적 장치가,
입력된 영상에서 특징점을 추출하는 단계;
추출된 특징점을 이용하여 현재 프레임과 이전 키프레임 사이에 공유되는 특징점 개수를 판단하는 단계;
상기 판단에 따라 상기 특징점 개수가 소정 개수 미만이며 현재 프레임을 전처리하는 단계;
상기 전처리에 따라 특징점 개수를 더 추출하고, 소정 개수 이상이 되면 상기 현재 프레임과 이전 키프레임을 매칭작업하는 단계;
상기 현재 프레임의 특징점의 개수가 이전 키프레임 특징점의 90% 미만을 참조하여 물체 추적할 경우, 키프레임 생성조건에 의해 새로운 키프레임을 생성하는 단계; 및
생성된 키프레임을 상기 입력된 영상에 제공하고, 상기 단계들을 반복 수행하면서 물체 인식 및 추적을 수행하는 것을 특징으로 하는 ORB SLAM 기반의 물체 추적 방법.
ORB SLAM (Oriented FAST and Rotated BRIEF Simultaneous Localization And Mapping) based object tracking device,
extracting feature points from the input image;
determining the number of keyframes shared between the current frame and the previous keyframe by using the extracted keyframes;
pre-processing a current frame when the number of feature points is less than a predetermined number according to the determination;
further extracting the number of feature points according to the pre-processing, and matching the current frame with the previous key frame when the number is greater than or equal to a predetermined number;
generating a new keyframe according to a keyframe generation condition when the number of feature points of the current frame is less than 90% of the feature points of a previous keyframe to track an object; and
ORB SLAM-based object tracking method, characterized in that the generated keyframe is provided to the input image, and object recognition and tracking are performed while repeating the above steps.
제 5 항에 있어서,
상기 특징점을 추출하는 단계에서,
상기 특징점은 ORB(Oriented FAST and Rotated BRIEF)를 이용하여 추출되는 ORB SLAM 기반의 물체 추적 방법.
6. The method of claim 5,
In the step of extracting the feature point,
The feature point is an ORB SLAM-based object tracking method that is extracted using Oriented FAST and Rotated BRIEF (ORB).
제 5 항에 있어서,
상기 키프레임 생성조건은,
20개의 연속된 프레임 당 1개의 프레임에서 모든 프레임으로 변경하여 새로운 키프레임을 생성하는 ORB SLAM 기반의 물체 추적 방법.
6. The method of claim 5,
The keyframe generation condition is:
ORB SLAM-based object tracking method that generates new keyframes by changing from 1 frame to every frame per 20 consecutive frames.
제 5 항에 있어서,
상기 소정 개수는,
상기 현재 키프레임과 이전 키프레임 사이에 정합된 특징점 개수에 의해 추적 실패가 발생하는 임계 개수인 ORB SLAM 기반의 물체 추적 방법.
6. The method of claim 5,
The predetermined number is
ORB SLAM-based object tracking method, which is the threshold number of which tracking failure occurs due to the number of keyframes matched between the current keyframe and the previous keyframe.
KR1020210019424A 2021-02-10 2021-02-10 ORB SLAM-based object tracking device and method thereof KR20220115422A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210019424A KR20220115422A (en) 2021-02-10 2021-02-10 ORB SLAM-based object tracking device and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210019424A KR20220115422A (en) 2021-02-10 2021-02-10 ORB SLAM-based object tracking device and method thereof

Publications (1)

Publication Number Publication Date
KR20220115422A true KR20220115422A (en) 2022-08-17

Family

ID=83110916

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210019424A KR20220115422A (en) 2021-02-10 2021-02-10 ORB SLAM-based object tracking device and method thereof

Country Status (1)

Country Link
KR (1) KR20220115422A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117036408A (en) * 2023-08-22 2023-11-10 哈尔滨理工大学 Object SLAM method combining multi-target tracking under dynamic environment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117036408A (en) * 2023-08-22 2023-11-10 哈尔滨理工大学 Object SLAM method combining multi-target tracking under dynamic environment
CN117036408B (en) * 2023-08-22 2024-03-29 哈尔滨理工大学 Object SLAM method combining multi-target tracking under dynamic environment

Similar Documents

Publication Publication Date Title
US11107225B2 (en) Object recognition device and computer readable storage medium
KR102077260B1 (en) Method and apparatus of face recognition using confidence based on probabilistic model
CN108629284B (en) Method, device and system for real-time face tracking and face pose selection based on embedded vision system
US20190130167A1 (en) Enhanced face-detection and face-tracking for resource-limited embedded vision systems
US8494231B2 (en) Face recognition in video content
US11734347B2 (en) Video retrieval method and apparatus, device and storage medium
KR102349059B1 (en) Method and device to determine landmark from region of interest of image
US10592786B2 (en) Generating labeled data for deep object tracking
CN110490067B (en) Face recognition method and device based on face posture
Miclea et al. Real-time semantic segmentation-based stereo reconstruction
KR102233175B1 (en) Method for determining signature actor and for identifying image based on probability of appearance of signature actor and apparatus for the same
EP4229598B1 (en) Initialising keyframes for visual-inertial localisation and/or mapping
KR20220076398A (en) Object recognition processing apparatus and method for ar device
KR20170098573A (en) Multi-modal learning device and multi-modal learning method
US20140009465A1 (en) Method and apparatus for modeling three-dimensional (3d) face, and method and apparatus for tracking face
KR20220115422A (en) ORB SLAM-based object tracking device and method thereof
KR20220075273A (en) Method of tracking multiple objects and apparatus for the same
CN111488787B (en) Method and device for improving fault tolerance and fluctuation robustness under extreme conditions
CN112446239A (en) Neural network training and target detection method, device and storage medium
CN117376632A (en) Data recovery method and system based on intelligent depth synthesis
KR20140142554A (en) Apparatus, method and computer readable recording medium for detecting moving object using depth map
KR102224101B1 (en) Method for tracking target object using hard negative mining
CN113607160B (en) Visual positioning recovery method, device, robot and readable storage medium
US11074507B1 (en) Method for performing adjustable continual learning on deep neural network model by using selective deep generative replay module and device using the same
CN112634355B (en) Target tracking method, device, equipment and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application