KR101981000B1 - Depth Image Based Feature Detection Method Using Hybrid Filter - Google Patents

Depth Image Based Feature Detection Method Using Hybrid Filter Download PDF

Info

Publication number
KR101981000B1
KR101981000B1 KR1020180012997A KR20180012997A KR101981000B1 KR 101981000 B1 KR101981000 B1 KR 101981000B1 KR 1020180012997 A KR1020180012997 A KR 1020180012997A KR 20180012997 A KR20180012997 A KR 20180012997A KR 101981000 B1 KR101981000 B1 KR 101981000B1
Authority
KR
South Korea
Prior art keywords
image
filter
feature point
target pixel
pixels
Prior art date
Application number
KR1020180012997A
Other languages
Korean (ko)
Inventor
전용태
최재성
Original Assignee
선문대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 선문대학교 산학협력단 filed Critical 선문대학교 산학협력단
Priority to KR1020180012997A priority Critical patent/KR101981000B1/en
Application granted granted Critical
Publication of KR101981000B1 publication Critical patent/KR101981000B1/en

Links

Images

Classifications

    • G06T5/75
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/003Deblurring; Sharpening
    • G06T5/004Unsharp masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/002Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Abstract

Embodiments of the present invention suggests three hybrid filters to solve a problem that a depth image has. In addition, a lightweight FAST algorithm is suggested by changing a search scheme of the existing FAST algorithm for feature point detection. Therefore, a time required for extracting a feature point can be minimized. Embodiments of the present invention can be applied for automating a parcel warehouse.

Description

융합형 필터를 이용한 깊이 영상 기반 특징점 검출 기법{Depth Image Based Feature Detection Method Using Hybrid Filter}[0001] The present invention relates to a depth image-based feature point detection method using a fusion filter,

아래 실시예들은 융합형 필터를 이용한 깊이 영상 기반 특징점 검출 기법에 관한 것이다.The following embodiments relate to a depth image based feature point detection technique using a fusion filter.

물류산업 기술이 발전함에 따라서 영상처리의 활용도가 높아지고 있다. 영상처리는 공장에서 제품생산을 자동화하거나 택배물류창고의 자동화를 위한 방법으로 사용된다. 그 중 깊이 영상은 물체와 주변의 구분을 용이하게 하며, 물체의 높낮이 값을 얻을 수 있고 깊이 영상을 통해 생산품의 불량이나 물체의 위치를 쉽게 탐지할 수 있는 장점이 있다. 그러나 이러한 깊이 영상은 노이즈가 생긴다는 단점이 있다. As the technology of logistics industry develops, the utilization of image processing is increasing. Image processing is used as a method for automating the production of products in factories or automating the delivery logistics warehouse. Among them, the depth image facilitates the distinction between the object and the surrounding, obtains the height value of the object, and has an advantage that the defect of the product or the position of the object can be easily detected through the depth image. However, such a depth image has a disadvantage that noise is generated.

전형적인 깊이 영상은 IR센서로 깊이를 측정하기 때문에 분해능에 의해 인식하지 못하는 부분에 노이즈가 생길 수 있다. 이러한 노이즈를 최소화하기 위해 영상처리에서는 필터링 기법을 사용한다. A typical depth image is measured by an IR sensor, which can cause noise to be recognized by the resolution. In order to minimize such noise, a filtering technique is used in image processing.

필터를 통해 노이즈가 최소한으로 줄어든 깊이 영상에 특징점 검출 기법을 사용할 수 있다. 특징점 검출은 다양한 분야에서 사용된다. 깊이 영상에서 물체의 특징점을 검출하여 물체의 이동경로를 탐지하거나 영상의 비교분석 또는 기계학습 목적으로 연구되고 사용되고 있다. The feature point detection technique can be used for depth images where the noise is minimized through the filter. Feature point detection is used in various fields. The feature points of the object are detected in the depth image to detect the movement path of the object, and it is studied and used for comparative analysis of images or for machine learning.

필터링 기법으로는 크게 블러링과 샤프닝 기법으로 분류되며, 블러링 기법으로는 가우시안 필터, 미디언, 미니멈, 맥시멈 필터 등이 있다. 깊이 영상에서 블러링 방식을 사용하는 이유는 영상 내에서 센서측정 영상과 카메라영상의 매칭의 불균형으로 생기는 홀이라는 노이즈가 발생하기 때문이다. 이를 제거하기 위해 이웃한 픽셀의 명도 값을 사용하여 손실된 영상의 홀 부분을 복원할 수 있다. 그러나 단순 블러링만 사용했을 경우 원본 영상이 전체적으로 뭉개지는 현상이 발생하기 때문에 물체의 윤곽선이 흐려지고 특징점을 검출하는데 문제점이 생긴다. Filtering techniques are classified into blurring and sharpening techniques. Blurring techniques include Gaussian filters, median, minimum, and maximum filters. The reason for using the blurring method in the depth image is that noise is generated in the image due to the imbalance between the sensor measurement image and the camera image. In order to remove this, it is possible to restore the hole portion of the lost image using the brightness value of the neighboring pixels. However, when only simple blurring is used, the original image is totally crushed, so that the contour of the object is blurred and there is a problem in detecting the characteristic point.

이를 개선하기 위해 홀이 생긴 특정 부분만 블러링을 적용시키는 기법도 존재한다. 그러나 이러한 방식은 단순 이미지에서 높은 성능을 보이지만 프레임에 따라 계속 변화되는 픽셀 값에서는 지속적인 연산으로 속도 향상이 미미하다. 이렇게 블러링 된 영상에서 특징점을 정확하게 추출하기 위해 샤프닝 기법을 추가적으로 사용한다. In order to improve this, there is a technique of applying blurring to only a specific portion where a hole is formed. However, this method shows high performance in a simple image, but in a pixel value that continuously changes according to a frame, the speed improvement is small due to continuous operation. In order to accurately extract the feature points from the blurred image, a sharpening technique is additionally used.

샤프닝 기법으로는 샤프닝, 언샤프마스크, 소벨, 하이부스트 등이 있고, 샤프닝 기법은 대체적으로 이웃한 픽셀의 뚜렷한 색상을 강조하고 주변 픽셀을 하나의 색상으로 통일하면서 물체의 윤곽선을 뚜렷하게 만드는 기법이다. 샤프닝 작업 후에 특징점을 검출하면 문제가 있던 원본 영상에서 검출했을 때 보다 더 높은 성능을 보일 수 있다. 이러한 융합형 필터를 사용하여 깊이 영상이 아닌 다른 일반이미지에서도 높은 성능을 보인다.Sharpening techniques include sharpening, unsharp mask, Sobel, and high boost. Sharpening techniques generally emphasize the distinct colors of neighboring pixels and unify the surrounding pixels into a single color, thereby sharpening the outline of the object. If a feature point is detected after the sharpening operation, the performance may be higher than when the original image has a problem. Using these convergent filters, high performance is shown in other general images than depth images.

특징점이란 영상과 영상을 매칭하기 위해 가장 일반적인 방법으로 주요 특징점을 검출하여 매칭하는 방식이다. 이러한 특징점을 찾기 위해 다양한 알고리즘이 존재한다. 대표적으로 FAST, SIFT, AGAST, SURF, BRIEF 등이 있으며, 특징점을 검출하기 위해 입력영상에서 노이즈가 없어야 하는 조건이 있다. 노이즈가 있는 영상에서 특징점을 검출하는 것은 가능하지만 특징점의 정확도가 현저히 떨어진다. 그렇기 때문에 필터링 기법을 통해 노이즈를 최소화 시켜야 한다. FAST (Features From Accelerated Segment Test)는 특징점을 추출하기 위해 영상의 명도를 사용한다. FAST 알고리즘은 특징 검출 효율성이 코너의 모양이나 분포나 질의하는 순서에 매우 의존적이라는 단점이 있다.A feature point is a method for detecting and matching key feature points as a most common method for matching images and images. There are various algorithms to find these feature points. FAST, SIFT, AGAST, SURF, and BRIEF are typical examples. In order to detect feature points, there is a condition in which there is no noise in the input image. Although it is possible to detect feature points from images with noise, the accuracy of feature points is significantly reduced. Therefore, noise must be minimized through filtering techniques. The Features From Accelerated Segment Test (FAST) uses the brightness of the image to extract feature points. The FAST algorithm is disadvantageous in that the feature detection efficiency is highly dependent on the shape of the corners, the order of distribution and query.

아래에서 설명할 실시예들은 융합형 영상 필터링 기법을 이용하여 깊이 영상에서 목적물의 특징점 검출의 정확도를 향상시키는 기술을 제공한다.The embodiments described below provide a technique for improving the accuracy of detecting feature points of objects in a depth image by using a convergent image filtering technique.

실시예들은 키넥트(Kinect) 센서를 이용하여 획득한 깊이 영상을 활용하여 깊이 영상의 고질적인 문제점을 개선하기 위해 다양한 융합형 필터를 비교하고 깊이 영상 환경에서 가장 적합한 융합형 필터를 통해 정확한 특징점을 검출할 수 있는 방법을 제안한다.Embodiments compare various fusion filters in order to improve the persistent image of depth image using depth image obtained by using Kinect sensor and compare the various feature points by using the most suitable convergent filter in depth image environment We propose a detection method.

실시예들은 깊이 영상에서 블러링 필터를 한번 사용한 결과로는 영상의 노이즈를 전부 제거하지 못하기 때문에 블러링 필터를 복수 번 사용함으로써 노이즈 최소화할 수 있다. 실시예들은 언샤프 필터를 사용하여 뭉개진 영상의 외각선 부분을 복원할 수 있다.Embodiments can minimize the noise by using the blurring filter a plurality of times because the noise of the image can not be completely removed as a result of using the blurring filter once in the depth image. Embodiments may use an unsharp filter to reconstruct the outer line portion of the crushed image.

실시예들은 융합 필터의 성능을 개선하고 깊이 영상에서 특징점을 검출하기 위한 최적의 융합형 필터와 개선된 FAST 알고리즘을 제안한다. 실시예들은 FAST의 속도를 개선하기 위해 특징점을 검출하여 비교 후보 수를 최소화한다.Embodiments propose an optimal fused filter and an improved FAST algorithm for improving the performance of a fused filter and detecting feature points in depth images. Embodiments minimize the number of comparison candidates by detecting feature points to improve the speed of FAST.

일 측에 따른 특징점 검출 방법은 멀티-블러링 기법과 샤프닝 기법이 융합된 필터를 이용하여, 입력 영상을 필터링 하는 단계; 및 미리 정해진 수의 픽셀들을 이용하여 대상 픽셀을 중심으로 생성된 미리 정해진 형상 위의 미리 정해진 방위의 픽셀들을 상기 대상 픽셀과 비교함으로써, 상기 필터링 된 영상으로부터 특징점을 검출하는 단계를 포함한다.A feature point detection method according to one aspect includes filtering an input image using a filter fused with a multi-blurring technique and a sharpening technique; And detecting a feature point from the filtered image by comparing pixels of a predetermined orientation on a predetermined shape generated around the target pixel with the target pixel using a predetermined number of pixels.

상기 필터링 하는 단계는 블러링 필터를 이용하여 상기 입력 영상을 1차 필터링 하는 단계; 상기 블러링 필터를 이용하여 상기 1차 필터링 된 영상을 2차 필터링 하는 단계; 상기 1차 필터링 된 영상과 상기 2차 필터링 된 영상의 차이에 해당하는 차이 영상을 생성하는 단계; 및 상기 차이 영상에 기초하여, 상기 1차 필터링 된 영상을 샤프닝 하는 단계를 포함할 수 있다.Wherein the filtering comprises: first filtering the input image using a blurring filter; Second filtering the primary filtered image using the blurring filter; Generating a difference image corresponding to a difference between the primary filtered image and the secondary filtered image; And sharpening the primary filtered image based on the difference image.

상기 특징점을 검출하는 단계는 상기 대상 픽셀을 중심으로 상기 미리 정해진 수의 픽셀들로 원을 생성하는 단계; 상기 원 위의 미리 정해진 제1 방위들-상기 제1 방위들은 동, 서, 남, 북을 포함함-의 픽셀들과 상기 대상 픽셀을 비교함으로써, 상기 대상 픽셀이 특징점 인지 여부를 판단하는 단계; 및 상기 판단 결과 대상 픽셀이 특징점이 아니라고 판단되는 경우, 상기 원 위의 미리 정해진 제2 방위들-상기 제2 방위들은 각각 상기 제1 방위들 사이에 위치함-의 픽셀들과 상기 대상 픽셀을 비교함으로써, 상기 대상 픽셀이 특징점 인지 여부를 판단하는 단계를 포함할 수 있다.Wherein the step of detecting the feature point comprises: generating a circle with the predetermined number of pixels around the target pixel; Determining whether the target pixel is a minutia point by comparing pixels of the predetermined first orientations of the circle - including the east, west, south, and north - with the target pixel; And comparing, when it is determined that the target pixel is not a minutia, the pixels of the predetermined second orientations in the circle, the second orientations being located between the first orientations, respectively, and the target pixel And determining whether the target pixel is a minutia point.

도 1은 일 실시예에 따른 특징점 검출 방법을 설명하는 도면.
도 2는 일 실시예에 따른 혼합 필터를 사용하는 경우의 파형 변화를 설명하는 도면.
도 3은 일 실시예에 따른 샤프닝에 의한 파형 변화를 설명하는 도면.
도 4는 일 실시예에 따른 경량화된 FAST 알고리즘을 이용한 특징점 검출 방법을 설명하는 도면.
도 5는 일 실시예에 따른 물류 관리 시스템을 설명하는 도면.
도 6은 일 실시예에 따른 특징점 검출 후 물체의 위치를 추정하는 방법을 설명하는 도면.
도 7은 일 실시예에 따른 하드웨어 설치 환경을 설명하는 도면.
도 8은 일 실시예에 따른 특징점 검출 기준을 설명하는 도면.
도 9는 일 실시예에 따른 2가지 융합형 필터 및 3가지 융합형 필터의 특징점 검출 소요 시간들을 설명하는 도면.
도 10은 일 실시예에 따른 2가지 융합형 필터 및 3가지 융합형 필터가 적용된 영상들을 설명하는 도면.
도 11은 일 실시예에 따른 2가지 융합형 필터 및 3가지 융합형 필터의 특징점 검출 소요 시간들을 설명하는 도면.
도 12는 일 실시예에 따른 2가지 융합형 필터 및 3가지 융합형 필터의 MSE를 비교하는 도면.
도 13은 일 실시예에 따른 2가지 융합형 필터 및 3가지 융합형 필터의 PSNR을 비교하는 도면.
BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a view for explaining a feature point detection method according to an embodiment; Fig.
2 is a view for explaining a waveform change when a mixing filter according to an embodiment is used;
3 is a view for explaining a waveform change caused by sharpening according to an embodiment;
4 is a diagram illustrating a feature point detection method using a weighted FAST algorithm according to an exemplary embodiment;
5 is a view for explaining a logistics management system according to an embodiment;
6 is a view for explaining a method of estimating the position of an object after a feature point is detected according to an embodiment;
7 is a diagram illustrating a hardware installation environment according to an embodiment;
8 is a view for explaining a feature point detection criterion according to an embodiment;
FIG. 9 is a view for explaining the time required for detecting the minutiae point of two fusion type filters and three fusion type filters according to one embodiment; FIG.
10 is a view for explaining images to which two fusion filters and three fusion filters according to one embodiment are applied.
11 is a view for explaining the minutiae point detection times of two fusion type filters and three fusion type filters according to one embodiment.
12 is a diagram comparing MSEs of two fusion filters and three fusion filters according to one embodiment.
Figure 13 compares PSNRs of two fusion filters and three fusion filters according to one embodiment.

본 명세서에서 개시되어 있는 특정한 구조적 또는 기능적 설명들은 단지 기술적 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 실시예들은 다양한 다른 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions disclosed herein may be implemented by way of example only, and that the embodiments may be embodied in various other forms and are not limited to the embodiments described herein It does not.

제1 또는 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 이해되어야 한다. 예를 들어 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first or second may be used to describe various components, but such terms should be understood only for the purpose of distinguishing one component from another. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~간의에"와 "바로~간의에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms " comprises ", or " having ", and the like, are used to specify one or more of the features, numbers, steps, operations, elements, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.

도 1은 일 실시예에 따른 특징점 검출 방법을 설명하는 도면이다. 도 1을 참조하면, 기존 융합 필터의 성능을 개선하고 깊이 영상에서 특징점을 검출하기 위한 최적의 융합형 필터와 개선된 FAST 알고리즘이 제안된다. 특징점 검출을 위한 순서도는 도 1과 같다.1 is a view for explaining a feature point detection method according to an embodiment. Referring to FIG. 1, an optimal fusion filter and an improved FAST algorithm for improving the performance of existing fusion filters and detecting feature points in depth images are proposed. The flowchart for the detection of the minutiae points is shown in Fig.

시스템 순서도System Flowchart

단계 1: 융합형 필터Step 1: Fusion type filter

입력 영상에 미디언 필터를 복수 번 적용시킬 수 있다. 예를 들어, 미디언 필터를 입력 영상에 적용시킨 후 다시 한번 미디언 필터를 적용시킬 수 있다. 이후, 언샤프 마스크 방식을 사용하여 뭉개진 영상을 날카롭게 만들 수 있다.The median filter can be applied to the input image multiple times. For example, after applying the median filter to the input image, you can apply the median filter again. Then, the unsharp mask method can be used to sharpen the crushed image.

단계 2: MSE, PSNRStep 2: MSE, PSNR

영상의 품질은 MSE와 PSNR 값으로 표현하며, MSE(Mean Square Error)는 수학식 1을 통해 계산된다. 이를 통해 원본영상과 필터링 처리된 영상의 손실된 정도를 측정할 수 있다. The quality of the image is expressed by MSE and PSNR values, and MSE (Mean Square Error) is calculated by Equation (1). In this way, the degree of loss of the original image and the filtered image can be measured.

Figure 112018011712915-pat00001
Figure 112018011712915-pat00001

MSE (Mean Square Error)는 평균 제곱 오차를 말하며, 픽셀 값들의 차이에 대한 측정값을 말한다. MSE값이 0에 가까울수록 원본에서 손실된 부분이 적다는 것을 의미한다. MSE는 모든 동일위치의 픽셀 값의 차이의 제곱의 합에서 모든 픽셀 개수의 제곱을 나눈 것을 말한다. Mean Square Error (MSE) refers to a mean square error, which is a measure of the difference in pixel values. The closer the MSE value is to zero, the less is lost in the original. MSE is the sum of the square of the difference of pixel values at all the same positions divided by the square of all pixels.

PSNR (Peak Signal-to-Noise Ratio)는 최대 신호 대 잡음 비를 말하며, 수학식 2를 통해 구해진다. Peak Signal-to-Noise Ratio (PSNR) refers to the maximum signal-to-noise ratio and can be obtained from Equation (2).

Figure 112018011712915-pat00002
Figure 112018011712915-pat00002

s2은 해당 영상의 최댓값으로써, 해당 채널의 최댓값에서 최솟값을 빼서 구할 수 있다. 예를 들어 8bit 그레이 스케일 영상의 경우 255 - 0 = 255 이 된다. 주로 영상에서 화질 손실 정보를 평가 할 때 사용하는 평가지수다. 값이 클수록 영상의 품질이 높다는 것을 의미한다. 무 손실 영상의 경우에는 MSE가 0이기 때문에 PSNR은 정의되지 않는다.s 2 is the maximum value of the corresponding image, and can be obtained by subtracting the minimum value from the maximum value of the corresponding channel. For example, for an 8 bit gray scale image, 255 - 0 = 255. It is an evaluation index used mainly for evaluating image loss information in video. The larger the value, the higher the quality of the image. In case of lossless image, PSNR is not defined because MSE is 0.

단계 3: FAST 알고리즘Step 3: FAST algorithm

기존의 FAST알고리즘을 개선한 Lightweight FAST 알고리즘을 사용함으로써 특징점 탐색 속도를 높일 수 있다.By using the lightweight FAST algorithm, which improves the existing FAST algorithm, the feature point searching speed can be increased.

단계 4: 특징점 검출Step 4: Feature point detection

융합형 필터를 적용시킨 영상에서 Lightweight FAST알고리즘을 사용하여 특징점을 검출하고 결과를 확인한다.The feature points are detected using the lightweight FAST algorithm and the results are confirmed in the images using the fusion filter.

융합형 필터 (Hybrid Filter)Hybrid Filter

도 2는 일 실시예에 따른 혼합 필터를 사용하는 경우의 파형 변화를 설명하는 도면이다. 도 2를 참조하면, 기존의 융합형 필터는 블러링과 샤프닝 두 가지 필터로 조합이 된다. 도 2(a)가 입력영상 일 때, 블러링을 통해 도 2(b)로 필터링 된다. 그러나 Kinect 깊이 영상에서 블러링 필터를 한번 사용한 결과로는 영상의 노이즈를 전부 제거하지 못하기 때문에 블러링 필터를 두 번 사용하여 노이즈를 최대한 제거한다. 도 2 (a)에서 도 2(b)로 1차 블러링 후 도 2(b)에서 도 2(

Figure 112018011712915-pat00003
)로 2차 필터링을 한다. 그 후 도 2(b)에서 도 2(
Figure 112018011712915-pat00004
) 를 빼면 도 2(c)가 만들어진다.2 is a diagram for explaining a waveform change when a mixing filter according to an embodiment is used. Referring to FIG. 2, the conventional fusion type filter is composed of two filters, blurring and sharpening. When Fig. 2 (a) is the input image, it is filtered through Fig. 2 (b) through blurring. However, since we can not remove all the noise of the image as a result of using the blurring filter once in the Kinect depth image, the blurring filter is used twice to remove the noise as much as possible. After primary blurring from Fig. 2 (a) to Fig. 2 (b), Fig. 2 (b)
Figure 112018011712915-pat00003
) To perform the second-order filtering. 2 (b) to 2 (
Figure 112018011712915-pat00004
) Is subtracted from FIG. 2 (c).

도 3은 일 실시예에 따른 샤프닝에 의한 파형 변화를 설명하는 도면이다. 일 실시예에 따르면, 도 2(c)를 도 2(b)에 더함으로써 샤프닝이 이루어져 도 3의 그래프가 도출된다.3 is a view for explaining a waveform change caused by sharpening according to an embodiment. According to one embodiment, sharpening occurs by adding Figure 2 (c) to Figure 2 (b), resulting in the graph of Figure 3.

실시예들에서 제안하는 융합형 필터방식은 미디언 필터를 두 번 적용하지만 전처리 후 처리로 나눠지며, 영상의 노이즈를 최소한으로 제거하고 언샤프 필터를 사용하여 뭉개진 영상의 외각선 부분을 복원한다. 또한 기존방식보다 원본영상의 손실률을 줄일 수 있다.The convergent filter method proposed in the embodiments applies the median filter twice but is divided into the pre-processing and post-processing to remove the noise of the image to the minimum and restore the outer line portion of the image that has been crushed using the unsharp filter. Also, the loss rate of the original image can be reduced compared to the conventional method.

경량 특징점 검출 (Lightweight FAST Algorithm)Lightweight FAST Algorithm

기존의 FAST 방식은 픽셀 p의 반지름 크기를 정해서 p를 기준으로 원을 그려 p의 명도 값보다 낮거나 높은 픽셀이 연속적으로 n개 만큼 존재할 때 그 비율에 맞춰 특징점을 검출 하였다. 그러나 깊이 영상에서 FAST 방식은 프레임 별로 픽셀들의 값이 바뀌며 특징점 검출 시 한 픽셀당 16개의 픽셀을 전부 비교하는 것은 처리 속도 면에서 너무 큰 비용을 소모한다. 또한 검출된 특징점 후보들 중에서 엣지에 해당하는 특징점을 추가적으로 계산해야 하기 때문에 엣지로 유력한 후보들만 검출하는 것이 성능향상에 큰 도움을 준다.In the conventional FAST method, the radius of the pixel p is determined, and a circle is drawn based on p, and the feature point is detected according to the ratio when the number of pixels that are lower or higher than the brightness value of p is consecutively n. However, in the depth image, the FAST method changes the values of pixels per frame, and comparing all the 16 pixels per pixel at the time of detecting the feature point consumes a lot of processing speed. In addition, since feature points corresponding to the edges must be additionally calculated among the detected feature point candidates, detection of only the candidates likely to be edges will greatly improve the performance.

도 4는 일 실시예에 따른 경량화된 FAST 알고리즘을 이용한 특징점 검출 방법을 설명하는 도면이다. 도 4를 참조하면, 실시예들에서는 FAST의 속도를 개선하기 위해 특징점 검출 방식을 바꿈으로써 후보를 줄이고, 엣지에 근사한 특징점을 검출하여 후보 수를 줄인다. 또한 실시예들은 특징점의 검출 방식을 개선하여 검출 속도를 높일 수 있다.4 is a view for explaining a feature point detection method using a lightened FAST algorithm according to an embodiment. Referring to FIG. 4, in the embodiments, candidate points are reduced by changing the feature point detection method to improve the speed of FAST, and feature points near the edge are detected to reduce the number of candidates. Also, the embodiments can improve the detection speed of the feature points by improving the detection method.

Figure 112018011712915-pat00005
Figure 112018011712915-pat00005

제안하는 검출방식은 사각형 박스를 검출하기 위해 7의 반지름으로 p픽셀 주위에 40개의 픽셀로 원을 만들고 F1, F2, F3, F4 중에서 3개 이상 p보다 밝거나 어두운 픽셀이 있으면 코너로 판별하고 조건에 충족하지 못하면 L1, L2, L3, L4 중에서 판별하여 두 조건 중 하나라도 충족한다면 코너로 판별한다. 이러한 방식을 통해 기존 FAST 방식에서는 40개의 픽셀로 원을 이룬다면 40개 전부 비교해야 하기 때문에 제안하는 방식이 처리속도 면에서 매우 빠른 것을 볼 수 있다. The proposed detection method is to detect a rectangle box with a radius of 7 and make a circle with 40 pixels around p pixels. If there are more than 3 pixels among F1, F2, F3, F4 that are lighter or darker than p, L1, L2, L3, and L4, it is discriminated as a corner if any of the two conditions is met. In this way, if the original FAST method compares 40 pixels with 40 pixels, it can be seen that the proposed method is very fast in terms of processing speed.

물체 위치 추정방식(Object Position Estimation Method)Object Position Estimation Method

도 5는 일 실시예에 따른 물류 관리 시스템을 설명하는 도면이다.5 is a view for explaining a logistics management system according to an embodiment.

실시예들은 깊이 영상을 사용하여 문제점을 깊이 영상을 통해 보완하고, 깊이 영상의 노이즈로 인한 문제점을 개선하기 위해 다양한 필터조합을 분석한다. 이로 인하여, 실시예들은 최적의 혼합필터 조합과 기존의 FAST 알고리즘에서 검출속도를 개선한 Lightweight FAST 알고리즘을 제안한다. 실시예들은 기존의 RFID기반 물류창고의 한계를 개선하는데 활용될 수 있다.Embodiments analyze various filter combinations to overcome problems with depth images using depth images and to improve problems due to noise in depth images. Therefore, the embodiments propose a lightweight FAST algorithm that improves the detection speed in the combination of the optimal mixing filter and the conventional FAST algorithm. Embodiments can be utilized to improve the limit of existing RFID based warehouses.

기존 융합 필터의 성능을 개선하고 깊이 영상에서 특징점을 검출하기 위한 최적의 융합형 필터와 개선된 FAST알고리즘을 제안한다. 또한 검출된 특징점을 이용하여 물체를 시각화 할 수 있도록 3D로 모델링하는 전체적인 시스템 동작 방식은 도 5와 같다.We propose an optimal fusion filter and an improved FAST algorithm to improve the performance of existing fusion filters and detect feature points in depth images. Also, an overall system operation method of modeling in 3D so that an object can be visualized using detected minutiae points is shown in Fig.

도 6은 일 실시예에 따른 특징점 검출 후 물체의 위치를 추정하는 방법을 설명하는 도면이다. 도 6을 참조하면, 팔레트 위에 박스가 처음 적재 되면, 오른쪽 그림과 같이 A,B,C,D에 해당하는 영역에 특징점이 검출된다. A범위에 밀집된 특징점의 평균값을 A꼭지점의 위치 값으로 정한다. 다른 B,C,D도 이와 동일하다. 이렇게 4개의 꼭지점을 알 수 있으면 물체의 크기를 계산할 수 있다. 박스의 높낮이는 초기 깊이d1에서 박스의 높이 d2를 차감하여 박스의 높이를 결정짓는다. 이후 다음 물체가 들어올 경우, 오른쪽 이미지를 초기 이미지로 하여, 변화된 부분에서 검출을 한다. 박스 위에 박스가 적층될 시 위치에 대한 정보는 크게 변화하지 않지만 깊이 값이 변화하기 때문에 그 차이로 이전 정보와 비교하여 검출 한다.6 is a view for explaining a method of estimating the position of an object after a feature point is detected according to an embodiment. Referring to FIG. 6, when a box is placed on a pallet for the first time, feature points are detected in areas corresponding to A, B, C, and D as shown in the right figure. The average value of the minutiae concentrated in the A range is set as the position value of the A vertex. Other B, C, and D are the same. If you know the four vertices, you can calculate the size of the object. The height of the box subtracts the height d2 of the box from the initial depth d1 to determine the height of the box. Then, when the next object comes in, the right image is used as the initial image and detection is performed at the changed part. When the box is stacked on the box, the information about the position does not change much, but because the depth value changes, the difference is detected in comparison with the previous information.

데이터 매핑과 시각화(Data Mapping & Visualization)Data mapping and visualization (Data Mapping & Visualization)

데이터 매핑을 위해 데이터베이스를 사용하며, 물품에 부착되어 들어오는 테이블정보와 팔레트 정보를 인식된 물체와 하나로 데이터를 매핑하여 시각화 할 수 있다. 팔레트의 고유번호와 물품의 고유번호, 초기 깊이 값 좌표에 대한 값과 물체 측정 높이 그리고 태그 정보가 있다. 본 연구에서 사용하는 태그정보는 태그ID 값은 문자를 28자까지 쓸 수 있으며, 태그의 Text영역은 6자까지 쓸 수 있다. 태그정보를 기존의 운송장을 대체하기 위해 태그 ID값은 주소역할을 할 수 있도록 구성하고 태그의 Text영역은 물품의 옵션으로 구성하였다. 예를 들어 충남 아산시 탕정면 선문로 221번 길 이라는 주소를 AS.TJ.Sumoon.221 다음과 같이 태그에 쓰고 3D로 시각화를 할 경우 특정 문자를 파싱하여 리스트에 변환하여 보여주는 방식으로 사용하였다. Text영역은 물품의 깨짐주의나 화기주의 등 다양한 옵션을 표시할 수 있도록 변환하여 ID와 동일한 방식으로 문자를 파싱하여 사용한다. 팔레트 위에 적재된 물품을 3D로 렌더링하기 위해 서버를 통해 데이터베이스에 접근하여 해당하는 정보를 JSON형태로 정보를 가져온다. 파싱된 정보는 변환을 통해 관리자에게 보여 진다.The database is used for data mapping, and the table information and palette information attached to the article can be visualized by mapping the data to the recognized object. The pallet's unique number, the unique number of the item, the value for the initial depth value coordinate, the object measurement height, and the tag information. The tag information used in this study can be up to 28 characters in the tag ID value and up to 6 characters in the text area of the tag. In order to replace tag information with existing waybill, the tag ID value is configured to serve as an address, and the text field of the tag is configured as an item option. For example, if you write the address of 221 street in Asan city in Asan city, Chungcheongnam-do, AS.TJ.Sumoon.221 as follows, and when you visualize it in 3D, it is used to convert specific characters into a list and convert them to a list. The text area is converted to display various options such as the item's breakage warning and fire warning, and the character is parsed in the same manner as the ID. In order to render the items loaded on the pallet in 3D, the server accesses the database and fetches the corresponding information in the form of JSON. The parsed information is displayed to the administrator through the conversion.

실험 환경Experiment environment

도 7은 일 실시예에 따른 하드웨어 설치 환경을 설명하는 도면이다. 사용된 장비는 표 2와 같고 실험 환경은 도 7과 같다. 리더 안테나는 UHF 수동형 RFID를 3방향에 설치하였으며, 태그가 부착된 팔레트 위에 물품을 하나씩 적재하면서 실험하였다. 서버는 node.js를 통해 개발하였고, 데이터베이스는 MySQL을 사용하였다. 실험에 사용된 영상 필터의 마스크 크기는 3X3 이며, 기존의 융합 필터와 다양한 융합 필터 조합을 비교하였다. 평가 기준은 MSE 값과 PSNR 값으로 평가하였다. 특징점의 기준은 택배 박스를 검출하기 위해 사용하였으므로 사각형의 꼭지점을 검출하는 것을 주된 목표로 하여, 특징점 후보를 줄이는 것을 최우선으로 하였다. 또한 실시간 환경을 고려하여 고속으로 처리해야 하기 때문에 처리속도 또한 고려하였다. 물품의 기준은 택배박스 만을 적재하는 물류 창고를 기준으로 하였으며, 화물의 규격은 다양하다는 조건으로 실험을 진행하였다.7 is a diagram illustrating a hardware installation environment according to an embodiment. The equipment used is shown in Table 2 and the experimental environment is shown in FIG. The reader antenna was installed in UHF passive RFID in three directions, and it was experimented by loading one item on the pallet with tag. The server was developed through node.js, and the database used MySQL. The mask size of the image filter used in the experiment is 3 × 3, and the combination of existing fusion filter and various fusion filters is compared. The evaluation criteria were evaluated by MSE value and PSNR value. Since the criterion of the minutiae point is used to detect the courier box, the primary goal is to detect the vertex of the rectangle, and reducing the minutiae candidate is given top priority. In addition, the processing speed is also considered because it must be processed at high speed considering the real time environment. The standard of the goods was based on the warehouse carrying only the courier box, and the experiment was carried out on the condition that the standard of the cargo was various.

Figure 112018011712915-pat00006
Figure 112018011712915-pat00006

FAST의 Threshold 값은 11로 고정한다. 그 이유는 깊이 영상에서 Threshold 값이 11이상일 때 10cm이하의 물체는 탐지범위에서 제외하기 위함이다. 깊이 영상은 Kinect의 깊이 영상을 사용한다.The threshold value of FAST is fixed to 11. The reason for this is to exclude an object less than 10 cm from the detection range when the threshold value is above 11 in the depth image. Depth images use Kinect depth images.

실험 결과Experiment result

실험에 사용된 필터 마스크 크기는 3X3 이며, 기존의 융합형 필터와 다양한 융합형 필터 조합을 비교하였다. 평가 기준은 MSE 값과 PSNR 값으로 평가하였다. 특징점의 기준은 사각형 박스를 검출하기 위해 사용하였으므로 특징점 후보를 줄이는 것을 최우선으로 하며 각 엣지의 특징점이 검출된 것을 기준으로 삼는다. FAST의 Threshold 값은 11로 고정한다. 그 이유는 깊이 영상에서 Threshold값이 11이상일 때 10cm이하의 물체는 탐지범위에서 제외하기 위함이다. 깊이 영상은 Kinect의 깊이 영상을 사용한다.The size of the filter mask used in the experiment is 3 × 3, and the combination of existing fusion filter and various fusion filters is compared. The evaluation criteria were evaluated by MSE value and PSNR value. Since the criterion of the feature point is used to detect the rectangular box, reducing the feature point candidate is given priority, and the feature point of each edge is detected as the reference. The threshold value of FAST is fixed to 11. The reason for this is to exclude an object less than 10 cm from the detection range when the threshold value is above 11 in the depth image. Depth images use Kinect depth images.

도 8은 일 실시예에 따른 특징점 검출 기준을 설명하는 도면이다. 도 8을 참조하면, 필터가 적용된 후 노이즈가 최소화된 환경에서 엣지에 근접하는 특징점 후보들로만 이루어진 융합형 필터들로 비교분석 한다.8 is a diagram for explaining a feature point detection criterion according to an embodiment. Referring to FIG. 8, after the filter is applied, it is compared and analyzed with fused filters consisting only of feature point candidates that are close to the edge in an environment in which noise is minimized.

Figure 112018011712915-pat00007
Figure 112018011712915-pat00007

표 3은 기존의 융합형 필터의 성능표다. 측정 방식은 5초 간격으로 150프레임씩 5회 측정한 값의 평균값이며, 미디언 필터와 언샤프 마스크 필터의 융합형 필터가 MSE와 PSNR 값이 결과적으로 우수함을 보인다.Table 3 shows the performance of conventional fusion filters. The measurement method is an average value of five measurements at intervals of 5 seconds every 150 frames, and the MSE and PSNR values of the fusion filter of the median filter and the unsharp mask filter are superior.

도 9는 일 실시예에 따른 2가지 융합형 필터 및 3가지 융합형 필터의 특징점 검출 소요 시간들을 설명하는 도면이다. 도 9를 참조하면, 프레임 별 특징점 검출 시간에 대한 그래프가 도시된다. A는 가우시안필터와 샤프닝 필터의 조합이며 프레임변화에 처리속도 변동 폭이 큰 것을 볼 수 있다. B는 미디언 필터와 언샤프 마스크 필터의 조합이다. 처리시간이 다른 융합형 필터에 비해 변동폭이 낮은 것을 볼 수 있다. C는 최대값 필터와 언샤프 마스크 필터의 조합이다.FIG. 9 is a view for explaining the minutiae point detection times of two fusion filters and three fusion filters according to an embodiment. Referring to FIG. 9, a graph of the feature point detection time per frame is shown. A is a combination of a Gaussian filter and a sharpening filter. B is a combination of a median filter and an unsharp mask filter. It can be seen that the variation range of the processing time is lower than that of the fusion type filters having different processing times. C is a combination of a maximum value filter and an unsharp mask filter.

Figure 112018011712915-pat00008
Figure 112018011712915-pat00008

표 4는 3가지 필터를 조합했을 때 일정 시간기준 처리시간, 특징점, MSE, PSNR의 평균값이다. 미디언 필터를 두 번 적용시킨 후 언샤프 마스크 필터를 적용했을 경우 특징점 검출 시 다른 융합형 필터에 비해 특징점 후보들이 엣지에 근사한 값들로만 이루어지며 후보들 수도 가장 적게 나왔다. 처리속도 또한 다른 융합형 필터에 비해 높지만 차이는 미미하다. 원본 영상과의 손실은 최소화 하며, 영상의 품질은 가장 높일 수 있는 방법임을 볼 수 있다. 그 외에 다른 융합형 필터는 블러링 방식을 두 번 사용하기 때문에 2가지 필터를 융합했을 때 보다 원본영상의 뭉개짐 현상이 심해진다. 그렇기 때문에 MSE 값이 높게 나오며, 성능품질 또한 낮음을 볼 수 있다.Table 4 shows the average processing time, feature point, MSE, and PSNR for a given time when three filters are combined. When applying an unsharp mask filter after applying the median filter twice, the feature point candidates are only approximated to the edge and the number of candidates is the smallest when compared with other fusion type filters. The processing speed is higher than other fusion filters, but the difference is small. The loss of the original image is minimized, and the quality of the image can be maximized. Other fusion filters use the blurring method twice so that the original image is more blurred than when two filters are fused together. Therefore, the MSE value is high and the performance quality is low.

도 10은 일 실시예에 따른 2가지 융합형 필터 및 3가지 융합형 필터가 적용된 영상들을 설명하는 도면이다. 도 10을 참조하면, 2가지 융합형 필터와 3가지 융합형 필터의 성능을 비교한 이미지가 도시된다. A가 2가지 융합형 필터를 사용한 영상이고 B는 3가지 융합형 필터를 사용한 결과 이다. A에서 볼 수 있듯이 2가지 융합형 필터를 사용한 경우 원본영상에서 발생한 노이즈를 최소화 하여도 영상에 노이즈가 남아있다. 특징점 또한 엣지에 근사하는 후보들 외에 다른 위치에 후보들이 위치해 있다. 그러나 B는 원본영상에서 발생하는 노이즈를 최소화 하였으며, 특징점 검출 또한 엣지에 근사한 후보들로만 구성되어 있다.10 is a view for explaining images to which two fusion filters and three fusion filters according to one embodiment are applied. Referring to FIG. 10, there is shown an image comparing the performance of two fusion filters and three fusion filters. A is an image using two fusion filters and B is a result using three fusion filters. As can be seen from A, when two fusion filters are used, noise is still present in the image even if the noise generated from the original image is minimized. Feature points In addition to candidates that are close to the edge, candidates are located at different positions. However, B minimizes the noise generated from the original image, and the feature point detection is composed only of candidates close to the edge.

도 11은 일 실시예에 따른 2가지 융합형 필터 및 3가지 융합형 필터의 특징점 검출 소요 시간들을 설명하는 도면이다. 도 11을 참조하면, 두 가지 융합형 필터에서 FAST알고리즘을 사용하여 특징점을 검출하기 위해 걸리는 시간을 프레임 별로 비교 분석한 결과가 도시된다. A는 3가지 융합필터이며 B는 2가지 융합필터이다. 그래프와 같이 3가지 융합필터는 2가지 융합필터보다 검출속도가 약 50% 느린 단점을 보인다.11 is a view for explaining the time required for detecting the minutiae point of two fusion type filters and three fusion type filters according to one embodiment. Referring to FIG. 11, there is shown a result of comparison analysis of the time taken to detect feature points using the FAST algorithm in two fusion filters. A is three fusion filters and B is two fusion filters. As shown in the graph, the three fusion filters have a disadvantage that the detection speed is about 50% slower than the two fusion filters.

도 12는 일 실시예에 따른 2가지 융합형 필터 및 3가지 융합형 필터의 MSE를 비교하는 도면이다. 도 12를 참조하면, A는 3가지 융합형 필터에 대한 수치이며, 2가지 방식보다 원본영상의 손실률을 나타내는 MSE값이 더 낮은 것을 볼 수 있다. 12 is a diagram comparing MSEs of two fusion filters and three fusion filters according to one embodiment. Referring to FIG. 12, it can be seen that A is a numerical value for three fusion filters, and the MSE value representing the loss rate of the original image is lower than that of the two types.

도 13은 일 실시예에 따른 2가지 융합형 필터 및 3가지 융합형 필터의 PSNR을 비교하는 도면이다. 도 13을 참조하면, 3가지 융합형 필터가 2가지 융합형 필터보다 영상의 품질수치가 더욱 우수한 것을 확인 할 수 있다.13 is a graph comparing PSNRs of two fusion filters and three fusion filters according to an embodiment. Referring to FIG. 13, it can be seen that the three fusion filters are superior to the two fusion filters in terms of image quality.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented in hardware components, software components, and / or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, such as an array, a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks, and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with reference to the drawings, various technical modifications and variations may be applied to those skilled in the art. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

Claims (3)

삭제delete 멀티-블러링 기법과 샤프닝 기법이 융합된 필터를 이용하여, 입력 영상을 필터링 하는 단계; 및
미리 정해진 수의 픽셀들을 이용하여 대상 픽셀을 중심으로 생성된 미리 정해진 형상 위의 미리 정해진 방위의 픽셀들을 상기 대상 픽셀과 비교함으로써, 상기 필터링 된 영상으로부터 특징점을 검출하는 단계
를 포함하고,
상기 필터링 하는 단계는
블러링 필터를 이용하여 상기 입력 영상을 1차 필터링 하는 단계;
상기 블러링 필터를 이용하여 상기 1차 필터링 된 영상을 2차 필터링 하는 단계;
상기 1차 필터링 된 영상과 상기 2차 필터링 된 영상의 차이에 해당하는 차이 영상을 생성하는 단계; 및
상기 차이 영상에 기초하여, 상기 1차 필터링 된 영상을 샤프닝 하는 단계
를 포함하는, 특징점 검출 방법.
Filtering an input image using a filter fused with a multi-blurring technique and a sharpening technique; And
Detecting a feature point from the filtered image by comparing pixels of a predetermined orientation on a predetermined shape generated around a target pixel with the target pixel using a predetermined number of pixels
Lt; / RTI >
The filtering step
First filtering the input image using a blurring filter;
Second filtering the primary filtered image using the blurring filter;
Generating a difference image corresponding to a difference between the primary filtered image and the secondary filtered image; And
Based on the difference image, sharpening the first filtered image
Wherein the feature point detection method comprises the steps of:
멀티-블러링 기법과 샤프닝 기법이 융합된 필터를 이용하여, 입력 영상을 필터링 하는 단계; 및
미리 정해진 수의 픽셀들을 이용하여 대상 픽셀을 중심으로 생성된 미리 정해진 형상 위의 미리 정해진 방위의 픽셀들을 상기 대상 픽셀과 비교함으로써, 상기 필터링 된 영상으로부터 특징점을 검출하는 단계
를 포함하고,
상기 특징점을 검출하는 단계는
상기 대상 픽셀을 중심으로 상기 미리 정해진 수의 픽셀들로 원을 생성하는 단계;
상기 원 위의 미리 정해진 제1 방위들-상기 제1 방위들은 동, 서, 남, 북을 포함함-의 픽셀들과 상기 대상 픽셀을 비교함으로써, 상기 대상 픽셀이 특징점 인지 여부를 판단하는 단계; 및
상기 판단 결과 대상 픽셀이 특징점이 아니라고 판단되는 경우, 상기 원 위의 미리 정해진 제2 방위들-상기 제2 방위들은 각각 상기 제1 방위들 사이에 위치함-의 픽셀들과 상기 대상 픽셀을 비교함으로써, 상기 대상 픽셀이 특징점 인지 여부를 판단하는 단계
를 포함하는, 특징점 검출 방법.
Filtering an input image using a filter fused with a multi-blurring technique and a sharpening technique; And
Detecting a feature point from the filtered image by comparing pixels of a predetermined orientation on a predetermined shape generated around a target pixel with the target pixel using a predetermined number of pixels
Lt; / RTI >
The step of detecting the feature point
Generating a circle with the predetermined number of pixels about the target pixel;
Determining whether the target pixel is a minutia point by comparing pixels of the predetermined first orientations of the circle - including the east, west, south, and north - with the target pixel; And
If it is determined that the target pixel is not a minutia by comparing the pixels of the predetermined second orientations of the circle and the second orientations between the first orientations and the target pixel , Determining whether the target pixel is a minutiae
Wherein the feature point detection method comprises the steps of:
KR1020180012997A 2018-02-01 2018-02-01 Depth Image Based Feature Detection Method Using Hybrid Filter KR101981000B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180012997A KR101981000B1 (en) 2018-02-01 2018-02-01 Depth Image Based Feature Detection Method Using Hybrid Filter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180012997A KR101981000B1 (en) 2018-02-01 2018-02-01 Depth Image Based Feature Detection Method Using Hybrid Filter

Publications (1)

Publication Number Publication Date
KR101981000B1 true KR101981000B1 (en) 2019-05-21

Family

ID=66676041

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180012997A KR101981000B1 (en) 2018-02-01 2018-02-01 Depth Image Based Feature Detection Method Using Hybrid Filter

Country Status (1)

Country Link
KR (1) KR101981000B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100829901B1 (en) * 2007-03-26 2008-05-16 백용인 Chair having percussion instrument
KR100873552B1 (en) * 2006-11-14 2008-12-12 이순제 polypropylene spinning oil composition
KR100899634B1 (en) * 2008-10-10 2009-05-27 현대징크메탈주식회사 Sacrificial anode fixing device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090066064A (en) * 2007-12-18 2009-06-23 한국전자통신연구원 Tracking method and apparatus in real-time camera tracking system using of kalman filter
KR20110123770A (en) * 2009-03-13 2011-11-15 닛본 덴끼 가부시끼가이샤 Image identifier extraction device
KR20150055208A (en) * 2013-11-12 2015-05-21 삼성전자주식회사 Method and apparatus for processing image to detect a object
KR20170114700A (en) * 2016-04-06 2017-10-16 한국과학기술연구원 Image processing System and Image processing Method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090066064A (en) * 2007-12-18 2009-06-23 한국전자통신연구원 Tracking method and apparatus in real-time camera tracking system using of kalman filter
KR20110123770A (en) * 2009-03-13 2011-11-15 닛본 덴끼 가부시끼가이샤 Image identifier extraction device
KR20150055208A (en) * 2013-11-12 2015-05-21 삼성전자주식회사 Method and apparatus for processing image to detect a object
KR20170114700A (en) * 2016-04-06 2017-10-16 한국과학기술연구원 Image processing System and Image processing Method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100873552B1 (en) * 2006-11-14 2008-12-12 이순제 polypropylene spinning oil composition
KR100829901B1 (en) * 2007-03-26 2008-05-16 백용인 Chair having percussion instrument
KR100899634B1 (en) * 2008-10-10 2009-05-27 현대징크메탈주식회사 Sacrificial anode fixing device

Similar Documents

Publication Publication Date Title
Ahuja et al. A survey of computer vision based corrosion detection approaches
US7965890B2 (en) Target recognition system and method
KR101981000B1 (en) Depth Image Based Feature Detection Method Using Hybrid Filter
US10937168B2 (en) System and method for finding and classifying lines in an image with a vision system
KR101436369B1 (en) Apparatus and method for detecting multiple object using adaptive block partitioning
KR101997048B1 (en) Method for recognizing distant multiple codes for logistics management and code recognizing apparatus using the same
US20170220896A1 (en) Fault-Aware Matched Filter and Optical Flow
Amiri et al. Adaptive stopping criterion for top-down segmentation of ALS point clouds in temperate coniferous forests
Patel et al. 2D basic shape detection using region properties
Medouakh et al. Improved object tracking via joint color-LPQ texture histogram based mean shift algorithm
Kocharyan A modified fingerprint image thinning algorithm
US20160284104A1 (en) Determine the Shape of a Representation of an Object
EP3044734B1 (en) Isotropic feature matching
Han et al. Auto-calibration method using stop signs for urban autonomous driving applications
Mahayuddin et al. Moving object detection using semantic convolutional features
EP4131177A1 (en) Imaging system and method using a multi-layer model approach to provide robust object detection
Raiser et al. Impact of object extraction methods on classification performance in surface inspection systems
Wang Moving Vehicle Detection and Tracking Based on Video Sequences.
Zakaria et al. Particle swarm optimization and support vector machine for vehicle type classification in video stream
Balaji et al. Effective features of remote sensing image classification using interactive adaptive thresholding method
CN115249024A (en) Bar code identification method and device, storage medium and computer equipment
KR20210032374A (en) System and method for finding and classifying lines in an image with a vision system
US20190180444A1 (en) Method of line detection
Azi et al. Car tracking technique for DLES project
US20190251703A1 (en) Method of angle detection

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant