KR102124244B1 - Method for producing unique ID of object - Google Patents

Method for producing unique ID of object Download PDF

Info

Publication number
KR102124244B1
KR102124244B1 KR1020180046529A KR20180046529A KR102124244B1 KR 102124244 B1 KR102124244 B1 KR 102124244B1 KR 1020180046529 A KR1020180046529 A KR 1020180046529A KR 20180046529 A KR20180046529 A KR 20180046529A KR 102124244 B1 KR102124244 B1 KR 102124244B1
Authority
KR
South Korea
Prior art keywords
normalized
image
unique
feature point
generating
Prior art date
Application number
KR1020180046529A
Other languages
Korean (ko)
Other versions
KR20190122966A (en
Inventor
김봉균
Original Assignee
김봉균
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김봉균 filed Critical 김봉균
Priority to KR1020180046529A priority Critical patent/KR102124244B1/en
Priority to PCT/KR2018/005332 priority patent/WO2019208864A1/en
Publication of KR20190122966A publication Critical patent/KR20190122966A/en
Application granted granted Critical
Publication of KR102124244B1 publication Critical patent/KR102124244B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06K9/4661
    • G06K9/44
    • G06K9/481
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 객체의 고유 아이디 생성 방법에 관한 것으로, 보다 구체적으로 복수의 객체 영상으로부터 추출한 객체의 특성을 고려한 고유 아이디를 생성함으로써 사람뿐만 아니라 동물, 사물 등 모든 객체를 식별할 수 있는 고유 아이디의 생성할 수 있으며, 객체 영상으로부터 생성된 숫자로 이루어진 고유 아이디를 생성함으로써 입력 객체 영상과 등록 객체 영상을 비교하지 않으며, 따라서 모든 객체의 객체 영상을 별도로 등록 저장할 필요가 없으며 입력 객체 영상으로부터 생성되는 고유 아이디와 등록된 고유 아이디를 비교하여 모든 객체를 식별할 수 있는 객체의 고유 아이디 생성 방법에 관한 것이다. The present invention relates to a method of generating a unique ID of an object, and more specifically, by generating a unique ID considering characteristics of an object extracted from a plurality of object images, generation of a unique ID that can identify all objects such as animals and objects as well as people. It is possible to compare the input object image and the registered object image by generating a unique ID consisting of numbers generated from the object image, so there is no need to register and store the object images of all objects separately, and the unique ID generated from the input object image And a unique ID of an object capable of identifying all objects by comparing the registered unique IDs.

Description

객체의 고유 아이디 생성 방법{Method for producing unique ID of object}Method for producing unique ID of object}

본 발명은 객체의 고유 아이디 생성 방법에 관한 것으로, 보다 구체적으로 복수의 객체 영상으로부터 추출한 객체의 특성을 고려한 고유 아이디를 생성함으로써 사람뿐만 아니라 동물, 사물 등 모든 객체를 식별할 수 있는 고유 아이디의 생성할 수 있으며, 객체 영상으로부터 생성된 숫자로 이루어진 고유 아이디를 생성함으로써 입력 객체 영상과 등록 객체 영상을 비교하지 않으며, 따라서 모든 객체의 객체 영상을 별도로 등록 저장할 필요가 없으며 입력 객체 영상으로부터 생성되는 고유 아이디와 등록된 고유 아이디를 비교하여 모든 객체를 식별할 수 있는 객체의 고유 아이디 생성 방법에 관한 것이다. The present invention relates to a method of generating a unique ID of an object, and more specifically, by generating a unique ID considering characteristics of an object extracted from a plurality of object images, generation of a unique ID that can identify all objects such as animals and objects as well as people. It is possible to compare the input object image and the registered object image by generating a unique ID consisting of numbers generated from the object image, so there is no need to register and store the object images of all objects separately, and the unique ID generated from the input object image And a unique ID of an object capable of identifying all objects by comparing the registered unique IDs.

인증 또는 보안 분야에서는 사용자 또는 객체를 식별하기 위한 아이디가 사용되고 있다. 예를 들어 아이디는 건물의 출입, 보안이 요구되는 은행 업무, 스마트 기기의 사용 인증, 객체의 식별 등 다양한 실생활 및 산업 전반에 이용된다.In the field of authentication or security, an ID is used to identify a user or object. For example, ID is used in various real life and industries such as access to buildings, banking where security is required, authentication of use of smart devices, and identification of objects.

이러한 아이디는 사용자나 관리자가 임의적으로 설정한 다수의 문자와 기호로 이루어지거나 사용자의 생체 정보 자체를 고유 아이디로 사용하는 것이 통상적이다.Such an ID is generally composed of a number of characters and symbols arbitrarily set by a user or an administrator, or it is common to use the user's biometric information itself as a unique ID.

문자와 기호로 이루어진 아이디의 경우, 사용자가 아이디를 기억하고 있어 사용하여야 하는 문제점을 가지며 아이디가 제3자에 쉽게 노출되어 악용되는 문제점을 가진다.In the case of an ID composed of letters and symbols, the user has a problem of having to use the ID, and the ID is easily exposed to a third party and abused.

한편, 생체 정보 자체를 고유 아이디로 사용하는 경우, 생체 정보를 획득하고 획득한 생체 정보와 기저장되어 있는 생체 정보 자체를 서로 비교하여 생체 정보가 일치하는지 여부로 사용자를 인증함으로써, 모든 사용자의 생체 정보를 저장 등록하여야 하며 사용자의 생체 정보는 지극히 개인 정보로서 제3자에 노출되는 경우 막대한 피해를 줄 수 있는 문제점을 가진다.On the other hand, when the biometric information itself is used as a unique ID, the biometric information of all users is obtained by obtaining biometric information and comparing the obtained biometric information and pre-stored biometric information itself to authenticate the user with whether the biometric information matches. The information must be stored and registered, and the user's biometric information is extremely personal information, which has a problem that can cause huge damage when exposed to a third party.

그리고 종래 아이디는 사용자를 식별하기 위한 것으로 이는 사용자가 인증 또는 등록을 위해 사용자가 기호와 문자로 아이디를 생성하는 것으로, 사용자의 특성을 반영하지 못한다. 더욱이 종래 아이디는 동물이나 사물의 특성을 반영하여 동물이나 사물을 포함하는 모든 객체를 식별하기 위한 아이디로 생성되지 못한다는 문제점을 가진다. In addition, the conventional ID is for identifying a user, and the user generates an ID with symbols and characters for authentication or registration, and does not reflect the user's characteristics. Moreover, the conventional ID has a problem in that it cannot be generated as an ID for identifying all objects including an animal or object by reflecting the characteristics of the animal or object.

본 발명은 위에서 언급한 종래 아이디 생성 방법이 가지는 문제점을 해결하기 위한 것으로, 본 발명이 이루고자 하는 목적은 객체의 특성을 반영하여 객체의 고유 아이디를 생성하는 방법을 제공하는 것이다.The present invention is to solve the problems of the conventional ID generation method mentioned above, and an object of the present invention is to provide a method for generating a unique ID of an object by reflecting the characteristics of the object.

본 발명이 이루고자 하는 다른 목적은 객체 영상으로부터 추출한 객체의 특성을 고려한 고유 아이디를 생성하여 사람뿐만 아니라 동물, 사물 등 모든 객체를 식별할 수 있는 고유 아이디의 생성 방법을 제공하는 것이다.Another object of the present invention is to provide a method of generating a unique ID that can identify all objects such as animals, objects, as well as humans by generating a unique ID in consideration of characteristics of an object extracted from an object image.

본 발명이 이루고자 하는 또 다른 목적은 복수의 객체 영상들로부터 객체를 나타내는 특징점을 추출하여 배경 영역을 제거하고 추출한 특징점 중 복수의 객체 영상에서 공통된 고유 특징점들로부터 불변하는 고유한 객체의 아이디를 생성하는 방법을 제공하는 것이다.Another object to be achieved by the present invention is to extract a feature point representing an object from a plurality of object images, remove a background area, and generate an unique object ID that is unchanged from unique feature points common to a plurality of object images among the extracted feature points. Is to provide a way.

본 발명이 이루고자 하는 또 다른 목적은 SIFT(Scale Invariant Feature Transform) 알고리즘을 이용하여 생성한 객체 영상의 특징점에 대한 서술자 벡터로부터 적은 연산량으로 정확하게 객체의 고유 아이디를 생성하는 방법을 제공하는 것이다. Another object of the present invention is to provide a method for accurately generating a unique ID of an object with a small amount of computation from a descriptor vector for a feature point of an object image generated using a Scale Invariant Feature Transform (SIFT) algorithm.

본 발명의 목적을 달성하기 위하여, 본 발명에 따른 고유 아이디의 생성 방법은 동일 객체를 촬영한 서로 상이한 복수의 객체 영상에서 조명 성분을 추정하고 추정한 조명 성분에 기초하여 복수의 객체 영상별로 조명 정규화된 영상을 생성하는 단계와, SIFT(Scale Invariant Feature Transform) 알고리즘을 이용하여 조명 정규화된 객체 영상별로 특징점(keypoint)을 추출하고 추출한 특징점의 서술자를 생성하는 단계와, 각 조명 정규화된 객체 영상의 특징점 서술자에 기초하여 특징점 사이의 거리로부터 각 객체 영상에 대한 조명 정규화된 객체 영상에서 배경 영역의 특징점을 제거한, 서로 매칭되는 객체의 고유 특징점을 추출하는 단계와, 각 조명 정규화된 객체 영상의 고유 특징점에 대한 서술자의 벡터 행렬로부터 생성되는 각 조명 정규화된 객체 영상의 후보 아이디로부터 객체의 고유 아이디를 생성하는 단계를 포함하는 것을 특징으로 한다.In order to achieve the object of the present invention, a method for generating a unique ID according to the present invention estimates lighting components from a plurality of different object images photographing the same object and normalizes lighting by a plurality of object images based on the estimated lighting components Generating a generated image, extracting a keypoint for each light-normalized object image using a Scale Invariant Feature Transform (SIFT) algorithm, and generating a descriptor of the extracted feature point, and feature points of each light-normalized object image Extracting the unique feature points of the objects that match each other, removing the feature points of the background region from the light normalized object image for each object image from the distance between the feature points based on the descriptor, and the unique feature points of each light normalized object image And generating a unique ID of the object from the candidate ID of each illumination normalized object image generated from the vector matrix of the descriptor of the Korean.

바람직학, 본 발명의 일 실시예에 따라 조명 정규화된 객체 영상은 객체 영상을 반전시켜 반전 객체 영상을 생성하는 단계와, 저주파 조명 성분을 추출하기 하기 위해 평균 필터를 반전 객체 영상에 적용하여 반전 추정 조명 성분을 계산하는 단계와, 반전 추정 조명 성분을 재반전시켜 추정 조명 성분을 계산하는 단계와, 추정 조명 성분과 객체 영상을 서로 합하여 조명 정규화된 반전 객체 영상을 생성하는 단계와, 조명 정규화된 반전 객체 영상을 히스토그램 평활화(Histogram Equalization)하여 조명 정규화된 반전 객체 영상의 픽셀값을 확산 분포시킨 반전 평활화 영상을 생성하는 단계와, 반전 평활화 영상을 재반전시켜 조명 정규화된 객체 영상을 생성하는 단계를 포함하는 것을 특징으로 한다.Preference, according to an embodiment of the present invention, the illumination normalized object image inverts the object image to generate an inverted object image, and applies an average filter to the inverted object image to extract the low-frequency illumination component and estimates the inversion. Calculating an illumination component; reversing the inversion estimated illumination component to calculate the estimated illumination component; adding the estimated illumination component and the object image to each other to generate an illumination normalized inversion object image; and the illumination normalized inversion. Generating an inverted smoothed image in which the pixel values of the illumination normalized inverted object image are diffused and distributed by histogram equalization of the object image, and generating an illumination normalized object image by reversing the inverted smoothed image. It is characterized by.

바람직하게, 본 발명의 일 실시예에 따른 객체의 고유 특징점을 추출하는 단계는 복수의 조명 정규화된 객체 영상 중 선택된 2개의 조명 정규화된 객체 영상의 특징점으로 이루어진 특징점 그룹에 대해 특징점 서술자에 기초하여 특징점 사이의 거리로부터 특징점 그룹에서 서로 매칭되는 후보 고유 특징점을 추출하는 단계와, 복수의 조명 정규화된 객체 영상으로부터 생성되는 모든 특징점 그룹으로부터 추출한 후보 고유 특징점에 기초하여 모든 특징점 그룹에서 공통으로 매칭되는 고유 특징점을 추출하는 단계를 포함하는 것을 특징으로 한다.Preferably, the step of extracting a unique feature point of an object according to an embodiment of the present invention is based on a feature point descriptor for a feature group consisting of feature points of two selected light normalized object images among a plurality of light normalized object images Extracting candidate unique feature points that match each other from the feature point group from the distance between them, and unique feature points that are commonly matched in all feature point groups based on candidate unique feature points extracted from all feature point groups generated from a plurality of lighting normalized object images It characterized in that it comprises a step of extracting.

후보 고유 특징점을 추출하는 단계에서 아래의 수학식(1)에 의해 후보 고유 특징점을 추출하는데,In the step of extracting the candidate unique feature points, the candidate unique feature points are extracted by the following equation (1).

[수학식 1][Equation 1]

Figure 112018039972362-pat00001
Figure 112018039972362-pat00001

여기서 v1n은 제1 조명 정규화된 객체 영상의 특징점이며, v2i, v2j는 제2 조명 정규화된 객체 영상의 특징점들 중 v1n에 가장 가까운 위치의 2개의 특징점이며, dR은 추출 가중치이며, 수학식(1)을 만족하는 경우 v1n, v2i는 후보 고유 특징점으로 추출되는 것을 특징으로 한다.Here, v 1n is a feature point of the first illumination normalized object image, v 2i , v 2j are two feature points of the second illumination normalized object image closest to v 1n , and d R is an extraction weight , When satisfying Equation (1) v 1n , v 2i is characterized by being extracted as a candidate unique feature point.

바람직하게, 본 발명의 일 실시예에 따른 고유 아이디를 생성하는 단계는 각 조명 정규화된 객체 영상의 고유 특징점에 대한 서술자의 벡터 행렬로부터 생성되는 각 부분 벡터 행렬의 8차원 주성분에서 가장 큰 수와 가장 작은 수의 위치를 판단하는 단계와, 각 부분 벡터 행렬의 가장 큰 수와 가장 작은 수의 위치를 나타내는 제1 값과 제2 값으로 이루어진, 각 조명 정규화된 객체 영상에 대한 후보 아이디를 생성하는 단계와, 각 조명 정규화된 객체 영상에 대한 후보 아이디에서 서로 공통된 수로 이루어진 객체의 고유 아이디를 생성하는 단계를 포함하는 것을 특징으로 한다.Preferably, the step of generating a unique ID according to an embodiment of the present invention includes the largest number and the largest number in the 8-dimensional principal component of each partial vector matrix generated from the descriptor vector matrix for the unique feature point of each illumination normalized object image. Determining a small number of positions, and generating candidate IDs for each light normalized object image, consisting of first and second values representing the largest and smallest positions of each partial vector matrix. And, it characterized in that it comprises the step of generating a unique ID of the object consisting of a number common to each other from the candidate ID for each normalized object image.

바람직하게, 본 발명의 일 실시예에 따른 특징점을 추출하는 단계는 다른 레벨의 분산을 가지는 가우시안 함수에 의해 블러(blur)된 스케일 공간 영상을 생성하는 단계와, 스케일 공간 영상 중 인접 영상의 차로부터 가우시안 차 영상을 생성하는 단계와, 가우시안 차 영상 중 현재 픽셀에 인접한 인접 픽셀, 가운시안 차 영상에 상위 및 하위 인접한 인접 가운시안 차 영상 중 상기 현재 픽셀에 인접한 차위 인접 픽셀에서 최대 또는 최소 픽셀값을 가지는 후보 특징점을 판단하는 단계와, 후보 특징점에서 불안정한 후보 특징점을 제거하여 특징점을 추출하는 단계를 포함하는 것을 특징으로 한다. Preferably, the step of extracting a feature point according to an embodiment of the present invention includes generating a scaled spatial image blurred by a Gaussian function having a different level of variance, and a difference between adjacent images among the scaled spatial images. Generating a Gaussian difference image, and determining a maximum or minimum pixel value from a neighboring pixel adjacent to the current pixel among the Gaussian difference images, and a neighboring adjacent pixel adjacent to the current pixel among upper and lower adjacent neighboring Geuntian difference images among the Gaussian difference images The branch is characterized by including the step of determining a candidate feature point, and removing the unstable candidate feature point from the candidate feature point to extract the feature point.

특징점을 중심으로 특징점의 인접 픽셀을 이용하여 특징점과 특징점 인접 픽셀 사이의 방위각과 크기를 계산하는 단계와, 계산한 방위각의 히스토그램으로부터 특징점의 기준 방위를 판단하는 단계와, 기준 방위에 기초하여 특징점 주변에 위치한 국부 영역의 그레디언트 방향과 크기로 표현되는 특징점 서술자를 생성하는 단계를 포함하는 것을 특징으로 한다.Calculating the azimuth and size between the feature point and the adjacent pixel of the feature point using adjacent pixels of the feature point around the feature point, determining a reference orientation of the feature point from the calculated histogram of the feature point, and surrounding the feature point based on the reference orientation And generating a feature point descriptor expressed in a gradient direction and size of the local area located at.

여기서 동일 객체를 촬영한 서로 상이한 3개의 객체 영상에서 잡음을 제거하여 3개의 객체 영상 각각에 대한 조명 정규화된 객체 영상을 획득하는 것을 특징으로 한다.Here, it is characterized in that noise is removed from three different object images photographing the same object to obtain a normalized object image for each of the three object images.

본 발명에 따른 객체의 고유 아이디 생성 방법은 다음과 같은 다양한 효과를 가진다.The method for generating a unique ID of an object according to the present invention has various effects as follows.

첫째, 본 발명에 따른 객체의 고유 아이디 생성 방법은 객체 영상으로부터 추출한 객체의 특성을 고려한 고유 아이디를 생성함으로써, 사람뿐만 아니라 동물, 사물 등 모든 객체를 식별할 수 있는 고유 아이디의 생성할 수 있다.First, in the method for generating a unique ID of an object according to the present invention, by generating a unique ID considering characteristics of an object extracted from an object image, it is possible to generate a unique ID that can identify all objects such as animals and objects.

둘째, 본 발명에 따른 객체의 고유 아이디 생성 방법은 서로 상이한 복수의 객체 영상들로부터 객체를 나타내는 특징점을 추출하고 다시 특징점 중 복수의 객체 영상에서 공통된 고유 특징점들로부터 객체의 고유 아이디를 생성함으로써, 객체 특성을 반영하여 정확하게 객체의 고유 아이디를 생성할 수 있다.Second, the method for generating a unique ID of an object according to the present invention extracts a feature point representing an object from a plurality of different object images and generates a unique ID of the object from unique feature points common among the plurality of object images among the feature points, The unique ID of the object can be generated accurately by reflecting the characteristics.

셋째, 본 발명에 따른 객체의 고유 아이디 생성 방법은 객체 영상으로부터 생성된 숫자로 이루어진 고유 아이디를 생성함으로써, 입력 객체 영상과 등록 객체 영상을 비교하지 않으며, 따라서 모든 객체의 객체 영상을 별도로 등록 저장할 필요가 없으며 입력 객체 영상으로부터 생성되는 고유 아이디와 등록된 고유 아이디를 비교하여 모든 객체를 식별할 수 있다. Third, the method for generating a unique ID of an object according to the present invention does not compare the input object image and the registered object image by generating a unique ID consisting of numbers generated from the object image, so it is necessary to separately register and store the object images of all objects. There is no, and all objects can be identified by comparing the unique ID generated from the input object image with the registered unique ID.

넷째, 본 발명에 따른 객체의 고유 아이디 생성 방법은 SIFT(Scale Invariant Feature Transform) 알고리즘을 적용하여 생성한 객체 영상의 특징점에 대한 서술자 벡터를 이용하여 고유 아이디를 생성함으로써, 적은 연산량으로 정확하게 객체의 고유 아이디를 생성할 수 있다. Fourth, in the method of generating a unique ID of an object according to the present invention, a unique ID is generated using a descriptor vector for a feature point of an object image generated by applying a Scale Invariant Feature Transform (SIFT) algorithm, so that the unique ID of the object is accurately calculated with a small amount of computation. You can create an ID.

도 1은 본 발명의 일 실시예에 따른 고유 아이디 생성 장치를 설명하기 위한 기능 블록도이다.
도 2는 본 발명에 따른 정규화 영상 생성부의 일 예를 설명하기 위한 도면이다.
도 3은 본 발명에 따른 고유 특징점 생성부의 일 예를 설명하기 위한 기능 블록도이다.
도 4는 본 발명의 일 실시예에 따른 객체의 고유 아이디 생성 방법을 설명하기 위한 흐름도이다.
도 5는 가운시안 차 영상을 생성하는 일 예를 설명하기 위한 도면이다.
도 6은 가운시안 차 영상 중 현재 픽셀에 인접한 차위 인접 픽셀에서 최대 또는 최소 픽셀값을 가지는 특징점을 판단하는 일 예를 설명하기 위한 도면이다.
도 7(a)는 SIFT 특징점 주변에 위치한 국부 영역의 그래드언트 방향과 크기를 도시한 도면이고, 도 7(b)는 가우시안 가중치를 부여한 후의 그래디언트 방향과 크기를 도시한 도면이다.
도 8은 본 발명에 따른 고유 특징점을 추출하는 단계의 일 예를 설명하기 위한 흐름도이다.
도 9는 제1 내지 제3 조명 정규화 객체 영상에서 추출한 고유 특징점의 일 예를 도시하고 있다.
도 10은 본 발명에 따른 고유 아이디의 생성 단계의 일 예를 설명하기 위한 흐름도이다.
도 11은 조명 정규화된 객체 영상에서 N개의 고유 특징점에 대한 특징점 서술자 벡터 행렬의 일 예를 도시하고 있다.
도 12는 각 조명 정규화된 객체 영상에 대한 제1값과 제2값의 일 예를 도시하고 있다.
1 is a functional block diagram illustrating a device for generating a unique ID according to an embodiment of the present invention.
2 is a view for explaining an example of a normalized image generation unit according to the present invention.
3 is a functional block diagram illustrating an example of a unique feature point generating unit according to the present invention.
4 is a flowchart illustrating a method for generating a unique ID of an object according to an embodiment of the present invention.
5 is a view for explaining an example of generating a gown cyan difference image.
FIG. 6 is a diagram for explaining an example of determining a feature point having a maximum or minimum pixel value in a next neighboring pixel adjacent to a current pixel in a difference image.
7(a) is a diagram showing a gradient direction and a size of a local area located around a SIFT feature point, and FIG. 7(b) is a diagram showing a gradient direction and a size after applying a Gaussian weight.
8 is a flowchart illustrating an example of a step of extracting unique feature points according to the present invention.
9 shows an example of unique feature points extracted from the first to third illumination normalized object images.
10 is a flowchart for explaining an example of the step of generating a unique ID according to the present invention.
11 illustrates an example of a feature point descriptor vector matrix for N eigen feature points in an illumination normalized object image.
12 shows an example of first and second values for each normalized object image.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다.It should be noted that the technical terms used in the present invention are only used to describe specific embodiments, and are not intended to limit the present invention. In addition, technical terms used in the present invention should be interpreted as meanings generally understood by a person having ordinary knowledge in the technical field to which the present invention belongs, unless otherwise defined in the present invention. It should not be interpreted as a meaning or an excessively reduced meaning. In addition, when the technical term used in the present invention is a wrong technical term that does not accurately represent the spirit of the present invention, it should be understood as being replaced by a technical term that can be correctly understood by those skilled in the art.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.In addition, the singular expression used in the present invention includes a plural expression unless the context clearly indicates otherwise. In the present invention, terms such as “consisting of” or “comprising” should not be construed to include all of the various components, or various stages, described in the invention, including some of the components or some stages It may or may not be construed as further comprising additional components or steps.

또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, it should be noted that the accompanying drawings are only for easy understanding of the spirit of the present invention and should not be interpreted as limiting the spirit of the present invention by the accompanying drawings.

이하 첨부한 도면을 참고로 본 발명에 따른 고유 아이디의 생성 방법에 대해 보다 구체적으로 설명한다.Hereinafter, a method of generating a unique ID according to the present invention will be described in more detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 고유 아이디 생성 장치를 설명하기 위한 기능 블록도이다.1 is a functional block diagram illustrating a device for generating a unique ID according to an embodiment of the present invention.

도 1을 참고로 살펴보면, 영상 촬영부(110)는 객체의 영상을 촬영한다. 여기서 영상 촬영부(110)를 통해 촬영하는 객체는 객체마다 서로 상이한 특성을 가지고 있는 대상으로, 예를 들어 사람의 얼굴, 홍채, 정맥패턴 등이 객체가 될 수 있으며, 본 발명이 적용되는 분야에 따라 강아지, 고양이 등의 애완 동물의 얼굴, 정맥패턴, 홍채 등이 객체가 되거나 이외에도 서로 상이한 특성을 가지는 사물이 객체가 될 수 있다. 영상 촬영부(110)는 서로 시간차이를 두고 객체를 촬영하여 복수의 객체 영상을 획득한다. 바람직하게, 영상 촬영부(110)는 서로 시간차이를 두고 객체를 3회 촬영하여 3개의 객체 영상을 획득한다.Referring to FIG. 1, the image photographing unit 110 photographs an image of an object. Here, the object photographed through the image photographing unit 110 is an object having different characteristics for each object, for example, a human face, an iris, a vein pattern, etc., can be an object, and in the field to which the present invention is applied Accordingly, the face, vein pattern, iris, etc. of a pet, such as a puppy or a cat, may be an object, or objects having different characteristics from each other may be objects. The image photographing unit 110 acquires a plurality of object images by photographing objects with a time difference from each other. Preferably, the image photographing unit 110 acquires three object images by photographing the object three times with a time difference from each other.

영상 촬영부(110)의 일 예로, 다수의 근적외선 LED 램프가 복수의 열과 행으로 배열되도록 구성된 조명부로부터 조사된 근적외선이 객체를 투과하거나 반사되며 제공되는 광을 이용하여 객체 영상을 촬영하는데, CCD(charge coupled device) 또는CMOS(complementary Metal-Oxide Semiconductor) 카메라를 사용할 수 있다.As an example of the image photographing unit 110, a near infrared ray irradiated from an illumination unit configured such that a plurality of near infrared LED lamps are arranged in a plurality of columns and rows transmits or reflects an object, and photographs the object image using the provided light. Charge coupled device (CMOS) or complementary metal-oxide semiconductor (CMOS) cameras can be used.

정규화 영상 생성부(130)는 영상 촬영부(110)로부터 획득한 복수의 객체 영상 각각에서 조명 성분을 추정하고 추정한 조명 성분에 기초하여 복수의 객체 영상별로 조명 정규화된 영상을 생성한다. 영상 촬영부(110)는 적외선 광원을 이용하여 객체 영상을 획득하는데, 적외선 광원의 배치 위치에 따라 적외선 광원이 객체 특정 부위로 집중되어 조사될 수 있으며 객체 조직 또는 두께의 차이로 인해 획득한 객체 영상에서 조명 성분은 불균형이다. The normalized image generating unit 130 estimates a lighting component from each of the plurality of object images obtained from the image photographing unit 110 and generates a lighting normalized image for each of the plurality of object images based on the estimated lighting component. The image capturing unit 110 acquires an object image using an infrared light source, and the infrared light source may be focused and irradiated to a specific part of the object according to the arrangement position of the infrared light source, and the object image obtained due to the difference in object tissue or thickness The lighting component at is unbalanced.

특징점 생성부(150)는 SIFT(Scale Invariant Feature Transform) 알고리즘을 이용하여 각 조명 정규화된 영상에서 객체 특징을 나타내는 SIFT 특징점(keypoint)을 추출하고, 추출한 SIFT 특징점의 서술자를 생성한다. 추출한 특징점의 서술자는 SIFT 특징점 주변에 위치한 국부 영역의 그레디언트(gradient) 방향과 크기, SIFT 특징점의 위치 정보이다.The feature point generator 150 extracts a SIFT keypoint representing an object feature from each light normalized image using a Scale Invariant Feature Transform (SIFT) algorithm, and generates a descriptor of the extracted SIFT feature point. The descriptor of the extracted feature points is the gradient direction and size of the local area located around the SIFT feature points, and the location information of the SIFT feature points.

고유 특징점 생성부(170)는 각 조명 정규화된 영상의 특징점 서술자에 기초하여 특징점 사이의 거리로부터 각 조명 정규화된 영상에서 서로 매칭되는 특징점을 판단하여 각 조명 정규화된 영상에서 서로 공통된 고유 특징점을 생성한다. 여기서 고유 특징점은 각 조명 정규화된 영상에서 서로 매칭되는 공통된 특징점으로, 각 조명 정규화된 영상의 특징점 중 서로 일치하지 않는 특징점을 제거함으로써, 조명 정규화된 영상에서 배경 영역을 제외한 객체 영역만을 추출할 수 있다.The unique feature point generation unit 170 determines characteristic points that match each other in each light normalized image from the distance between the feature points based on the feature point descriptors of each light normalized image to generate unique feature points common to each other in the light normalized image . Here, the unique feature points are common feature points that match each other in each normalized image, and by removing feature points that do not match each other among the feature points of each normalized image, only the object region excluding the background region can be extracted from the normalized image. .

고유 아이디 생성부(190)는 각 조명 정규화된 영상별로 고유 특징점에 대한 서술자의 벡터 행렬로부터 후보 아이디를 생성하며, 각 조명 정규화된 영상의 후보 아이디에서 서로 공통된 후보 아이디로부터 객체의 고유 아이디를 생성한다.The unique ID generator 190 generates candidate IDs from a vector matrix of descriptors for unique feature points for each light normalized image, and generates unique IDs of objects from candidate IDs common to each other in the candidate IDs of each light normalized image. .

도 2는 본 발명에 따른 정규화 영상 생성부의 일 예를 설명하기 위한 도면이다.2 is a view for explaining an example of a normalized image generation unit according to the present invention.

도 2를 참고로 보다 구체적으로 살펴보면, 제1 반전부(131)는 객체 영상(I(x,y))을 반전시켜 반전 영상(I'(x,y))을 생성하며, 조명 성분 추정부(133)는 저주파 조명 성분을 추출하기 하기 위해 평균 필터를 컨벌루션하여 반전 추정 조명 성분(R(x,y))을 계산한다. 조명 성분은 객체 영상에서 저주파 성분으로 나타나기 때문에, 반전 원본영상에 평균 필터를 컨볼루션하여 반전 원본 영상을 블러(blur)시킴으로써, 반전 원본 영상에서 조명 성분을 추정한다. 여기서 평균 필터는 m×n 크기를 가지며 M×N 크기의 반전 원본 영상과 컨볼루션되어 반전 추정 조명 성분을 생성한다.Referring to FIG. 2 in more detail, the first inverting unit 131 generates an inverted image I'(x,y) by inverting the object image I(x,y), and the lighting component estimator (133) calculates the inverted estimated illumination component (R(x,y)) by convolving the average filter to extract the low-frequency illumination component. Since the illumination component appears as a low-frequency component in the object image, the illumination component is estimated from the inverted original image by convolution of the average filter on the inverted original image and blurring the inverted original image. Here, the average filter has an m×n size and is convolved with an M×N sized inverted original image to generate an inverted estimated illumination component.

제2 반전부(135)는 반전 추정 조명 성분(R(x,y)을 재반전시켜 추정 조명 성분(R'(x,y)을 계산한다.The second inversion unit 135 re-inverts the inverted estimated illumination component R(x,y) to calculate the estimated illumination component R'(x,y).

조명 정규화부(137)는 추정 조명 성분(R'(x,y))과 반전 영상(I'(x,y))을 서로 합하여 0에서 255 사이의 픽셀값은 유지시키고 0 이하의 픽셀값은 0으로 설정하고 255 이상의 픽셀값은 255로 설정하여 조명 정규화된 반전 영상(I''(x,y))을 생성하며, 평활화부(158)는 조명 정규화된 반전 영상(I''(x,y))을 히스토그램 평활화(Histogram Equalization)하여 조명 정규화된 반전 영상(I''(x,y))의 픽셀값을 확산 분포시킨다. 여기서 히스토그램 평활화를 통해 명암 분포가 빈약한 조명 정규화된 반전 영상의 히스토그램은 균일하게 분포되며, 명암 대비를 최대화시킨 조명 정규화된 객체 영상이 생성된다.The illumination normalization unit 137 adds the estimated illumination component R'(x,y) and the inverted image I'(x,y) to each other to maintain a pixel value between 0 and 255, and a pixel value of 0 or less. Set to 0, and a pixel value of 255 or greater is set to 255 to generate an illumination normalized inverted image I''(x,y), and the smoothing unit 158 illuminates the normalized illumination image I''(x, y)) is histogram equalization to diffusely distribute the pixel values of the illumination normalized inverted image I''(x,y). Here, the histogram of the light-normalized inverted image with poor contrast distribution is uniformly distributed through histogram smoothing, and a light-normalized object image with maximized contrast is generated.

제 3 반전부(139)는 반전 평활화 영상을 재반전시켜 조명 정규화된 객체 영상E(x,y)을 생성한다.The third inversion unit 139 re-inverts the inverted smoothing image to generate an illumination normalized object image E(x,y).

영상의 픽셀값이 0에서 255의 값을 가지는 경우, 종래 조명 정규화 방법은 입력 신호로부터 평균 필터를 입력 영상에 적용하여 생성된 추정 조명 성분을 차감하고, 다시 차감한 값에 255을 합산하여 합산한 값을 1/2로 나누어 조명을 정규화하였다. 본 발명에 따른 정규화 영상 생성부는 추정 조명 성분(R'(x,y))과 반전 영상(I'(x,y))을 서로 합하여 0에서 255 사이의 픽셀값은 유지시키고 0이하의 픽셀값은 0으로 설정하고 255 이상의 픽셀값은 255로 설정시킴으로써, 객체 영상을 보다 선명하게 필터링하며 SIFT 특징점 추출 및 매칭의 정확성을 높일 수 있다. When the pixel value of the image has a value of 0 to 255, the conventional lighting normalization method subtracts the estimated lighting component generated by applying an average filter to the input image from the input signal, and adds 255 to the subtracted value. The lighting was normalized by dividing the value by 1/2. The normalized image generator according to the present invention sums the estimated illumination component R'(x,y) and the inverted image I'(x,y) to maintain the pixel values between 0 and 255 and maintains pixel values below 0 By setting to 0 and setting the pixel value over 255 to 255, the object image can be more clearly filtered and the accuracy of SIFT feature point extraction and matching can be improved.

도 3은 본 발명에 따른 고유 특징점 생성부의 일 예를 설명하기 위한 기능 블록도이다.3 is a functional block diagram illustrating an example of a unique feature point generating unit according to the present invention.

그룹 생성부(171)는 복수의 조명 정규화된 객체 영상 중에서 선택된 2개의 서로 상이한 조명 정규화된 객체 영상으로 그룹을 생성한다. 즉, 3개의 객체 영상으로부터 3개의 조명 정규화된 객체 영상(E1, E2, E3)을 생성하는 경우, 3개의 조명 정규화된 객체 영상 중 선택된 2개의 조명 정규화된 객체 영상으로부터 제1그룹(E1, E2), 제2그룹(E1, E3), 제3그룹(E2, E3)을 생성한다.The group generating unit 171 generates a group from two different normalized object images selected from a plurality of normalized object images. That is, when three light normalized object images E1, E2, and E3 are generated from three object images, the first group E1, E2 from the two light normalized object images selected from the three light normalized object images ), the second group (E1, E3), and the third group (E2, E3) are created.

후보 고유 특징점 생성부(173)는 각 그룹을 구성하는 조명 정규화된 객체 영상의 특징점 사이의 거리에 기초하여 각 그룹에서 서로 매칭되는 후보 고유 특징점을 생성하며, 고유 특징점 생성부(175)는 각 그룹에서 서로 매칭되는 후보 고유 특징점 중 모든 그룹에서 공통으로 서로 매칭되는 고유 특징점을 생성한다.The candidate unique feature point generation unit 173 generates candidate unique feature points that match each other in each group based on the distance between the feature points of the lighting normalized object image constituting each group, and the unique feature point generation unit 175 generates each group In each of the candidate unique feature points matching each other, unique feature points common to each group are generated.

도 4는 본 발명의 일 실시예에 따른 객체의 고유 아이디 생성 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a method for generating a unique ID of an object according to an embodiment of the present invention.

도 4를 참고로 보다 구체적으로 살펴보면, 획득한 동일 객체에 대한 복수의 객체 영상에서 조명 성분을 추정하고 추정한 조명 성분에 기초하여 복수의 객체 영상별로 조명 정규화된 영상을 생성한다(S10).Looking more specifically with reference to FIG. 4, lighting components are estimated from a plurality of obtained object images for the same object, and normalized lighting is generated for each of the plurality of object images based on the estimated lighting components (S10 ).

각 조명 정규화된 영상에서 SIFT 알고리즘을 이용하여 객체의 특징점(keypoint)을 추출하고, 생성한 각 조명 정규화된 영상의 특징점에 대한 서술자(description)을 생성한다(S50). A keypoint of an object is extracted from each light normalized image using a SIFT algorithm, and a description of the feature point of each light normalized image is generated (S50).

특징점을 추출하는 단계를 보다 구체적으로 살펴보면, 특징점을 다른 레벨의 분산을 가지는 가우시안 함수와 평화활된 조명 정규화손가락 정맥 영상을 컨볼루션하여 블러(blur)된 스케일 공간 영상을 아래의 수학식(1)과 같이 생성한다.Looking at the step of extracting the feature points in more detail, the blurring scale spatial image is obtained by convolution of a normalized finger vein image with a Gaussian function having a different level of variance and a peaced light normalized finger vein image. Produces like this:

[수학식 1][Equation 1]

L(x, y, σ)=G(x, y, σ)*E(x,y)L(x, y, σ)=G(x, y, σ)*E(x,y)

여기서 G(x, y, σ)는 가운시안 함수, E(x,y)는 평활화된 조명 정규화 객체 영상, L(x, y, σ)는 다른 레벨의 분산(σ)을 갖는 가우시안 함수에 의해 블러된 영상을 의미한다.Where G(x, y, σ) is the gross cyan function, E(x,y) is the smoothed light normalized object image, and L(x, y, σ) is the Gaussian function with different levels of variance (σ). It means a blurred image.

스케일 공간상에서 안정된 특징점을 찾기 위하여 스케일 공간 영상 중 인접 영상의 차로부터 아래의 수학식(2)와 같이 가우시안 차 영상(DOG, Difference of Gaussian)을 생성한다. 도 5는 가운시안 차 영상을 생성하는 일 예를 설명하기 위한 도면이다.In order to find a stable feature point in the scale space, a Gaussian difference image (DOG) is generated from the difference between adjacent images among the scale space images as shown in Equation (2) below. 5 is a view for explaining an example of generating a gown cyan difference image.

[수학식 2][Equation 2]

DOG=(G(x, y, kσ)*E(x,y)-G(x, y, σ)*E(x,y))DOG=(G(x, y, kσ)*E(x,y)-G(x, y, σ)*E(x,y))

=L(x, y, kσ)-L(x, y, σ)=L(x, y, kσ)-L(x, y, σ)

가우시안 차 영상 중 현재 픽셀에 인접한 인접 픽셀, 가운시안 차 영상에 상위 및 하위 인접한 인접 가운시안 차 영상 중 현재 픽셀에 인접한 차위 인접 픽셀에서 최대 또는 최소 픽셀값을 가지는 특징점을 판단한다.A feature point having a maximum or minimum pixel value is determined from a neighboring pixel adjacent to the current pixel among the Gaussian difference images, and a neighboring adjacent pixel adjacent to the current pixel among upper and lower adjacent neighboring Gownian difference images.

도 6을 참고로 보다 구체적으로 살펴보면, 가우시안 차 영상을 이용하여 현재 영상 내에서의 주변 8개의 픽셀과 인접한 영상에서의 9개의 픽셀(pixel)을 비교한다. 'X'위치가 현재 기준픽셀이라고 가정하면, 'X'를 중심으로 이웃한 픽셀과 인접한 가우시안 차 영상에서의 같은 위치의 일정 영역(예를 들어, 3×3)에 포함되는 픽셀을 포함하는 총 26개 픽셀의 픽셀 값을 비교하여 기준픽셀이 최대 혹은 최소의 값이면 기준픽셀을 특징점으로 등록한다. 스케일 공간상의 옥타브별로 가우시안 차 영상을 이용하여 위의 과정을 반복하여 특징점을 찾아낸다.Referring to FIG. 6 in more detail, a gaussian difference image is used to compare 8 pixels in the current image and 9 pixels in the adjacent image. Assuming that the'X' position is the current reference pixel, the total including pixels included in a certain area (for example, 3x3) of the same position in the Gaussian difference image adjacent to the neighboring pixel around the'X' By comparing the pixel values of 26 pixels, if the reference pixel is the maximum or minimum value, the reference pixel is registered as a feature point. The above process is repeated using the Gaussian difference image for each octave in the scale space to find feature points.

여기서 SIFT 특징점(X(x,y))의 크기 값에 대한 함수 m(x,y)와 방향 값에 대한 함수 θ(x,y)는 아래의 수학식(3)과 수학식(4)에 의해 계산된다.Here, the function m(x,y) for the size value of the SIFT feature point (X(x,y)) and the function θ(x,y) for the direction value are shown in Equations (3) and (4) below. Is calculated by

[수학식 3][Equation 3]

Figure 112018039972362-pat00002
Figure 112018039972362-pat00002

[수학식 4][Equation 4]

Figure 112018039972362-pat00003
Figure 112018039972362-pat00003

영상의 회전이 있더라도 SIFT 특징점(X') 주변 화소값은 변하지 않으므로, 주변 화소값을 기초로 크기(m(x,y))와 방향(θ(x,y)이 결정되는 SIFT 특징점은 영상의 회전에 대해서 일정한 방향 성질을 유지할 수 있다. 영상이 회전한 만큼 SIFT 특징점의 방향도 함께 회전하므로 SIFT 특징점의 기준 방향은 영상의 회전에도 변하지 않는 특징점 기술자를 생성하는 경우 중요한 기준이 된다.The SIFT feature points whose size (m(x,y)) and direction (θ(x,y) are determined based on the surrounding pixel values are not changed, because the pixel values around the SIFT feature points (X') do not change even if the image is rotated. The direction of the SIFT feature points is rotated as the image rotates, so the reference direction of the SIFT feature points becomes an important criterion when creating feature descriptors that do not change even with the rotation of the image.

한편, 특징점 기술자를 생성하는 방식에 대해 보다 구체적으로 살펴보면 특징점 기준방향을 기준으로 특징점 기술자(Keypoint descriptor)를 생성한다. On the other hand, looking at the method of generating the feature point descriptor in more detail, a key point descriptor is generated based on the reference direction of the feature point.

SIFT 특징점 주변에 위치한 국부 영역의 그래디언트(gradient) 방향과 크기를 계산한다. 국부 영역의 그래디언트 방향과 크기는 앞서 설명한 수학식(3)과 수학식(4)를 통해 계산할 수 있다.Calculate the gradient direction and size of the local area located around the SIFT feature point. The gradient direction and size of the local area can be calculated through Equation (3) and Equation (4) described above.

영상회전에 불변하는 기술자를 얻기 위해 그래디언트 방향과 기술자의 좌표를 SIFT 특징점 방향을 기준으로 회전이동하고, 회전된 그래디언트에 SIFT 특징점을 중심으로 가우시안 가중치를 부여한다. SIFT 특징점 주변 영역의 작은 변화에도 그래디언트의 방향과 크기가 민감하게 변하는 것을 방지하기 위해 가우시안 가중치를 부여한다. SIFT 특징점을 중심으로 가우시안 가중치를 부여하여 특징점 주변 영역의 그래디언트를 강조하고 에러를 최소화할 수 있다.To obtain an invariant descriptor for image rotation, the gradient direction and the coordinates of the descriptor are rotated based on the SIFT feature point direction, and a Gaussian weight is given to the rotated gradient around the SIFT feature point. Gaussian weighting is applied to prevent the gradient direction and size from being sensitively changed to small changes in the area around the SIFT feature point. By applying a Gaussian weight around the SIFT feature points, it is possible to emphasize the gradient around the feature points and minimize errors.

도 7(a)는 SIFT 특징점 주변에 위치한 국부 영역의 그래드언트 방향과 크기를 도시한 도면이고, 도 7(b)는 가우시안 가중치를 부여한 후의 그래디언트 방향과 크기를 도시한 도면이다.7(a) is a diagram showing a gradient direction and a size of a local area located around a SIFT feature point, and FIG. 7(b) is a diagram showing a gradient direction and a size after applying a Gaussian weight.

가우시안 가중치가 부여된 그래디언트는 각각의 배열이 8방향을 가지고 있는 4×4 배열로 재구성된다. 이러한 방향성 히스토그램은 128(8×4×4)차원의 벡터로 구성된다. 128차원 벡터를 조명에 강인한 기술자로 만들기 위해 정규화 과정을 수행할 수 있다. 이러한 과정을 통해 생성된 128차원 벡터는 SIFT 특징점을 대표하는 특징점 기술자가 된다. The Gaussian weighted gradient is reconstructed into a 4x4 array with each array having 8 directions. This directional histogram consists of 128 (8x4x4)-dimensional vectors. A normalization process can be performed to make the 128-dimensional vector a light-resistant descriptor. The 128-dimensional vector generated through this process becomes a feature point descriptor representing a SIFT feature point.

다시 도 4를 참고로 본 발명에 따른 객체의 고유 아이디 생성 방법에 대해 살펴보면, 각 조명 정규화된 객체 영상의 특징점 서술자에 기초하여 특징점 사이의 거리로부터 각 객체 영상에 대한 조명 정규화된 객체 영상에서 배경 영역의 특징점을 제거한, 서로 매칭되는 객체의 고유 특징점을 추출한다(S70).Referring to FIG. 4 again, referring to the method for generating a unique ID of an object according to the present invention, a background area in a light normalized object image for each object image from a distance between feature points based on a feature point descriptor of each light normalized object image The unique feature points of the objects that match each other are extracted by removing the feature points (S70 ).

각 조명 정규화된 객체 영상의 고유 특징점에 대한 특징점 서술자의 128 벡터 행렬로부터 각 조명 정규화된 객체 영상에 대한 후보 고유 아이디를 생성하고, 각 조명 정규화된 객체 영상에 대한 후보 고유 아이디에서 서로 공통되는 아이디로 객체에 대한 고유 아이디를 생성한다(S90).A candidate unique ID for each light normalized object image is generated from a 128 vector matrix of feature point descriptors for the unique feature points of each light normalized object image, and from the candidate unique IDs for each light normalized object image to common IDs Generate a unique ID for the object (S90).

도 8은 본 발명에 따른 고유 특징점을 추출하는 단계의 일 예를 설명하기 위한 흐름도이다.8 is a flowchart illustrating an example of a step of extracting unique feature points according to the present invention.

도 8을 참고로 보다 구체적으로 살펴보면, 복수의 조명 정규화된 영상 중 선택된 2개의 조명 정규화된 영상의 특징점으로 특징점 그룹을 생성한다(S71). 즉, 3개의 객체 영상으로부터 3개의 조명 정규화된 객체 영상(E1, E2, E3)을 생성하는 경우, 3개의 조명 정규화된 객체 영상 중 선택된 서로 상이한 2개의 조명 정규화된 객체 영상으로부터 제1그룹(E1, E2), 제2그룹(E1, E3), 제3그룹(E2, E3)을 생성한다.Referring to FIG. 8 in more detail, a group of feature points is generated as a feature point of two selected light normalized images among a plurality of light normalized images (S71). That is, when three lighting normalized object images E1, E2, and E3 are generated from three object images, the first group E1 from two different lighting normalized object images selected from the three lighting normalized object images , E2), the second group (E1, E3), and the third group (E2, E3).

각 특징점 그룹을 구성하는 조명 정규화된 객체 영상의 특징점 사이의 거리에 기초하여 각 그룹에서 서로 매칭되는 후보 고유 특징점을 추출한다(S73). 예를 들어 제1그룹을 구성하는 제1 조명 정규화된 객체 영상(E1)의 특징점과 제2 조명 정규화된 객체 영상(E2)의 특징점 사이의 거리에 기초하여 제1 조명 정규화된 객체 영상의 특징점과 제2 조명 정규화된 객체 영상 사이에서 서로 공통된 후보 고유 특징점을 추출한다.Based on the distance between the feature points of the illumination normalized object image constituting each feature point group, candidate unique feature points matching each other are extracted (S73). For example, based on the distance between the feature points of the first illumination normalized object image E1 and the second illumination normalized object image E2 constituting the first group, and the feature points of the first illumination normalized object image Candidate unique feature points common to each other are extracted between the second illumination normalized object images.

바람직하게 각 그룹에서 서로 매칭되는 후보 고유 특징점은 아래의 수학식(5)와 같이 계산된다.Preferably, the candidate unique feature points that match each other in each group are calculated as in Equation (5) below.

[수학식 5][Equation 5]

Figure 112018039972362-pat00004
Figure 112018039972362-pat00004

여기서 v1n은 제1 조명 정규화된 객체 영상의 특징점이며, v2i, v2j는 제2 조명 정규화된 객체 영상의 특징점들 중 v1n에 가장 가까운 위치의 2개의 특징점이며, dR은 추출 가중치이며,Here, v 1n is a feature point of the first illumination normalized object image, v 2i , v 2j are two feature points of the second illumination normalized object image closest to v 1n , and d R is an extraction weight ,

수학식(5)를 만족하는 경우 v1n, v2i는 후보 고유 특징점으로 추출된다.When Equation (5) is satisfied, v 1n , v 2i is extracted as a candidate unique feature point.

생성한 모든 특징점 그룹에 대해 앞서 설명한 방식과 동일한 방식으로 각 특징점 그룹의 후보 고유 특징점을 추출한다.The candidate unique feature points of each feature point group are extracted in the same manner as described above for all the generated feature point groups.

각 특징점 그룹에서 서로 매칭되는 후보 고유 특징점 중 모든 특징점 그룹에서 공통으로 서로 매칭되는 고유 특징점을 추출한다(S75). 즉 도 9에 도시되어 있는 바와 같이, 3개의 객체 영상으로부터 3개의 조명 정규화된 영상을 획득하는 경우, 제1 조명 정규화된 영상(E1)의 특징점들, 제3 조명 정규화된 영상(E2)의 특징점들 및 제3 조명 정규화된 영상(E3)의 특징점들 사이에서 모두 공통된 고유 특징점을 추출한다.Among the candidate unique feature points that match each other in each feature point group, unique feature points that are commonly matched with each other are extracted (S75). That is, as illustrated in FIG. 9, when three light normalized images are obtained from three object images, feature points of the first light normalized image E1 and feature points of the third light normalized image E2 A unique feature point common to all of the feature points of the field and the third illumination normalized image E3 is extracted.

도 10은 본 발명에 따른 고유 아이디의 생성 단계의 일 예를 설명하기 위한 흐름도이다.10 is a flowchart for explaining an example of the step of generating a unique ID according to the present invention.

도 10을 참고로 보다 구체적으로 살펴보면, 각 조명 정규화된 객체 영상의 고유 특징점에 대한 특징점 서술자의 벡터 행렬로부터 생성되는 부분 벡터 행렬의 8차원 주성분에서 가장 큰 수와 가장 작은 수의 위치를 판단한다(S91). 도 11에 도시되어 있는 바와 같이, 제1 조명 정규화된 객체 영상에서 N개의 고유 특징점(V1 -1, V1-2,...., V1 -N)이 추출되는 경우, 각 고유 특징점은 앞서 설명한 방식으로 128 차원의 특징점 서술자 벡터 행렬이 생성되는데, 128 차원의 특징점 서술자 벡터 행렬을 8개로 나누어 부분 벡터 행렬(Pi)을 생성하며, 부분 벡터 행렬별로 주성분의 크기의 평균값을 계산하는 경우, 각 평균값에서 가장 큰 수와 가장 작은 수의 위치를 판단한다. Looking more specifically with reference to FIG. 10, the positions of the largest number and the smallest number in the 8-dimensional principal component of the partial vector matrix generated from the vector matrix of the feature point descriptor for the unique feature points of each normalized object image are determined ( S91). As illustrated in FIG. 11, when N unique feature points (V 1 -1 , V 1-2 ,...., V 1 -N ) are extracted from the first illumination normalized object image, each unique feature point In the above-described manner, a 128-dimensional feature point descriptor vector matrix is generated. The 128-dimensional feature point descriptor vector matrix is divided into 8 to generate a partial vector matrix (P i ), and the average value of the magnitudes of principal components is calculated for each partial vector matrix. In the case, the position of the largest number and the smallest number in each average value is determined.

128 차원의 특징점 서술자 벡터 행렬을 8개로 나누어 부분 벡터 행렬(Pi)을 생성하며, 부분 벡터 행렬별로부터 8차원 주성분 벡터를 계산하여, 각 주성분벡터에서 가장 큰 수와 가장 작은 수의 위치를 판단한다. 여기서 주성분이란 부분 벡터 행렬(Pi)의 평균벡터 또는 주성분 분석(PCA, Principle Component Analysis)을 통하여 얻어진 고유치 중 가장 큰 수에 해당되는 고유벡터의 절대값으로 이루어진 벡터를 뜻한다. 주성분분석은 행렬 Pi에 대하여, 그 행렬 대칭행렬(

Figure 112018039972362-pat00005
)과의 행렬곱(
Figure 112018039972362-pat00006
)으로 얻어진 행렬의 고유값과 고유벡터를 계산하여 그 고유벡터들로부터 부분 벡터 행렬(Pi)의 열벡터들의 주성분을 계산하는 방법이다. Divide the 128-dimensional feature point descriptor vector matrix into 8 to generate a partial vector matrix (P i ), and calculate the 8-dimensional principal component vector from each partial vector matrix to determine the location of the largest and smallest numbers in each principal component vector. do. Here, the principal component means a vector consisting of the average vector of the partial vector matrix P i or the absolute value of the eigenvector corresponding to the largest number of eigenvalues obtained through Principle Component Analysis (PCA). Principal component analysis is based on the matrix P i ,
Figure 112018039972362-pat00005
Matrix product of)
Figure 112018039972362-pat00006
) Is a method of calculating the eigenvalues and eigenvectors of a matrix obtained by) and calculating the principal components of column vectors of the partial vector matrix (P i ) from the eigenvectors.

도 11에서 부분 벡터 행렬(P1)의 가장 큰 크기의 주성분 크기의 평균값은 4.0이고 가장 작은 주성분 크기의 평균값은 2.6인데, 평균값 4.0은 8번째 위치하고 있으며 평균값 2.6은 3번째 위치한다. 복수의 조명 정규화 영상에서 서로 공통된 고유 특징점의 특징점 서술자 벡터 행렬로부터 생성된 부분 벡터 행렬별 주성분 크기의 평균값은 서로 상이할 수 있는데, 가장 큰 크기의 주성분이 위치하는 순서 및 가장 작은 크기의 주성분이 위치하는 순서는 거의 동일함을 알 수 있다. In FIG. 11, the average value of the principal component size of the largest size of the partial vector matrix P 1 is 4.0, and the average value of the smallest principal component size is 2.6. The average value 4.0 is located in the eighth, and the average value 2.6 is located in the third position. The average values of the principal component sizes for each partial vector matrix generated from the feature point descriptor vector matrix of common feature points common to each other in the plurality of illumination normalized images may be different from each other, in which order the largest component is located and where the smallest component is located. It can be seen that the order of doing is almost the same.

다시 도 10을 참고로 살펴보면, 각 부분 벡터 행렬의 가장 큰 수와 가장 작은 수의 위치를 나타내는 제1값과 제2값으로 이루어진, 각 조명 정규화된 객체 영상에 대한 후보 아이디를 생성한다(S93). 앞서 도 11을 참고로 설명한 바와 같이 제1 부분 벡터 행렬(P1)에서는 제1값과 제2값이 각각 8과 3이며 나머지 부분 벡터 행렬에 대해서도 제1값과 제2값을 판단하여 모든 부분 벡터 행렬에 대한 제1값과 제2값으로 이루어진 후보 아이디를 생성한다. 도 12는 각 조명 정규화된 객체 영상에 대한 제1값과 제2값의 일 예를 도시하고 있는데, 제1 조명 정규화된 영상의 모든 부분 벡터 행렬의 제1값과 제2값으로 이루어진 후보 아이디1(ID1), 제2 조명 정규화된 영상의 모든 부분 벡터 행렬의 제1값과 제2값으로 이루어진 후보 아이디(ID2), 제3 조명 정규화된 영상의 모든 부분 벡터 행렬의 제1값과 제2값으로 이루어진 후보 아이디(ID3)은 아래와 같다.Referring back to FIG. 10, candidate IDs for each illumination normalized object image, which are composed of first and second values indicating positions of the largest number and the smallest number of each partial vector matrix, are generated (S93 ). . As described above with reference to FIG. 11, in the first partial vector matrix P 1 , the first value and the second value are 8 and 3, respectively, and the first and second values of the remaining partial vector matrix are determined to determine all parts. A candidate ID consisting of a first value and a second value for a vector matrix is generated. FIG. 12 shows an example of first and second values for each normalized object image, candidate ID1 consisting of first and second values of all partial vector matrices of the first normalized image. (ID 1 ), a candidate ID (ID 2 ) consisting of the first and second values of all partial vector matrices of the second illumination normalized image, the first and second values of all partial vector matrices of the third illumination normalized image The candidate ID (ID 3 ) consisting of two values is as follows.

ID1=(83, 71, 57, 34, 36, 62, 35, 41, 34, 12, 47, 65, 47, 21, 65, 27) ID 1 = (83, 71, 57, 34, 36, 62, 35, 41, 34, 12, 47, 65, 47, 21, 65, 27)

ID2=(83, 71, 57, 35, 36, 52, 35, 41, 34, 12, 47, 65, 47, 23, 65, 27) ID 2 = (83, 71, 57, 35, 36, 52, 35, 41, 34, 12, 47, 65, 47, 23, 65, 27)

ID3=(83, 71, 57, 35, 36, 52, 35, 41, 34, 12, 47, 65, 47, 24, 65, 27) ID 3 = (83, 71, 57, 35, 36, 52, 35, 41, 34, 12, 47, 65, 47, 24, 65, 27)

각 조명 정규화된 객체 영상에 대한 후보 아이디에서 서로 공통된 수로 이루어진 객체의 고유 아이디를 생성한다(95). 즉, 제1 조명 정규화된 영상의 후보 아이디1(ID1), 제2 조명 정규화된 영상의 후보 아이디(ID2), 제3 조명 정규화된 영상의 후보 아이디(ID3)에서 서로 일치하는 경우에는 일치한 수를 그대로 유지하고 서로 일치하지 않는 경우에는 0으로 설정하여 제1 조명 정규화된 영상의 후보 아이디1(ID1), 제2 조명 정규화된 영상의 후보 아이디(ID2), 제3 조명 정규화된 영상의 후보 아이디(ID3)로부터 객체의 고유 아이디를 생성한다.A unique ID of an object having a common number is generated from candidate IDs for each normalized object image (95). That is, when the candidate ID1 (ID 1 ) of the first normalized light image, the candidate ID (ID 2 ) of the second normalized light image, and the candidate ID (ID 3 ) of the third normalized light image match each other If the number of matches remains the same, and if they do not match, set to 0 to set the candidate ID 1 (ID 1 ) of the first normalized image, the candidate ID (ID 2 ) of the second normalized image, and normalize the third illumination A unique ID of the object is generated from the candidate ID (ID 3 ) of the image.

일 실시예로 복수의 조명 정규화된 객체 영상으로부터 각각 생성된 후보 아이디 중에서 하나라도 서로 일치하지 않는 수가 있는 경우에는 0으로 설정할 수 있다. 다른 실시예로 복수의 조명 정규화된 객체 영상으로부터 각각 생성된 후보 아이디가 모두 서로 상이한 경우 0으로 설정하고 일치하는 수가 존재하는 경우 일치하는 수로 고유 아이디를 설정할 수 있다.According to an embodiment, if any of the candidate IDs generated from the plurality of normalized object images does not match each other, it may be set to 0. According to another embodiment, when all candidate IDs generated from the plurality of normalized object images are different from each other, a unique ID may be set to a matching number if a matching number exists.

도 12에서 제1 조명 정규화된 영상의 후보 아이디1(ID1), 제2 조명 정규화된 영상의 후보 아이디(ID2), 제3 조명 정규화된 영상의 후보 아이디(ID3)로부터 생성된 일 실시예에 따른 고유 아이디(I)는 아래와 같다.In FIG. 12, one embodiment generated from the candidate ID1 (ID 1 ) of the first normalized image, the candidate ID (ID 2 ) of the second normalized image, and the candidate ID (ID 3 ) of the third normalized image The unique ID (I) according to the example is as follows.

ID=(83, 71, 57, 30, 36, 02, 35, 41, 34, 12, 47, 65, 47, 20, 65, 27) ID=(83, 71, 57, 30, 36, 02, 35, 41, 34, 12, 47, 65, 47, 20, 65, 27)

한편, 도 12에서 제1 조명 정규화된 영상의 후보 아이디1(ID1), 제2 조명 정규화된 영상의 후보 아이디(ID2), 제3 조명 정규화된 영상의 후보 아이디(ID3)로부터 생성된 다른 실시예에 따른 고유 아이디(I)는 아래와 같다.Meanwhile, in FIG. 12, generated from candidate ID1 (ID 1 ) of the first normalized light image, candidate ID (ID 2 ) of the second normalized light image, and candidate ID (ID 3 ) of the third normalized light image The unique ID (I) according to another embodiment is as follows.

ID=(83, 71, 57, 35, 36, 52, 35, 41, 34, 12, 47, 65, 47, 20, 65, 27) ID=(83, 71, 57, 35, 36, 52, 35, 41, 34, 12, 47, 65, 47, 20, 65, 27)

한편, 상술한 본 발명의 실시 예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.Meanwhile, the above-described embodiments of the present invention can be written as a program executable on a computer, and can be implemented on a general-purpose digital computer that operates the program using a computer-readable recording medium.

상기 컴퓨터로 읽을 수 있는 기록 매체는 마그네틱 저장 매체(예를 들어, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장 매체를 포함한다.The computer-readable recording medium includes magnetic storage media (eg, ROM, floppy disks, hard disks, etc.), optical reading media (eg, CD-ROMs, DVDs, etc.) and carrier waves (eg, the Internet). Storage media).

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다. The present invention has been described with reference to the embodiments shown in the drawings, but these are merely exemplary, and those skilled in the art will understand that various modifications and other equivalent embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

110: 영상 촬영부 130: 정규화 영상 생성부
150: 특징점 생성부 170: 고유 특징점 생성부
190: 고유 아이디 생성부 131: 제1 반전부
133: 조명 성분 추출부 135: 제2 반전부
137: 조명 정규화부 138: 평활화부
139: 제3 반전부 171: 그룹 생성부
173: 후보 고유 특징점 생성부 175: 고유 특징점 생성부
110: image capture unit 130: normalized image generation unit
150: feature point generator 170: unique feature point generator
190: unique ID generation unit 131: first inversion unit
133: illumination component extraction unit 135: second inversion unit
137: lighting normalization unit 138: smoothing unit
139: third inversion unit 171: group creation unit
173: candidate unique feature point generator 175: unique feature point generator

Claims (8)

동일 객체를 촬영한 서로 상이한 복수의 객체 영상에서 조명 성분을 추정하고 추정한 조명 성분에 기초하여 복수의 객체 영상별로 조명 정규화된 영상을 생성하는 단계;
SIFT(Scale Invariant Feature Transform) 알고리즘을 이용하여 상기 조명 정규화된 객체 영상별로 객체 특징을 나타내는 특징점(keypoint)을 추출하고, 상기 추출한 특징점의 서술자를 생성하는 단계;
복수의 조명 정규화된 객체 영상 중 2개의 조명 정규화된 객체 영상을 선택하여 그룹을 생성하며, 각 그룹을 구성하는 2개의 조명 정규화된 객체 영상의 특징점 서술자에 기초하여 특징점 사이의 거리로부터 서로 매칭되는, 각 그룹별 후보 고유 특징점을 판단하는 단계;
각 그룹별 후보 고유 특징점 중 상기 복수의 조명 정규화된 객체 영상으로부터 생성되는 모든 그룹에 공통된 고유 특징점을 판단하는 단계; 및
각 조명 정규화된 객체 영상의 고유 특징점에 대한 서술자의 벡터 행렬로부터 각 조명 정규화된 객체 영상의 후보 아이디를 생성하며, 각 조명 정규화된 객체 영상의 후보 아이디 중 서로 공통된 수로 이루어진 고유 아이디를 생성하는 단계를 포함하는 것을 특징으로 하는 객체의 고유 아이디 생성 방법.
Estimating a lighting component from a plurality of different object images photographing the same object and generating an illumination normalized image for each of the plurality of object images based on the estimated lighting component;
Extracting a keypoint representing an object feature for each illumination normalized object image using a Scale Invariant Feature Transform (SIFT) algorithm, and generating a descriptor of the extracted feature point;
A group is generated by selecting two light normalized object images from among the plurality of light normalized object images, and matching each other from the distance between the feature points based on the feature point descriptors of the two light normalized object images constituting each group, Determining a unique feature point for each group;
Determining unique feature points common to all groups generated from the plurality of lighting normalized object images among candidate unique feature points for each group; And
Generating candidate IDs of each normalized object image from a vector matrix of descriptors for unique feature points of each normalized object image, and generating unique IDs consisting of a common number of candidate IDs of each normalized object image. Unique ID generation method of the object, characterized in that it comprises.
제 1 항에 있어서, 상기 조명 정규화된 객체 영상은
상기 객체 영상을 반전시켜 반전 객체 영상을 생성하는 단계;
저주파 조명 성분을 추출하기 하기 위해 평균 필터를 상기 반전 객체 영상에 적용하여 반전 추정 조명 성분을 계산하는 단계;
상기 반전 추정 조명 성분을 재반전시켜 추정 조명 성분을 계산하는 단계;
상기 추정 조명 성분과 상기 객체 영상을 서로 합하여 조명 정규화된 반전 객체 영상을 생성하는 단계;
상기 조명 정규화된 반전 객체 영상을 히스토그램 평활화(Histogram Equalization)하여 상기 조명 정규화된 반전 객체 영상의 픽셀값을 확산 분포시킨 반전 평활화 영상을 생성하는 단계; 및
상기 반전 평활화 영상을 재반전시켜 조명 정규화된 객체 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 객체의 고유 아이디 생성 방법.
The method of claim 1, wherein the normalized lighting object image
Generating an inverted object image by inverting the object image;
Calculating an inverted estimated illumination component by applying an average filter to the inverted object image to extract a low-frequency illumination component;
Re-inverting the inverted estimated illumination component to calculate an estimated illumination component;
Generating an illumination normalized inverted object image by summing the estimated illumination component and the object image;
Generating an inverted smoothed image in which the pixel values of the normalized inverted object image are diffusely distributed by performing histogram equalization of the normalized inverted object image; And
And re-inverting the inverted smoothing image to generate an illumination normalized object image.
삭제delete 제 1 항에 있어서, 상기 후보 고유 특징점을 추출하는 단계에서 아래의 수학식(1)에 의해 후보 고유 특징점을 추출하는데,
[수학식 1]
Figure 112020016699287-pat00007

여기서 v1n은 제1 조명 정규화된 객체 영상의 특징점이며, v2i, v2j는 제2 조명 정규화된 객체 영상의 특징점들 중 v1n에 가장 가까운 위치의 2개의 특징점이며, dR은 추출 가중치이며,
수학식(1)을 만족하는 경우 v1n, v2i는 후보 고유 특징점으로 추출되는 것을 특징으로 하는 객체의 고유 아이디 생성 방법.
The method of claim 1, wherein in the step of extracting the candidate unique feature points, the candidate unique feature points are extracted by the following equation (1):
[Equation 1]
Figure 112020016699287-pat00007

Here, v 1n is a feature point of the first illumination normalized object image, v 2i , v 2j are two feature points of the second illumination normalized object image closest to v 1n , and d R is an extraction weight ,
When Equation (1) is satisfied, v 1n , v 2i is a method of generating a unique ID of an object, characterized in that extracted as a candidate unique feature point.
제 1 항에 있어서, 상기 고유 아이디를 생성하는 단계는
각 조명 정규화된 객체 영상의 고유 특징점에 대한 서술자의 벡터 행렬로부터 생성되는 각 부분 벡터 행렬의 8차원 주성분에서 가장 큰 수와 가장 작은 수의 위치를 판단하는 단계;
각 부분 벡터 행렬의 가장 큰 수와 가장 작은 수의 위치를 나타내는 제1 값과 제2 값으로 이루어진, 상기 각 조명 정규화된 객체 영상에 대한 후보 아이디를 생성하는 단계; 및
상기 각 조명 정규화된 객체 영상에 대한 후보 아이디에서 서로 공통된 수로 이루어진 객체의 고유 아이디를 생성하는 단계를 포함하는 것을 특징으로 하는 객체의 고유 아이디 생성 방법.
The method of claim 1, wherein the step of generating the unique ID
Determining a position of a largest number and a smallest number in an 8-dimensional principal component of each partial vector matrix generated from a descriptor vector matrix for a unique feature point of each normalized object image;
Generating candidate IDs for each illumination normalized object image, consisting of first and second values indicating positions of the largest number and the smallest number of each partial vector matrix; And
And generating unique IDs of objects having a common number from each other in the candidate IDs for the normalized object images.
제 1 항, 제 2 항, 제 4 항 및 제 5 항 중 어느 한 항에 있어서, 상기 특징점을 추출하는 단계는
다른 레벨의 분산을 가지는 가우시안 함수에 의해 블러(blur)된 스케일 공간 영상을 생성하는 단계;
상기 스케일 공간 영상 중 인접 영상의 차로부터 가우시안 차 영상을 생성하는 단계;
상기 가우시안 차 영상 중 현재 픽셀에 인접한 인접 픽셀, 상기 가우시안 차 영상에 상위 및 하위 인접한 인접 가우시안 차 영상 중 상기 현재 픽셀에 인접한 차위 인접 픽셀에서 최대 또는 최소 픽셀값을 가지는 후보 특징점을 판단하는 단계; 및
상기 후보 특징점에서 불안정한 후보 특징점을 제거하여 특징점을 추출하는 단계를 포함하는 것을 특징으로 하는 객체의 고유 아이디 생성 방법.
The method of claim 1, 2, 4 and 5, wherein the step of extracting the feature point is
Generating a blurred scale spatial image by a Gaussian function having different levels of variance;
Generating a Gaussian difference image from a difference of adjacent images among the scale spatial images;
Determining a candidate feature point having a maximum or minimum pixel value from adjacent pixels adjacent to the current pixel among the Gaussian difference images, and adjacent adjacent pixels above and below the Gaussian difference image adjacent to the current pixels; And
And extracting a feature point by removing an unstable candidate feature point from the candidate feature point.
제 1 항, 제 2 항, 제 4 항 및 제 5 항 중 어느 한 항에 있어서,
상기 특징점을 중심으로 상기 특징점의 인접 픽셀을 이용하여 상기 특징점과 상기 특징점 인접 픽셀 사이의 방위각과 크기를 계산하는 단계;
상기 계산한 방위각의 히스토그램으로부터 상기 특징점의 기준 방위를 판단하는 단계; 및
상기 기준 방위에 기초하여 상기 특징점 주변에 위치한 국부 영역의 그레디언트 방향과 크기로 표현되는 특징점 서술자를 생성하는 단계를 포함하는 것을 특징으로 하는 객체의 고유 아이디 생성 방법.
The method according to any one of claims 1, 2, 4 and 5,
Calculating an azimuth and a size between the feature point and the adjacent pixels of the feature point by using adjacent pixels of the feature point around the feature point;
Determining a reference orientation of the feature point from the calculated azimuth histogram; And
And generating a feature point descriptor expressed in a gradient direction and a size of the local area located around the feature point based on the reference orientation.
제 1 항, 제 2 항, 제 4 항 및 제 5 항 중 어느 한 항에 있어서,
동일 객체를 촬영한 서로 상이한 3개의 객체 영상에서 잡음을 제거하여 3개의 객체 영상 각각에 대한 조명 정규화된 객체 영상을 획득하는 것을 특징으로 하는 객체의 고유 아이디 생성 방법.
The method according to any one of claims 1, 2, 4 and 5,
A method for generating a unique ID of an object, wherein noise is normalized for each of the three object images to obtain a normalized object image by removing noise from three different object images taken of the same object.
KR1020180046529A 2018-04-23 2018-04-23 Method for producing unique ID of object KR102124244B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180046529A KR102124244B1 (en) 2018-04-23 2018-04-23 Method for producing unique ID of object
PCT/KR2018/005332 WO2019208864A1 (en) 2018-04-23 2018-05-10 Method for generating unique id of object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180046529A KR102124244B1 (en) 2018-04-23 2018-04-23 Method for producing unique ID of object

Publications (2)

Publication Number Publication Date
KR20190122966A KR20190122966A (en) 2019-10-31
KR102124244B1 true KR102124244B1 (en) 2020-06-23

Family

ID=68295607

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180046529A KR102124244B1 (en) 2018-04-23 2018-04-23 Method for producing unique ID of object

Country Status (2)

Country Link
KR (1) KR102124244B1 (en)
WO (1) WO2019208864A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101442042B1 (en) 2013-06-21 2014-09-23 한국과학기술원 Method and apparatus for recognizing 3d object using descriptor based on complementary feature point

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080078217A (en) * 2007-02-22 2008-08-27 정태우 Method for indexing object in video, method for annexed service using index of object and apparatus for processing video
KR101182683B1 (en) * 2011-02-16 2012-09-17 인하대학교 산학협력단 A Visual Shape Descriptor Generating Method Using Sectors and Shape Context of Contour Lines and the Recording Medium thereof
KR101694309B1 (en) * 2013-10-02 2017-01-09 한국전자통신연구원 Apparatus and method for recognizing object based sub region
KR102221118B1 (en) * 2016-02-16 2021-02-26 삼성전자주식회사 Method for extracting feature of image to recognize object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101442042B1 (en) 2013-06-21 2014-09-23 한국과학기술원 Method and apparatus for recognizing 3d object using descriptor based on complementary feature point

Also Published As

Publication number Publication date
KR20190122966A (en) 2019-10-31
WO2019208864A1 (en) 2019-10-31

Similar Documents

Publication Publication Date Title
Agarwal et al. Swapped! digital face presentation attack detection via weighted local magnitude pattern
De Souza et al. Deep texture features for robust face spoofing detection
Hsia New verification strategy for finger-vein recognition system
CN108846390B (en) Feature extraction and matching and template update for biometric authentication
CN108416291B (en) Face detection and recognition method, device and system
CN113614731A (en) Authentication verification using soft biometrics
Pinto et al. Counteracting presentation attacks in face, fingerprint, and iris recognition
Ghoualmi et al. A SIFT-based feature level fusion of iris and ear biometrics
Nguyen et al. Face presentation attack detection based on a statistical model of image noise
Gomez-Barrero et al. Towards multi-modal finger presentation attack detection
Kumar et al. Non-overlapped blockwise interpolated local binary pattern as periocular feature
Choras Multimodal biometrics for person authentication
Tiwari et al. A palmprint based recognition system for smartphone
KR101450247B1 (en) Method for authenticating based on finger vein using SIFT keypoint
Barra et al. Unconstrained ear processing: What is possible and what must be done
Kumar et al. Rank level integration of face based biometrics
KR102124244B1 (en) Method for producing unique ID of object
Pflug et al. Segmentation and normalization of human ears using cascaded pose regression
Solomon Face anti-spoofing and deep learning based unsupervised image recognition systems
KR102072298B1 (en) Method for estimating identity of object
Brkić et al. Towards neural art-based face de-identification in video data
Fu Face recognition in uncontrolled environments
Srinivasa Perumal et al. Learning deep feature representation for face spoofing
Praveen et al. Improved complete dynamic local ternary pattern texture descriptor for face spoof attacks
Taylor et al. Art forgery detection via craquelure pattern matching

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant