KR20190122966A - Method for producing unique ID of object - Google Patents

Method for producing unique ID of object Download PDF

Info

Publication number
KR20190122966A
KR20190122966A KR1020180046529A KR20180046529A KR20190122966A KR 20190122966 A KR20190122966 A KR 20190122966A KR 1020180046529 A KR1020180046529 A KR 1020180046529A KR 20180046529 A KR20180046529 A KR 20180046529A KR 20190122966 A KR20190122966 A KR 20190122966A
Authority
KR
South Korea
Prior art keywords
image
unique
feature point
illumination
generating
Prior art date
Application number
KR1020180046529A
Other languages
Korean (ko)
Other versions
KR102124244B1 (en
Inventor
김봉균
Original Assignee
김봉균
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김봉균 filed Critical 김봉균
Priority to KR1020180046529A priority Critical patent/KR102124244B1/en
Priority to PCT/KR2018/005332 priority patent/WO2019208864A1/en
Publication of KR20190122966A publication Critical patent/KR20190122966A/en
Application granted granted Critical
Publication of KR102124244B1 publication Critical patent/KR102124244B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06K9/4661
    • G06K9/44
    • G06K9/481
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a method for generating a unique ID of an object. More specifically, the method for generating a unique ID of an object can generate a unique ID capable of identifying all objects such as not only people but also animals, things, or the like by generating a unique ID considering characteristics of the object extracted from a plurality of object images, does not compare an input object image with a registration object image by generating a unique ID consisting of numbers generated from the object image. Accordingly, in the method for generating a unique ID of an object, the object image of all objects is not necessarily registered and stored separately, and all objects can be identified by comparing the unique ID generated from the input object image with the registered unique ID.

Description

객체의 고유 아이디 생성 방법{Method for producing unique ID of object}Method for producing unique ID of object}

본 발명은 객체의 고유 아이디 생성 방법에 관한 것으로, 보다 구체적으로 복수의 객체 영상으로부터 추출한 객체의 특성을 고려한 고유 아이디를 생성함으로써 사람뿐만 아니라 동물, 사물 등 모든 객체를 식별할 수 있는 고유 아이디의 생성할 수 있으며, 객체 영상으로부터 생성된 숫자로 이루어진 고유 아이디를 생성함으로써 입력 객체 영상과 등록 객체 영상을 비교하지 않으며, 따라서 모든 객체의 객체 영상을 별도로 등록 저장할 필요가 없으며 입력 객체 영상으로부터 생성되는 고유 아이디와 등록된 고유 아이디를 비교하여 모든 객체를 식별할 수 있는 객체의 고유 아이디 생성 방법에 관한 것이다. The present invention relates to a method of generating a unique ID of an object. More specifically, by generating a unique ID in consideration of characteristics of an object extracted from a plurality of object images, a unique ID capable of identifying not only a person but also an animal, an object, and the like can be identified. It does not compare the input object image and the registered object image by generating a unique ID consisting of numbers generated from the object image, so there is no need to register and store the object image of all objects separately, and generates a unique ID generated from the input object image. The present invention relates to a method of generating a unique ID of an object capable of identifying all objects by comparing with a registered unique ID.

인증 또는 보안 분야에서는 사용자 또는 객체를 식별하기 위한 아이디가 사용되고 있다. 예를 들어 아이디는 건물의 출입, 보안이 요구되는 은행 업무, 스마트 기기의 사용 인증, 객체의 식별 등 다양한 실생활 및 산업 전반에 이용된다.In authentication or security, IDs are used to identify users or objects. For example, IDs are used in a variety of real-world and industrial applications, such as building access, banking requiring security, authentication of the use of smart devices, and identification of objects.

이러한 아이디는 사용자나 관리자가 임의적으로 설정한 다수의 문자와 기호로 이루어지거나 사용자의 생체 정보 자체를 고유 아이디로 사용하는 것이 통상적이다.Such an ID is usually composed of a plurality of characters and symbols arbitrarily set by a user or an administrator, or it is common to use the user's biometric information itself as a unique ID.

문자와 기호로 이루어진 아이디의 경우, 사용자가 아이디를 기억하고 있어 사용하여야 하는 문제점을 가지며 아이디가 제3자에 쉽게 노출되어 악용되는 문제점을 가진다.In the case of an ID consisting of letters and symbols, the user has a problem that the user must remember and use the ID, and the ID is easily exposed to a third party and exploited.

한편, 생체 정보 자체를 고유 아이디로 사용하는 경우, 생체 정보를 획득하고 획득한 생체 정보와 기저장되어 있는 생체 정보 자체를 서로 비교하여 생체 정보가 일치하는지 여부로 사용자를 인증함으로써, 모든 사용자의 생체 정보를 저장 등록하여야 하며 사용자의 생체 정보는 지극히 개인 정보로서 제3자에 노출되는 경우 막대한 피해를 줄 수 있는 문제점을 가진다.On the other hand, when the biometric information itself is used as a unique ID, the biometric information of all users is obtained by acquiring the biometric information and comparing the obtained biometric information with previously stored biometric information itself to authenticate the user whether the biometric information matches. The information must be stored and registered, and the user's biometric information is extremely personal and has a problem that can cause enormous damage when exposed to a third party.

그리고 종래 아이디는 사용자를 식별하기 위한 것으로 이는 사용자가 인증 또는 등록을 위해 사용자가 기호와 문자로 아이디를 생성하는 것으로, 사용자의 특성을 반영하지 못한다. 더욱이 종래 아이디는 동물이나 사물의 특성을 반영하여 동물이나 사물을 포함하는 모든 객체를 식별하기 위한 아이디로 생성되지 못한다는 문제점을 가진다. In addition, the conventional ID is for identifying the user, which is the user generating the ID with symbols and characters for authentication or registration, and does not reflect the characteristics of the user. Furthermore, the conventional ID has a problem that it cannot be generated as an ID for identifying all objects including the animal or the thing by reflecting the characteristics of the animal or the thing.

본 발명은 위에서 언급한 종래 아이디 생성 방법이 가지는 문제점을 해결하기 위한 것으로, 본 발명이 이루고자 하는 목적은 객체의 특성을 반영하여 객체의 고유 아이디를 생성하는 방법을 제공하는 것이다.The present invention is to solve the problems of the above-described conventional ID generation method, an object of the present invention is to provide a method for generating a unique ID of the object reflecting the characteristics of the object.

본 발명이 이루고자 하는 다른 목적은 객체 영상으로부터 추출한 객체의 특성을 고려한 고유 아이디를 생성하여 사람뿐만 아니라 동물, 사물 등 모든 객체를 식별할 수 있는 고유 아이디의 생성 방법을 제공하는 것이다.Another object of the present invention is to provide a method of generating a unique ID that can identify all objects such as animals, objects as well as humans by generating a unique ID in consideration of characteristics of an object extracted from an object image.

본 발명이 이루고자 하는 또 다른 목적은 복수의 객체 영상들로부터 객체를 나타내는 특징점을 추출하여 배경 영역을 제거하고 추출한 특징점 중 복수의 객체 영상에서 공통된 고유 특징점들로부터 불변하는 고유한 객체의 아이디를 생성하는 방법을 제공하는 것이다.Another object of the present invention is to extract a feature point representing an object from a plurality of object images to remove a background area and to generate an ID of a unique object that is invariant from unique feature points common to a plurality of object images among the extracted feature points. To provide a way.

본 발명이 이루고자 하는 또 다른 목적은 SIFT(Scale Invariant Feature Transform) 알고리즘을 이용하여 생성한 객체 영상의 특징점에 대한 서술자 벡터로부터 적은 연산량으로 정확하게 객체의 고유 아이디를 생성하는 방법을 제공하는 것이다. Another object of the present invention is to provide a method for accurately generating a unique ID of an object with a small amount of calculation from a descriptor vector for a feature point of an object image generated by using a Scale Invariant Feature Transform (SIFT) algorithm.

본 발명의 목적을 달성하기 위하여, 본 발명에 따른 고유 아이디의 생성 방법은 동일 객체를 촬영한 서로 상이한 복수의 객체 영상에서 조명 성분을 추정하고 추정한 조명 성분에 기초하여 복수의 객체 영상별로 조명 정규화된 영상을 생성하는 단계와, SIFT(Scale Invariant Feature Transform) 알고리즘을 이용하여 조명 정규화된 객체 영상별로 특징점(keypoint)을 추출하고 추출한 특징점의 서술자를 생성하는 단계와, 각 조명 정규화된 객체 영상의 특징점 서술자에 기초하여 특징점 사이의 거리로부터 각 객체 영상에 대한 조명 정규화된 객체 영상에서 배경 영역의 특징점을 제거한, 서로 매칭되는 객체의 고유 특징점을 추출하는 단계와, 각 조명 정규화된 객체 영상의 고유 특징점에 대한 서술자의 벡터 행렬로부터 생성되는 각 조명 정규화된 객체 영상의 후보 아이디로부터 객체의 고유 아이디를 생성하는 단계를 포함하는 것을 특징으로 한다.In order to achieve the object of the present invention, the method for generating a unique ID according to the present invention estimates the lighting components in a plurality of different image of the object photographing the same object and normalizes the lighting for each of the plurality of object images based on the estimated lighting component Generating a decoded image, extracting a keypoint for each illumination normalized object image using a Scale Invariant Feature Transform (SIFT) algorithm, and generating a descriptor of the extracted feature point; and a feature point of each illumination normalized object image. Extracting unique feature points of objects matching each other from the illumination normalized object image for each object image from the distance between the feature points based on the descriptor, and extracting the unique feature points of the objects matched with each other. Candidate of each illumination normalized object image generated from the vector matrix of the descriptor And generating a unique ID of the object from the ID.

바람직학, 본 발명의 일 실시예에 따라 조명 정규화된 객체 영상은 객체 영상을 반전시켜 반전 객체 영상을 생성하는 단계와, 저주파 조명 성분을 추출하기 하기 위해 평균 필터를 반전 객체 영상에 적용하여 반전 추정 조명 성분을 계산하는 단계와, 반전 추정 조명 성분을 재반전시켜 추정 조명 성분을 계산하는 단계와, 추정 조명 성분과 객체 영상을 서로 합하여 조명 정규화된 반전 객체 영상을 생성하는 단계와, 조명 정규화된 반전 객체 영상을 히스토그램 평활화(Histogram Equalization)하여 조명 정규화된 반전 객체 영상의 픽셀값을 확산 분포시킨 반전 평활화 영상을 생성하는 단계와, 반전 평활화 영상을 재반전시켜 조명 정규화된 객체 영상을 생성하는 단계를 포함하는 것을 특징으로 한다.Preferably, the illumination normalized object image according to an embodiment of the present invention inverts the object image to generate an inverted object image, and inverse estimation by applying an average filter to the inverted object image to extract low frequency illumination components Calculating an illumination component; reversing the inverse estimated illumination component to calculate an estimated illumination component; generating an illumination normalized inversion object image by combining the estimated illumination component and the object image; Generating an inverted smoothing image in which the pixel value of the illumination normalized inverted object image is diffusely distributed by histogram equalization of the object image, and generating an illumination normalized object image by reversing the inverted smoothing image. Characterized in that.

바람직하게, 본 발명의 일 실시예에 따른 객체의 고유 특징점을 추출하는 단계는 복수의 조명 정규화된 객체 영상 중 선택된 2개의 조명 정규화된 객체 영상의 특징점으로 이루어진 특징점 그룹에 대해 특징점 서술자에 기초하여 특징점 사이의 거리로부터 특징점 그룹에서 서로 매칭되는 후보 고유 특징점을 추출하는 단계와, 복수의 조명 정규화된 객체 영상으로부터 생성되는 모든 특징점 그룹으로부터 추출한 후보 고유 특징점에 기초하여 모든 특징점 그룹에서 공통으로 매칭되는 고유 특징점을 추출하는 단계를 포함하는 것을 특징으로 한다.Preferably, the step of extracting the unique feature point of the object according to an embodiment of the present invention is based on the feature point descriptor for the feature point group consisting of the feature points of the two illumination normalized object images selected from the plurality of illumination normalized object images. Extracting candidate unique feature points that match each other in the feature point group from the distance between the feature points and the unique feature points that are commonly matched in all the feature point groups based on candidate unique feature points extracted from all the feature point groups generated from the plurality of illumination normalized object images. It characterized in that it comprises a step of extracting.

후보 고유 특징점을 추출하는 단계에서 아래의 수학식(1)에 의해 후보 고유 특징점을 추출하는데,In the step of extracting the candidate unique feature points, the candidate unique feature points are extracted by Equation (1) below.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

여기서 v1n은 제1 조명 정규화된 객체 영상의 특징점이며, v2i, v2j는 제2 조명 정규화된 객체 영상의 특징점들 중 v1n에 가장 가까운 위치의 2개의 특징점이며, dR은 추출 가중치이며, 수학식(1)을 만족하는 경우 v1n, v2i는 후보 고유 특징점으로 추출되는 것을 특징으로 한다.Where v 1n is a feature point of the first illumination normalized object image, v 2i , v 2j are two feature points of the position closest to v 1n among the feature points of the second illumination normalized object image, and d R is an extraction weight , V 1n , when the equation (1) is satisfied. v 2i is characterized as being extracted as a candidate unique feature point.

바람직하게, 본 발명의 일 실시예에 따른 고유 아이디를 생성하는 단계는 각 조명 정규화된 객체 영상의 고유 특징점에 대한 서술자의 벡터 행렬로부터 생성되는 각 부분 벡터 행렬의 8차원 주성분에서 가장 큰 수와 가장 작은 수의 위치를 판단하는 단계와, 각 부분 벡터 행렬의 가장 큰 수와 가장 작은 수의 위치를 나타내는 제1 값과 제2 값으로 이루어진, 각 조명 정규화된 객체 영상에 대한 후보 아이디를 생성하는 단계와, 각 조명 정규화된 객체 영상에 대한 후보 아이디에서 서로 공통된 수로 이루어진 객체의 고유 아이디를 생성하는 단계를 포함하는 것을 특징으로 한다.Preferably, the step of generating a unique ID according to an embodiment of the present invention comprises the largest number and the largest in the eight-dimensional principal component of each partial vector matrix generated from the vector matrix of descriptors for the unique feature points of each illumination normalized object image. Determining a small number of positions, and generating a candidate ID for each illumination normalized object image, the first and second values representing the largest and smallest positions of each partial vector matrix; And generating unique IDs of objects having a common number from candidate IDs for each lighting normalized object image.

바람직하게, 본 발명의 일 실시예에 따른 특징점을 추출하는 단계는 다른 레벨의 분산을 가지는 가우시안 함수에 의해 블러(blur)된 스케일 공간 영상을 생성하는 단계와, 스케일 공간 영상 중 인접 영상의 차로부터 가우시안 차 영상을 생성하는 단계와, 가우시안 차 영상 중 현재 픽셀에 인접한 인접 픽셀, 가운시안 차 영상에 상위 및 하위 인접한 인접 가운시안 차 영상 중 상기 현재 픽셀에 인접한 차위 인접 픽셀에서 최대 또는 최소 픽셀값을 가지는 후보 특징점을 판단하는 단계와, 후보 특징점에서 불안정한 후보 특징점을 제거하여 특징점을 추출하는 단계를 포함하는 것을 특징으로 한다. Preferably, extracting the feature point according to an embodiment of the present invention comprises generating a scale space image blurred by a Gaussian function having a different level of variance, and from a difference between adjacent images in the scale space image. Generating a Gaussian difference image; and determining a maximum or minimum pixel value of a neighboring pixel adjacent to the current pixel of the Gaussian difference image, and a next or next pixel value adjacent to the current pixel among the upper and lower adjacent neighboring Gownian difference images. The method may include determining a candidate feature point, and extracting the feature point by removing the unstable candidate feature point from the candidate feature point.

특징점을 중심으로 특징점의 인접 픽셀을 이용하여 특징점과 특징점 인접 픽셀 사이의 방위각과 크기를 계산하는 단계와, 계산한 방위각의 히스토그램으로부터 특징점의 기준 방위를 판단하는 단계와, 기준 방위에 기초하여 특징점 주변에 위치한 국부 영역의 그레디언트 방향과 크기로 표현되는 특징점 서술자를 생성하는 단계를 포함하는 것을 특징으로 한다.Calculating the azimuth and size between the feature point and the feature point adjacent pixel using the adjacent pixels around the feature point, determining a reference orientation of the feature point from the calculated histogram of the azimuth angle, and surrounding the feature point based on the reference orientation. And generating a feature point descriptor represented by a gradient direction and a size of a local area located at.

여기서 동일 객체를 촬영한 서로 상이한 3개의 객체 영상에서 잡음을 제거하여 3개의 객체 영상 각각에 대한 조명 정규화된 객체 영상을 획득하는 것을 특징으로 한다.In this case, the noise normalized object images of the three object images are obtained by removing noise from three different object images photographing the same object.

본 발명에 따른 객체의 고유 아이디 생성 방법은 다음과 같은 다양한 효과를 가진다.The method of generating a unique ID of an object according to the present invention has various effects as follows.

첫째, 본 발명에 따른 객체의 고유 아이디 생성 방법은 객체 영상으로부터 추출한 객체의 특성을 고려한 고유 아이디를 생성함으로써, 사람뿐만 아니라 동물, 사물 등 모든 객체를 식별할 수 있는 고유 아이디의 생성할 수 있다.First, the method of generating a unique ID of an object according to the present invention generates a unique ID in consideration of the characteristics of an object extracted from an object image, thereby generating a unique ID capable of identifying all objects such as not only a person but also an animal.

둘째, 본 발명에 따른 객체의 고유 아이디 생성 방법은 서로 상이한 복수의 객체 영상들로부터 객체를 나타내는 특징점을 추출하고 다시 특징점 중 복수의 객체 영상에서 공통된 고유 특징점들로부터 객체의 고유 아이디를 생성함으로써, 객체 특성을 반영하여 정확하게 객체의 고유 아이디를 생성할 수 있다.Second, the method of generating a unique ID of an object according to the present invention extracts a feature point representing an object from a plurality of different object images and again generates a unique ID of the object from unique feature points common to the plurality of object images among the feature points. Unique ID of an object can be generated accurately by reflecting its characteristics.

셋째, 본 발명에 따른 객체의 고유 아이디 생성 방법은 객체 영상으로부터 생성된 숫자로 이루어진 고유 아이디를 생성함으로써, 입력 객체 영상과 등록 객체 영상을 비교하지 않으며, 따라서 모든 객체의 객체 영상을 별도로 등록 저장할 필요가 없으며 입력 객체 영상으로부터 생성되는 고유 아이디와 등록된 고유 아이디를 비교하여 모든 객체를 식별할 수 있다. Third, the method of generating a unique ID of an object according to the present invention does not compare the input object image and the registered object image by generating a unique ID composed of numbers generated from the object image, and thus needs to separately store and store the object image of all objects. No object can be identified by comparing the unique ID generated from the input object image with the registered unique ID.

넷째, 본 발명에 따른 객체의 고유 아이디 생성 방법은 SIFT(Scale Invariant Feature Transform) 알고리즘을 적용하여 생성한 객체 영상의 특징점에 대한 서술자 벡터를 이용하여 고유 아이디를 생성함으로써, 적은 연산량으로 정확하게 객체의 고유 아이디를 생성할 수 있다. Fourth, the method for generating a unique ID of an object according to the present invention generates a unique ID by using a descriptor vector for a feature point of an object image generated by applying a scale invariant feature transform (SIFT) algorithm, thereby accurately identifying the object with a small amount of computation. You can create an ID.

도 1은 본 발명의 일 실시예에 따른 고유 아이디 생성 장치를 설명하기 위한 기능 블록도이다.
도 2는 본 발명에 따른 정규화 영상 생성부의 일 예를 설명하기 위한 도면이다.
도 3은 본 발명에 따른 고유 특징점 생성부의 일 예를 설명하기 위한 기능 블록도이다.
도 4는 본 발명의 일 실시예에 따른 객체의 고유 아이디 생성 방법을 설명하기 위한 흐름도이다.
도 5는 가운시안 차 영상을 생성하는 일 예를 설명하기 위한 도면이다.
도 6은 가운시안 차 영상 중 현재 픽셀에 인접한 차위 인접 픽셀에서 최대 또는 최소 픽셀값을 가지는 특징점을 판단하는 일 예를 설명하기 위한 도면이다.
도 7(a)는 SIFT 특징점 주변에 위치한 국부 영역의 그래드언트 방향과 크기를 도시한 도면이고, 도 7(b)는 가우시안 가중치를 부여한 후의 그래디언트 방향과 크기를 도시한 도면이다.
도 8은 본 발명에 따른 고유 특징점을 추출하는 단계의 일 예를 설명하기 위한 흐름도이다.
도 9는 제1 내지 제3 조명 정규화 객체 영상에서 추출한 고유 특징점의 일 예를 도시하고 있다.
도 10은 본 발명에 따른 고유 아이디의 생성 단계의 일 예를 설명하기 위한 흐름도이다.
도 11은 조명 정규화된 객체 영상에서 N개의 고유 특징점에 대한 특징점 서술자 벡터 행렬의 일 예를 도시하고 있다.
도 12는 각 조명 정규화된 객체 영상에 대한 제1값과 제2값의 일 예를 도시하고 있다.
1 is a functional block diagram illustrating an apparatus for generating a unique ID according to an embodiment of the present invention.
2 is a view for explaining an example of a normalized image generating unit according to the present invention.
3 is a functional block diagram illustrating an example of a unique feature point generation unit according to the present invention.
4 is a flowchart illustrating a method for generating a unique ID of an object according to an embodiment of the present invention.
5 is a diagram for describing an example of generating a ginsian difference image.
FIG. 6 is a diagram for describing an example of determining a feature point having a maximum or minimum pixel value in a next adjacent pixel adjacent to a current pixel in a current image.
FIG. 7A illustrates a gradient direction and a size of a local area located around a SIFT feature point, and FIG. 7B illustrates a gradient direction and a size after applying a Gaussian weight.
8 is a flowchart for explaining an example of the step of extracting a unique feature point according to the present invention.
9 illustrates an example of unique feature points extracted from the first to third illumination normalization object images.
10 is a flowchart illustrating an example of generating a unique ID according to the present invention.
FIG. 11 illustrates an example of a feature descriptor descriptor vector matrix for N unique feature points in an illumination normalized object image.
FIG. 12 illustrates an example of a first value and a second value for each illumination normalized object image.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다.Technical terms used in the present invention are merely used to describe specific embodiments, it should be noted that it is not intended to limit the present invention. In addition, the technical terms used in the present invention should be interpreted as meanings generally understood by those skilled in the art unless the present invention has a special meaning defined in the present invention, and is excessively comprehensive. It should not be interpreted in the sense of or in the sense of being excessively reduced. In addition, when a technical term used in the present invention is an incorrect technical term that does not accurately express the spirit of the present invention, it should be replaced with a technical term that can be properly understood by those skilled in the art.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, the singular forms used in the present invention include plural forms unless the context clearly indicates otherwise. In the present invention, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various components or steps described in the invention, and some of the components or some of the steps are included. It should be construed that it may not be, or may further include additional components or steps.

또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention and should not be construed as limiting the spirit of the present invention by the accompanying drawings.

이하 첨부한 도면을 참고로 본 발명에 따른 고유 아이디의 생성 방법에 대해 보다 구체적으로 설명한다.Hereinafter, a method of generating a unique ID according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 고유 아이디 생성 장치를 설명하기 위한 기능 블록도이다.1 is a functional block diagram illustrating an apparatus for generating a unique ID according to an embodiment of the present invention.

도 1을 참고로 살펴보면, 영상 촬영부(110)는 객체의 영상을 촬영한다. 여기서 영상 촬영부(110)를 통해 촬영하는 객체는 객체마다 서로 상이한 특성을 가지고 있는 대상으로, 예를 들어 사람의 얼굴, 홍채, 정맥패턴 등이 객체가 될 수 있으며, 본 발명이 적용되는 분야에 따라 강아지, 고양이 등의 애완 동물의 얼굴, 정맥패턴, 홍채 등이 객체가 되거나 이외에도 서로 상이한 특성을 가지는 사물이 객체가 될 수 있다. 영상 촬영부(110)는 서로 시간차이를 두고 객체를 촬영하여 복수의 객체 영상을 획득한다. 바람직하게, 영상 촬영부(110)는 서로 시간차이를 두고 객체를 3회 촬영하여 3개의 객체 영상을 획득한다.Referring to FIG. 1, the image capturing unit 110 captures an image of an object. Here, the object photographed through the image capturing unit 110 is a target having different characteristics for each object, for example, a human face, an iris, a vein pattern, etc. may be an object, and in the field to which the present invention is applied. Accordingly, the face, vein pattern, iris, etc. of a pet such as a dog or a cat may be an object, or an object having different characteristics from each other may be an object. The image capturing unit 110 acquires a plurality of object images by photographing the objects with a time difference from each other. Preferably, the image capturing unit 110 acquires three object images by photographing the object three times with a time difference from each other.

영상 촬영부(110)의 일 예로, 다수의 근적외선 LED 램프가 복수의 열과 행으로 배열되도록 구성된 조명부로부터 조사된 근적외선이 객체를 투과하거나 반사되며 제공되는 광을 이용하여 객체 영상을 촬영하는데, CCD(charge coupled device) 또는CMOS(complementary Metal-Oxide Semiconductor) 카메라를 사용할 수 있다.As an example of the image capturing unit 110, a near-infrared ray irradiated from an illumination unit configured to arrange a plurality of near-infrared LED lamps in a plurality of columns and rows passes through or reflects an object, and captures an object image by using light provided. A charge coupled device or complementary metal-oxide semiconductor (CMOS) camera may be used.

정규화 영상 생성부(130)는 영상 촬영부(110)로부터 획득한 복수의 객체 영상 각각에서 조명 성분을 추정하고 추정한 조명 성분에 기초하여 복수의 객체 영상별로 조명 정규화된 영상을 생성한다. 영상 촬영부(110)는 적외선 광원을 이용하여 객체 영상을 획득하는데, 적외선 광원의 배치 위치에 따라 적외선 광원이 객체 특정 부위로 집중되어 조사될 수 있으며 객체 조직 또는 두께의 차이로 인해 획득한 객체 영상에서 조명 성분은 불균형이다. The normalized image generating unit 130 estimates an illumination component in each of the plurality of object images obtained from the image capturing unit 110 and generates an illumination normalized image for each of the plurality of object images based on the estimated illumination component. The image capturing unit 110 acquires an object image by using an infrared light source. The infrared light source may be concentrated and irradiated to a specific part of an object according to an arrangement position of the infrared light source. The lighting component in is unbalanced.

특징점 생성부(150)는 SIFT(Scale Invariant Feature Transform) 알고리즘을 이용하여 각 조명 정규화된 영상에서 객체 특징을 나타내는 SIFT 특징점(keypoint)을 추출하고, 추출한 SIFT 특징점의 서술자를 생성한다. 추출한 특징점의 서술자는 SIFT 특징점 주변에 위치한 국부 영역의 그레디언트(gradient) 방향과 크기, SIFT 특징점의 위치 정보이다.The feature point generator 150 extracts a SIFT keypoint representing an object feature from each illumination normalized image by using a scale invariant feature transform (SIFT) algorithm and generates a descriptor of the extracted SIFT feature point. The descriptor of the extracted feature point is the gradient direction and size of the local area located around the SIFT feature point and the position information of the SIFT feature point.

고유 특징점 생성부(170)는 각 조명 정규화된 영상의 특징점 서술자에 기초하여 특징점 사이의 거리로부터 각 조명 정규화된 영상에서 서로 매칭되는 특징점을 판단하여 각 조명 정규화된 영상에서 서로 공통된 고유 특징점을 생성한다. 여기서 고유 특징점은 각 조명 정규화된 영상에서 서로 매칭되는 공통된 특징점으로, 각 조명 정규화된 영상의 특징점 중 서로 일치하지 않는 특징점을 제거함으로써, 조명 정규화된 영상에서 배경 영역을 제외한 객체 영역만을 추출할 수 있다.The unique feature point generation unit 170 generates unique feature points that are common to each other in each illumination normalized image by determining feature points that match each other in each illumination normalized image from the distance between the feature points based on the feature point descriptor of each illumination normalized image. . Here, the unique feature points are common feature points that are matched with each other in each lighting normalized image. By removing feature points that do not coincide with each other among feature points of each lighting normalized image, only an object region excluding a background region may be extracted from the lighting normalized image. .

고유 아이디 생성부(190)는 각 조명 정규화된 영상별로 고유 특징점에 대한 서술자의 벡터 행렬로부터 후보 아이디를 생성하며, 각 조명 정규화된 영상의 후보 아이디에서 서로 공통된 후보 아이디로부터 객체의 고유 아이디를 생성한다.The unique ID generating unit 190 generates a candidate ID from a vector matrix of descriptors for unique feature points for each lighting normalized image, and generates a unique ID of an object from candidate IDs common to each other in candidate IDs of each lighting normalized image. .

도 2는 본 발명에 따른 정규화 영상 생성부의 일 예를 설명하기 위한 도면이다.2 is a view for explaining an example of a normalized image generating unit according to the present invention.

도 2를 참고로 보다 구체적으로 살펴보면, 제1 반전부(131)는 객체 영상(I(x,y))을 반전시켜 반전 영상(I'(x,y))을 생성하며, 조명 성분 추정부(133)는 저주파 조명 성분을 추출하기 하기 위해 평균 필터를 컨벌루션하여 반전 추정 조명 성분(R(x,y))을 계산한다. 조명 성분은 객체 영상에서 저주파 성분으로 나타나기 때문에, 반전 원본영상에 평균 필터를 컨볼루션하여 반전 원본 영상을 블러(blur)시킴으로써, 반전 원본 영상에서 조명 성분을 추정한다. 여기서 평균 필터는 m×n 크기를 가지며 M×N 크기의 반전 원본 영상과 컨볼루션되어 반전 추정 조명 성분을 생성한다.Referring to FIG. 2, the first inverting unit 131 inverts the object image I (x, y) to generate an inverted image I '(x, y), and estimates an illumination component. 133 calculates an inverse estimated illumination component R (x, y) by convolving the average filter to extract the low frequency illumination component. Since the lighting component appears as a low frequency component in the object image, the average filter is convoluted to the inverted original image to blur the inverted original image, thereby estimating the lighting component in the inverted original image. Here, the average filter has a size of m × n and is convolved with an M × N size inverted original image to generate an inverse estimated illumination component.

제2 반전부(135)는 반전 추정 조명 성분(R(x,y)을 재반전시켜 추정 조명 성분(R'(x,y)을 계산한다.The second inverting unit 135 inverts the inverse estimated illumination component R (x, y) to calculate the estimated illumination component R '(x, y).

조명 정규화부(137)는 추정 조명 성분(R'(x,y))과 반전 영상(I'(x,y))을 서로 합하여 0에서 255 사이의 픽셀값은 유지시키고 0 이하의 픽셀값은 0으로 설정하고 255 이상의 픽셀값은 255로 설정하여 조명 정규화된 반전 영상(I''(x,y))을 생성하며, 평활화부(158)는 조명 정규화된 반전 영상(I''(x,y))을 히스토그램 평활화(Histogram Equalization)하여 조명 정규화된 반전 영상(I''(x,y))의 픽셀값을 확산 분포시킨다. 여기서 히스토그램 평활화를 통해 명암 분포가 빈약한 조명 정규화된 반전 영상의 히스토그램은 균일하게 분포되며, 명암 대비를 최대화시킨 조명 정규화된 객체 영상이 생성된다.The illumination normalizer 137 sums the estimated illumination components R '(x, y) and the inverted image I' (x, y) to maintain pixel values between 0 and 255, and Set to 0 and set the pixel value of 255 or more to 255 to generate the illumination normalized inverted image I '' (x, y), and the smoothing unit 158 generates the illumination normalized inverted image I '' (x, y)) is histogram equalized to diffusely distribute the pixel values of the illumination normalized inverted image I '' (x, y). Here, the histogram of the illumination normalized inverted image having poor contrast distribution is uniformly distributed through histogram smoothing, and an illumination normalized object image maximizing contrast is generated.

제 3 반전부(139)는 반전 평활화 영상을 재반전시켜 조명 정규화된 객체 영상E(x,y)을 생성한다.The third inverting unit 139 inverts the inverted smoothing image to generate the illumination normalized object image E (x, y).

영상의 픽셀값이 0에서 255의 값을 가지는 경우, 종래 조명 정규화 방법은 입력 신호로부터 평균 필터를 입력 영상에 적용하여 생성된 추정 조명 성분을 차감하고, 다시 차감한 값에 255을 합산하여 합산한 값을 1/2로 나누어 조명을 정규화하였다. 본 발명에 따른 정규화 영상 생성부는 추정 조명 성분(R'(x,y))과 반전 영상(I'(x,y))을 서로 합하여 0에서 255 사이의 픽셀값은 유지시키고 0이하의 픽셀값은 0으로 설정하고 255 이상의 픽셀값은 255로 설정시킴으로써, 객체 영상을 보다 선명하게 필터링하며 SIFT 특징점 추출 및 매칭의 정확성을 높일 수 있다. When a pixel value of an image has a value of 0 to 255, the conventional lighting normalization method subtracts an estimated illumination component generated by applying an average filter to an input image from an input signal, and adds 255 to the subtracted value and adds the sum. The illumination was normalized by dividing the value by 1/2. The normalized image generator according to the present invention sums the estimated illumination components R '(x, y) and the inverted image I' (x, y) to maintain pixel values of 0 to 255 and to maintain pixel values of 0 or less. Is set to 0 and a pixel value of 255 or more is set to 255, so that the object image can be filtered more clearly and the accuracy of SIFT feature point extraction and matching can be improved.

도 3은 본 발명에 따른 고유 특징점 생성부의 일 예를 설명하기 위한 기능 블록도이다.3 is a functional block diagram illustrating an example of a unique feature point generation unit according to the present invention.

그룹 생성부(171)는 복수의 조명 정규화된 객체 영상 중에서 선택된 2개의 서로 상이한 조명 정규화된 객체 영상으로 그룹을 생성한다. 즉, 3개의 객체 영상으로부터 3개의 조명 정규화된 객체 영상(E1, E2, E3)을 생성하는 경우, 3개의 조명 정규화된 객체 영상 중 선택된 2개의 조명 정규화된 객체 영상으로부터 제1그룹(E1, E2), 제2그룹(E1, E3), 제3그룹(E2, E3)을 생성한다.The group generator 171 generates a group from two different illumination normalized object images selected from the plurality of illumination normalized object images. That is, when generating three illumination normalized object images E1, E2, and E3 from three object images, the first group E1, E2 is generated from two illumination normalized object images selected from three illumination normalized object images. ), Second groups E1 and E3, and third groups E2 and E3.

후보 고유 특징점 생성부(173)는 각 그룹을 구성하는 조명 정규화된 객체 영상의 특징점 사이의 거리에 기초하여 각 그룹에서 서로 매칭되는 후보 고유 특징점을 생성하며, 고유 특징점 생성부(175)는 각 그룹에서 서로 매칭되는 후보 고유 특징점 중 모든 그룹에서 공통으로 서로 매칭되는 고유 특징점을 생성한다.The candidate unique feature point generator 173 generates candidate unique feature points that match each other in each group based on the distance between the feature points of the illumination normalized object image constituting each group, and the unique feature point generator 175 generates each group. Generates unique feature points that are commonly matched with each other in all groups among candidate unique feature points that are matched with each other.

도 4는 본 발명의 일 실시예에 따른 객체의 고유 아이디 생성 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a method for generating a unique ID of an object according to an embodiment of the present invention.

도 4를 참고로 보다 구체적으로 살펴보면, 획득한 동일 객체에 대한 복수의 객체 영상에서 조명 성분을 추정하고 추정한 조명 성분에 기초하여 복수의 객체 영상별로 조명 정규화된 영상을 생성한다(S10).Referring to FIG. 4, in detail, an illumination component is estimated from the obtained plurality of object images of the same object, and an illumination normalized image is generated for each of the plurality of object images based on the estimated illumination component (S10).

각 조명 정규화된 영상에서 SIFT 알고리즘을 이용하여 객체의 특징점(keypoint)을 추출하고, 생성한 각 조명 정규화된 영상의 특징점에 대한 서술자(description)을 생성한다(S50). A feature point of an object is extracted from each illumination normalized image using a SIFT algorithm, and a description of a feature point of each generated illumination normalized image is generated (S50).

특징점을 추출하는 단계를 보다 구체적으로 살펴보면, 특징점을 다른 레벨의 분산을 가지는 가우시안 함수와 평화활된 조명 정규화손가락 정맥 영상을 컨볼루션하여 블러(blur)된 스케일 공간 영상을 아래의 수학식(1)과 같이 생성한다.Looking at the step of extracting the feature point in more detail, the convolution of the Gaussian function and the peaceful illumination normalized finger vein image having the feature points with different levels of variance and blur the scaled spatial image to the following equation (1) Create like this

[수학식 1][Equation 1]

L(x, y, σ)=G(x, y, σ)*E(x,y)L (x, y, σ) = G (x, y, σ) * E (x, y)

여기서 G(x, y, σ)는 가운시안 함수, E(x,y)는 평활화된 조명 정규화 객체 영상, L(x, y, σ)는 다른 레벨의 분산(σ)을 갖는 가우시안 함수에 의해 블러된 영상을 의미한다.Where G (x, y, σ) is a Giancian function, E (x, y) is a smoothed illumination normalized object image, and L (x, y, σ) is a Gaussian function with different levels of variance (σ). It means a blurred image.

스케일 공간상에서 안정된 특징점을 찾기 위하여 스케일 공간 영상 중 인접 영상의 차로부터 아래의 수학식(2)와 같이 가우시안 차 영상(DOG, Difference of Gaussian)을 생성한다. 도 5는 가운시안 차 영상을 생성하는 일 예를 설명하기 위한 도면이다.In order to find a stable feature point in the scale space, a Gaussian difference image (DOG) is generated from the difference of adjacent images in the scale space image as shown in Equation (2) below. 5 is a diagram for describing an example of generating a ginsian difference image.

[수학식 2][Equation 2]

DOG=(G(x, y, kσ)*E(x,y)-G(x, y, σ)*E(x,y))DOG = (G (x, y, kσ) * E (x, y) -G (x, y, σ) * E (x, y))

=L(x, y, kσ)-L(x, y, σ)= L (x, y, kσ) -L (x, y, σ)

가우시안 차 영상 중 현재 픽셀에 인접한 인접 픽셀, 가운시안 차 영상에 상위 및 하위 인접한 인접 가운시안 차 영상 중 현재 픽셀에 인접한 차위 인접 픽셀에서 최대 또는 최소 픽셀값을 가지는 특징점을 판단한다.A feature point having a maximum or minimum pixel value is determined in a neighboring pixel adjacent to a current pixel of a Gaussian difference image and a next neighboring pixel adjacent to a current pixel among upper and lower neighboring neighboring neighboring difference images.

도 6을 참고로 보다 구체적으로 살펴보면, 가우시안 차 영상을 이용하여 현재 영상 내에서의 주변 8개의 픽셀과 인접한 영상에서의 9개의 픽셀(pixel)을 비교한다. 'X'위치가 현재 기준픽셀이라고 가정하면, 'X'를 중심으로 이웃한 픽셀과 인접한 가우시안 차 영상에서의 같은 위치의 일정 영역(예를 들어, 3×3)에 포함되는 픽셀을 포함하는 총 26개 픽셀의 픽셀 값을 비교하여 기준픽셀이 최대 혹은 최소의 값이면 기준픽셀을 특징점으로 등록한다. 스케일 공간상의 옥타브별로 가우시안 차 영상을 이용하여 위의 과정을 반복하여 특징점을 찾아낸다.Referring to FIG. 6, a gaussian difference image is used to compare eight pixels in the current image and nine pixels in an adjacent image. Assuming that the 'X' position is the current reference pixel, a total including pixels included in a predetermined region (for example, 3x3) at the same position in the Gaussian difference image adjacent to the neighboring pixel with respect to the 'X' By comparing pixel values of 26 pixels, if the reference pixel is the maximum or minimum value, the reference pixel is registered as a feature point. Feature points are found by repeating the above process using Gaussian difference images for each octave of scale space.

여기서 SIFT 특징점(X(x,y))의 크기 값에 대한 함수 m(x,y)와 방향 값에 대한 함수 θ(x,y)는 아래의 수학식(3)과 수학식(4)에 의해 계산된다.Here, the function m (x, y) for the magnitude value of the SIFT feature point (X (x, y)) and the function θ (x, y) for the direction value are expressed in Equations (3) and (4) below. Is calculated by

[수학식 3][Equation 3]

Figure pat00002
Figure pat00002

[수학식 4][Equation 4]

Figure pat00003
Figure pat00003

영상의 회전이 있더라도 SIFT 특징점(X') 주변 화소값은 변하지 않으므로, 주변 화소값을 기초로 크기(m(x,y))와 방향(θ(x,y)이 결정되는 SIFT 특징점은 영상의 회전에 대해서 일정한 방향 성질을 유지할 수 있다. 영상이 회전한 만큼 SIFT 특징점의 방향도 함께 회전하므로 SIFT 특징점의 기준 방향은 영상의 회전에도 변하지 않는 특징점 기술자를 생성하는 경우 중요한 기준이 된다.Even though there is rotation of the image, the pixel value around the SIFT feature point (X ') does not change, so the SIFT feature point whose size (m (x, y)) and direction (θ (x, y)) are determined based on the pixel value Since the direction of the SIFT feature is rotated as the image rotates, the reference direction of the SIFT feature is an important criterion when generating a feature descriptor that does not change even with the rotation of the image.

한편, 특징점 기술자를 생성하는 방식에 대해 보다 구체적으로 살펴보면 특징점 기준방향을 기준으로 특징점 기술자(Keypoint descriptor)를 생성한다. Meanwhile, referring to the method of generating a feature point descriptor in detail, a keypoint descriptor is generated based on the feature point reference direction.

SIFT 특징점 주변에 위치한 국부 영역의 그래디언트(gradient) 방향과 크기를 계산한다. 국부 영역의 그래디언트 방향과 크기는 앞서 설명한 수학식(3)과 수학식(4)를 통해 계산할 수 있다.Compute the gradient direction and size of the local area around the SIFT feature point. The gradient direction and size of the local region may be calculated by using Equations (3) and (4).

영상회전에 불변하는 기술자를 얻기 위해 그래디언트 방향과 기술자의 좌표를 SIFT 특징점 방향을 기준으로 회전이동하고, 회전된 그래디언트에 SIFT 특징점을 중심으로 가우시안 가중치를 부여한다. SIFT 특징점 주변 영역의 작은 변화에도 그래디언트의 방향과 크기가 민감하게 변하는 것을 방지하기 위해 가우시안 가중치를 부여한다. SIFT 특징점을 중심으로 가우시안 가중치를 부여하여 특징점 주변 영역의 그래디언트를 강조하고 에러를 최소화할 수 있다.In order to obtain an invariant descriptor for image rotation, the gradient direction and the coordinates of the descriptor are rotated based on the SIFT feature point direction, and the rotated gradient is given a Gaussian weight around the SIFT feature point. Gaussian weights are applied to prevent small changes in the area around the SIFT feature points from sensitively changing the direction and size of the gradient. Gaussian weights are assigned around SIFT feature points to emphasize gradients around the feature points and minimize errors.

도 7(a)는 SIFT 특징점 주변에 위치한 국부 영역의 그래드언트 방향과 크기를 도시한 도면이고, 도 7(b)는 가우시안 가중치를 부여한 후의 그래디언트 방향과 크기를 도시한 도면이다.FIG. 7A illustrates a gradient direction and a size of a local area located around a SIFT feature point, and FIG. 7B illustrates a gradient direction and a size after applying a Gaussian weight.

가우시안 가중치가 부여된 그래디언트는 각각의 배열이 8방향을 가지고 있는 4×4 배열로 재구성된다. 이러한 방향성 히스토그램은 128(8×4×4)차원의 벡터로 구성된다. 128차원 벡터를 조명에 강인한 기술자로 만들기 위해 정규화 과정을 수행할 수 있다. 이러한 과정을 통해 생성된 128차원 벡터는 SIFT 특징점을 대표하는 특징점 기술자가 된다. Gaussian weighted gradients are reconstructed into 4x4 arrays, with each array having eight directions. This directional histogram consists of 128 (8x4x4) vectors. The normalization process can be performed to make a 128-dimensional vector a light-resistant descriptor. The 128-dimensional vector generated through this process becomes a feature descriptor that represents the SIFT feature.

다시 도 4를 참고로 본 발명에 따른 객체의 고유 아이디 생성 방법에 대해 살펴보면, 각 조명 정규화된 객체 영상의 특징점 서술자에 기초하여 특징점 사이의 거리로부터 각 객체 영상에 대한 조명 정규화된 객체 영상에서 배경 영역의 특징점을 제거한, 서로 매칭되는 객체의 고유 특징점을 추출한다(S70).Referring to FIG. 4 again, a method of generating a unique ID of an object according to the present invention is based on a feature point descriptor of each light normalized object image from a distance between feature points from a background region of the light normalized object image for each object image. The unique feature points of the objects matching each other are removed by removing the feature points (S70).

각 조명 정규화된 객체 영상의 고유 특징점에 대한 특징점 서술자의 128 벡터 행렬로부터 각 조명 정규화된 객체 영상에 대한 후보 고유 아이디를 생성하고, 각 조명 정규화된 객체 영상에 대한 후보 고유 아이디에서 서로 공통되는 아이디로 객체에 대한 고유 아이디를 생성한다(S90).Generate a candidate unique ID for each lighting normalized object image from the 128 vector matrix of feature descriptors for the unique feature points of each lighting normalized object image, and use the common IDs for the candidate unique IDs for each lighting normalized object image. Generate a unique ID for the object (S90).

도 8은 본 발명에 따른 고유 특징점을 추출하는 단계의 일 예를 설명하기 위한 흐름도이다.8 is a flowchart for explaining an example of the step of extracting a unique feature point according to the present invention.

도 8을 참고로 보다 구체적으로 살펴보면, 복수의 조명 정규화된 영상 중 선택된 2개의 조명 정규화된 영상의 특징점으로 특징점 그룹을 생성한다(S71). 즉, 3개의 객체 영상으로부터 3개의 조명 정규화된 객체 영상(E1, E2, E3)을 생성하는 경우, 3개의 조명 정규화된 객체 영상 중 선택된 서로 상이한 2개의 조명 정규화된 객체 영상으로부터 제1그룹(E1, E2), 제2그룹(E1, E3), 제3그룹(E2, E3)을 생성한다.Referring to FIG. 8, the feature point group is generated as the feature points of the two illumination normalized images selected from the plurality of illumination normalized images (S71). That is, when three lighting normalized object images E1, E2, and E3 are generated from three object images, the first group E1 is generated from two different lighting normalized object images selected from three lighting normalized object images. , E2), second groups E1 and E3, and third groups E2 and E3 are generated.

각 특징점 그룹을 구성하는 조명 정규화된 객체 영상의 특징점 사이의 거리에 기초하여 각 그룹에서 서로 매칭되는 후보 고유 특징점을 추출한다(S73). 예를 들어 제1그룹을 구성하는 제1 조명 정규화된 객체 영상(E1)의 특징점과 제2 조명 정규화된 객체 영상(E2)의 특징점 사이의 거리에 기초하여 제1 조명 정규화된 객체 영상의 특징점과 제2 조명 정규화된 객체 영상 사이에서 서로 공통된 후보 고유 특징점을 추출한다.Based on the distance between the feature points of the illumination normalized object image constituting each feature point group, candidate unique feature points matching each other in each group are extracted (S73). For example, the feature point of the first illumination normalized object image based on the distance between the feature point of the first illumination normalized object image E1 and the feature point of the second illumination normalized object image E2 constituting the first group; A candidate unique feature point common to each other between the second illumination normalized object images is extracted.

바람직하게 각 그룹에서 서로 매칭되는 후보 고유 특징점은 아래의 수학식(5)와 같이 계산된다.Preferably, candidate intrinsic feature points matching each other in each group are calculated as in Equation 5 below.

[수학식 5][Equation 5]

Figure pat00004
Figure pat00004

여기서 v1n은 제1 조명 정규화된 객체 영상의 특징점이며, v2i, v2j는 제2 조명 정규화된 객체 영상의 특징점들 중 v1n에 가장 가까운 위치의 2개의 특징점이며, dR은 추출 가중치이며,Where v 1n is a feature point of the first illumination normalized object image, v 2i , v 2j are two feature points of the position closest to v 1n among the feature points of the second illumination normalized object image, and d R is an extraction weight ,

수학식(5)를 만족하는 경우 v1n, v2i는 후보 고유 특징점으로 추출된다.If the equation (5) is satisfied v 1n , v 2i is extracted as candidate unique feature points.

생성한 모든 특징점 그룹에 대해 앞서 설명한 방식과 동일한 방식으로 각 특징점 그룹의 후보 고유 특징점을 추출한다.For all of the generated feature point groups, candidate unique feature points of each feature point group are extracted in the same manner as described above.

각 특징점 그룹에서 서로 매칭되는 후보 고유 특징점 중 모든 특징점 그룹에서 공통으로 서로 매칭되는 고유 특징점을 추출한다(S75). 즉 도 9에 도시되어 있는 바와 같이, 3개의 객체 영상으로부터 3개의 조명 정규화된 영상을 획득하는 경우, 제1 조명 정규화된 영상(E1)의 특징점들, 제3 조명 정규화된 영상(E2)의 특징점들 및 제3 조명 정규화된 영상(E3)의 특징점들 사이에서 모두 공통된 고유 특징점을 추출한다.Unique feature points that are matched with each other in common from all the feature point groups among candidate unique feature points that match each other in each feature point group are extracted (S75). That is, as shown in FIG. 9, when three illumination normalized images are obtained from three object images, the feature points of the first illumination normalized image E1 and the feature points of the third illumination normalized image E2 And common feature points that are common between the feature points of the third illumination normalized image E3.

도 10은 본 발명에 따른 고유 아이디의 생성 단계의 일 예를 설명하기 위한 흐름도이다.10 is a flowchart illustrating an example of generating a unique ID according to the present invention.

도 10을 참고로 보다 구체적으로 살펴보면, 각 조명 정규화된 객체 영상의 고유 특징점에 대한 특징점 서술자의 벡터 행렬로부터 생성되는 부분 벡터 행렬의 8차원 주성분에서 가장 큰 수와 가장 작은 수의 위치를 판단한다(S91). 도 11에 도시되어 있는 바와 같이, 제1 조명 정규화된 객체 영상에서 N개의 고유 특징점(V1 -1, V1-2,...., V1 -N)이 추출되는 경우, 각 고유 특징점은 앞서 설명한 방식으로 128 차원의 특징점 서술자 벡터 행렬이 생성되는데, 128 차원의 특징점 서술자 벡터 행렬을 8개로 나누어 부분 벡터 행렬(Pi)을 생성하며, 부분 벡터 행렬별로 주성분의 크기의 평균값을 계산하는 경우, 각 평균값에서 가장 큰 수와 가장 작은 수의 위치를 판단한다. Referring to FIG. 10, the position of the largest and smallest numbers in the 8-dimensional principal component of the partial vector matrix generated from the vector matrix of the feature point descriptors for the unique feature points of each illumination normalized object image is determined. S91). As shown in Figure 11, when the first jomyeong N unique feature points in the normalized object image (V 1 -1, V 1-2, ...., V 1 -N) are extracted, each unique feature point In the above-described method, a 128-dimensional feature descriptor vector matrix is generated. The 128-dimensional feature descriptor vector matrix is divided into 8 to generate a partial vector matrix P i and calculates an average value of the magnitudes of the principal components for each partial vector matrix. In this case, the position of the largest number and the smallest number is determined from each average value.

128 차원의 특징점 서술자 벡터 행렬을 8개로 나누어 부분 벡터 행렬(Pi)을 생성하며, 부분 벡터 행렬별로부터 8차원 주성분 벡터를 계산하여, 각 주성분벡터에서 가장 큰 수와 가장 작은 수의 위치를 판단한다. 여기서 주성분이란 부분 벡터 행렬(Pi)의 평균벡터 또는 주성분 분석(PCA, Principle Component Analysis)을 통하여 얻어진 고유치 중 가장 큰 수에 해당되는 고유벡터의 절대값으로 이루어진 벡터를 뜻한다. 주성분분석은 행렬 Pi에 대하여, 그 행렬 대칭행렬(

Figure pat00005
)과의 행렬곱(
Figure pat00006
)으로 얻어진 행렬의 고유값과 고유벡터를 계산하여 그 고유벡터들로부터 부분 벡터 행렬(Pi)의 열벡터들의 주성분을 계산하는 방법이다. A partial vector matrix (P i ) is generated by dividing a 128-dimensional feature point descriptor vector matrix into eight, and the largest and smallest positions of each principal component vector are determined by calculating an eight-dimensional principal component vector from each partial vector matrix. do. Here it means the main component is the matrix-vector portion (P i) average vector or vector component analysis made by the absolute value of the eigenvector corresponding to the largest number of the eigenvalues obtained through the (PCA, Principle Component Analysis) of the. Principal component analysis is based on the matrix P i ,
Figure pat00005
Matrix multiplication with
Figure pat00006
) To calculate the eigenvalues and eigenvectors of the resulting matrix is a method of calculating the principal component of the column vector of the matrix-vector portion (P i) from its own vector.

도 11에서 부분 벡터 행렬(P1)의 가장 큰 크기의 주성분 크기의 평균값은 4.0이고 가장 작은 주성분 크기의 평균값은 2.6인데, 평균값 4.0은 8번째 위치하고 있으며 평균값 2.6은 3번째 위치한다. 복수의 조명 정규화 영상에서 서로 공통된 고유 특징점의 특징점 서술자 벡터 행렬로부터 생성된 부분 벡터 행렬별 주성분 크기의 평균값은 서로 상이할 수 있는데, 가장 큰 크기의 주성분이 위치하는 순서 및 가장 작은 크기의 주성분이 위치하는 순서는 거의 동일함을 알 수 있다. In FIG. 11, the mean value of the principal component size of the largest size of the partial vector matrix P 1 is 4.0 and the mean value of the smallest principal component size is 2.6. The mean value 4.0 is located eighth and the mean value 2.6 is located third. The mean values of the principal component sizes of the partial vector matrices generated from the feature descriptor descriptor vector matrices of the unique feature points that are common to each other in the plurality of illumination normalized images may be different from each other. It can be seen that the order is almost the same.

다시 도 10을 참고로 살펴보면, 각 부분 벡터 행렬의 가장 큰 수와 가장 작은 수의 위치를 나타내는 제1값과 제2값으로 이루어진, 각 조명 정규화된 객체 영상에 대한 후보 아이디를 생성한다(S93). 앞서 도 11을 참고로 설명한 바와 같이 제1 부분 벡터 행렬(P1)에서는 제1값과 제2값이 각각 8과 3이며 나머지 부분 벡터 행렬에 대해서도 제1값과 제2값을 판단하여 모든 부분 벡터 행렬에 대한 제1값과 제2값으로 이루어진 후보 아이디를 생성한다. 도 12는 각 조명 정규화된 객체 영상에 대한 제1값과 제2값의 일 예를 도시하고 있는데, 제1 조명 정규화된 영상의 모든 부분 벡터 행렬의 제1값과 제2값으로 이루어진 후보 아이디1(ID1), 제2 조명 정규화된 영상의 모든 부분 벡터 행렬의 제1값과 제2값으로 이루어진 후보 아이디(ID2), 제3 조명 정규화된 영상의 모든 부분 벡터 행렬의 제1값과 제2값으로 이루어진 후보 아이디(ID3)은 아래와 같다.Referring back to FIG. 10, a candidate ID for each illumination normalized object image, which is composed of first and second values representing the largest and smallest positions of each partial vector matrix, is generated (S93). . As described above with reference to FIG. 11, in the first partial vector matrix P 1 , the first and second values are 8 and 3, respectively, and the first and second values are determined for the remaining partial vector matrix. A candidate ID including a first value and a second value for the vector matrix is generated. 12 illustrates an example of a first value and a second value for each illumination normalized object image. A candidate ID 1 including first and second values of all partial vector matrices of the first illumination normalized image is illustrated in FIG. (ID 1 ), a candidate ID (ID 2 ) consisting of first and second values of all partial vector matrices of the second illumination normalized image, and first values and first values of all partial vector matrices of the third illumination normalized image A candidate ID consisting of two values (ID 3 ) is shown below.

ID1=(83, 71, 57, 34, 36, 62, 35, 41, 34, 12, 47, 65, 47, 21, 65, 27) ID 1 = (83, 71, 57, 34, 36, 62, 35, 41, 34, 12, 47, 65, 47, 21, 65, 27)

ID2=(83, 71, 57, 35, 36, 52, 35, 41, 34, 12, 47, 65, 47, 23, 65, 27) ID 2 = (83, 71, 57, 35, 36, 52, 35, 41, 34, 12, 47, 65, 47, 23, 65, 27)

ID3=(83, 71, 57, 35, 36, 52, 35, 41, 34, 12, 47, 65, 47, 24, 65, 27) ID 3 = (83, 71, 57, 35, 36, 52, 35, 41, 34, 12, 47, 65, 47, 24, 65, 27)

각 조명 정규화된 객체 영상에 대한 후보 아이디에서 서로 공통된 수로 이루어진 객체의 고유 아이디를 생성한다(95). 즉, 제1 조명 정규화된 영상의 후보 아이디1(ID1), 제2 조명 정규화된 영상의 후보 아이디(ID2), 제3 조명 정규화된 영상의 후보 아이디(ID3)에서 서로 일치하는 경우에는 일치한 수를 그대로 유지하고 서로 일치하지 않는 경우에는 0으로 설정하여 제1 조명 정규화된 영상의 후보 아이디1(ID1), 제2 조명 정규화된 영상의 후보 아이디(ID2), 제3 조명 정규화된 영상의 후보 아이디(ID3)로부터 객체의 고유 아이디를 생성한다.In operation 95, a unique ID of an object having a number common to each other is generated from candidate IDs for each lighting normalized object image. That is, when the candidate ID 1 (ID 1 ) of the first illumination normalized image, the candidate ID (ID 2 ) of the second illumination normalized image, and the candidate ID (ID 3 ) of the third illumination normalized image match each other, If the numbers remain the same and do not match with each other, it is set to 0 so that candidate ID 1 (ID 1 ) of the first illumination normalized image, candidate ID (ID 2 ) of the second illumination normalized image, and third illumination normalization are set. A unique ID of the object is generated from the candidate ID (ID 3 ) of the captured image.

일 실시예로 복수의 조명 정규화된 객체 영상으로부터 각각 생성된 후보 아이디 중에서 하나라도 서로 일치하지 않는 수가 있는 경우에는 0으로 설정할 수 있다. 다른 실시예로 복수의 조명 정규화된 객체 영상으로부터 각각 생성된 후보 아이디가 모두 서로 상이한 경우 0으로 설정하고 일치하는 수가 존재하는 경우 일치하는 수로 고유 아이디를 설정할 수 있다.According to an embodiment, when one of the candidate IDs generated from each of the plurality of illumination normalized object images does not match each other, it may be set to zero. In another embodiment, when all candidate IDs generated from the plurality of illumination normalized object images are different from each other, the candidate IDs may be set to 0. If there is a matching number, the unique IDs may be set to the matching numbers.

도 12에서 제1 조명 정규화된 영상의 후보 아이디1(ID1), 제2 조명 정규화된 영상의 후보 아이디(ID2), 제3 조명 정규화된 영상의 후보 아이디(ID3)로부터 생성된 일 실시예에 따른 고유 아이디(I)는 아래와 같다.In FIG. 12, a candidate ID 1 (ID 1 ) of the first illumination normalized image, a candidate ID (ID 2 ) of the second illumination normalized image, and a candidate ID (ID 3 ) of the third illumination normalized image are generated. Unique ID (I) according to the example is as follows.

ID=(83, 71, 57, 30, 36, 02, 35, 41, 34, 12, 47, 65, 47, 20, 65, 27) ID = (83, 71, 57, 30, 36, 02, 35, 41, 34, 12, 47, 65, 47, 20, 65, 27)

한편, 도 12에서 제1 조명 정규화된 영상의 후보 아이디1(ID1), 제2 조명 정규화된 영상의 후보 아이디(ID2), 제3 조명 정규화된 영상의 후보 아이디(ID3)로부터 생성된 다른 실시예에 따른 고유 아이디(I)는 아래와 같다.Meanwhile, in FIG. 12, candidate ID 1 (ID 1 ) of the first illumination normalized image, candidate ID (ID 2 ) of the second illumination normalized image, and candidate ID (ID 3 ) of the third illumination normalized image are generated. Unique ID (I) according to another embodiment is as follows.

ID=(83, 71, 57, 35, 36, 52, 35, 41, 34, 12, 47, 65, 47, 20, 65, 27) ID = (83, 71, 57, 35, 36, 52, 35, 41, 34, 12, 47, 65, 47, 20, 65, 27)

한편, 상술한 본 발명의 실시 예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.Meanwhile, the above-described embodiments of the present invention can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium.

상기 컴퓨터로 읽을 수 있는 기록 매체는 마그네틱 저장 매체(예를 들어, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장 매체를 포함한다.The computer-readable recording medium may be a magnetic storage medium (for example, a ROM, a floppy disk, a hard disk, etc.), an optical reading medium (for example, a CD-ROM, DVD, etc.) and a carrier wave (for example, the Internet). Storage medium).

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다. Although the present invention has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

110: 영상 촬영부 130: 정규화 영상 생성부
150: 특징점 생성부 170: 고유 특징점 생성부
190: 고유 아이디 생성부 131: 제1 반전부
133: 조명 성분 추출부 135: 제2 반전부
137: 조명 정규화부 138: 평활화부
139: 제3 반전부 171: 그룹 생성부
173: 후보 고유 특징점 생성부 175: 고유 특징점 생성부
110: image capturing unit 130: normalized image generating unit
150: feature point generator 170: unique feature point generator
190: unique ID generation unit 131: first inverting unit
133: lighting component extraction unit 135: second inversion unit
137: lighting normalization unit 138: smoothing unit
139: third inverting unit 171: group generating unit
173: candidate unique feature point generator 175: unique feature point generator

Claims (8)

동일 객체를 촬영한 서로 상이한 복수의 객체 영상에서 조명 성분을 추정하고 추정한 조명 성분에 기초하여 복수의 객체 영상별로 조명 정규화된 영상을 생성하는 단계;
SIFT(Scale Invariant Feature Transform) 알고리즘을 이용하여 상기 조명 정규화된 객체 영상별로 특징점(keypoint)을 추출하고, 상기 추출한 특징점의 서술자를 생성하는 단계;
각 조명 정규화된 객체 영상의 특징점 서술자에 기초하여 특징점 사이의 거리로부터 각 객체 영상에 대한 조명 정규화된 객체 영상에서 배경 영역의 특징점을 제거한, 서로 매칭되는 객체의 고유 특징점을 추출하는 단계;
각 조명 정규화된 객체 영상의 고유 특징점에 대한 서술자의 벡터 행렬로부터 생성되는 각 조명 정규화된 객체 영상의 아이디 후보로부터 상기 객체의 고유 아이디를 생성하는 단계를 포함하는 것을 특징으로 하는 객체의 고유 아이디 생성 방법.
Estimating an illumination component from a plurality of different object images photographing the same object and generating an illumination normalized image for each of the plurality of object images based on the estimated illumination component;
Extracting a keypoint for each of the illumination normalized object images using a scale invariant feature transform (SIFT) algorithm, and generating a descriptor of the extracted feature point;
Extracting unique feature points of objects matching each other by removing feature points of a background area from the illumination normalized object image for each object image from the distance between the feature points based on the feature point descriptor of each illumination normalized object image;
Generating a unique ID of the object from an ID candidate of each lighting normalized object image generated from a vector matrix of descriptors for the unique feature points of each lighting normalized object image. .
제 1 항에 있어서, 상기 조명 정규화된 객체 영상은
상기 객체 영상을 반전시켜 반전 객체 영상을 생성하는 단계;
저주파 조명 성분을 추출하기 하기 위해 평균 필터를 상기 반전 객체 영상에 적용하여 반전 추정 조명 성분을 계산하는 단계;
상기 반전 추정 조명 성분을 재반전시켜 추정 조명 성분을 계산하는 단계;
상기 추정 조명 성분과 상기 객체 영상을 서로 합하여 조명 정규화된 반전 객체 영상을 생성하는 단계;
상기 조명 정규화된 반전 객체 영상을 히스토그램 평활화(Histogram Equalization)하여 상기 조명 정규화된 반전 객체 영상의 픽셀값을 확산 분포시킨 반전 평활화 영상을 생성하는 단계; 및
상기 반전 평활화 영상을 재반전시켜 조명 정규화된 객체 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 객체의 고유 아이디 생성 방법.
The method of claim 1, wherein the illumination normalized object image
Inverting the object image to generate an inverted object image;
Calculating an inverse estimated illumination component by applying an average filter to the inverted object image to extract a low frequency illumination component;
Reversing the inverse estimated illumination component to calculate an estimated illumination component;
Generating an illumination normalized inverted object image by adding the estimated illumination component and the object image to each other;
Generating a inverted smoothed image in which histogram equalization of the illumination normalized inverted object image is performed to diffusely distribute pixel values of the illumination normalized inverted object image; And
Generating an illumination normalized object image by reversing the inverted smoothed image.
제 1 항에 있어서, 상기 객체의 고유 특징점을 추출하는 단계는
복수의 조명 정규화된 객체 영상 중 선택된 2개의 조명 정규화된 객체 영상의 특징점으로 이루어진 특징점 그룹에 대해 특징점 서술자에 기초하여 특징점 사이의 거리로부터 특징점 그룹에서 서로 매칭되는 후보 고유 특징점을 추출하는 단계; 및
상기 복수의 조명 정규화된 객체 영상으로부터 생성되는 모든 특징점 그룹으로부터 추출한 후보 고유 특징점에 기초하여 모든 특징점 그룹에서 공통으로 매칭되는 고유 특징점을 추출하는 단계를 포함하는 것을 특징으로 하는 객체의 고유 아이디 생성 방법.
The method of claim 1, wherein the extracting the unique feature points of the object
Extracting candidate intrinsic feature points that match each other in the feature point group from the distance between the feature points based on the feature point descriptor for the feature point group consisting of the feature points of the selected two illumination normalized object images among the plurality of illumination normalized object images; And
And extracting unique feature points that are commonly matched in all feature point groups based on candidate unique feature points extracted from all feature point groups generated from the plurality of illumination normalized object images.
제 3 항에 있어서, 상기 후보 고유 특징점을 추출하는 단계에서 아래의 수학식(1)에 의해 후보 고유 특징점을 추출하는데,
[수학식 1]
Figure pat00007

여기서 v1n은 제1 조명 정규화된 객체 영상의 특징점이며, v2i, v2j는 제2 조명 정규화된 객체 영상의 특징점들 중 v1n에 가장 가까운 위치의 2개의 특징점이며, dR은 추출 가중치이며,
수학식(1)을 만족하는 경우 v1n, v2i는 후보 고유 특징점으로 추출되는 것을 특징으로 하는 객체의 고유 아이디 생성 방법.
The method of claim 3, wherein in the extracting of the candidate unique feature points, the candidate unique feature points are extracted by Equation (1) below.
[Equation 1]
Figure pat00007

Where v 1n is a feature point of the first illumination normalized object image, v 2i , v 2j are two feature points of the position closest to v 1n among the feature points of the second illumination normalized object image, and d R is an extraction weight ,
If you satisfy the equation (1) v 1n , v 2i is a method for generating a unique ID of an object, which is extracted as a candidate unique feature point.
제 3 항에 있어서, 상기 고유 아이디를 생성하는 단계는
각 조명 정규화된 객체 영상의 고유 특징점에 대한 서술자의 벡터 행렬로부터 생성되는 각 부분 벡터 행렬의 8차원 주성분에서 가장 큰 수와 가장 작은 수의 위치를 판단하는 단계;
각 부분 벡터 행렬의 가장 큰 수와 가장 작은 수의 위치를 나타내는 제1 값과 제2 값으로 이루어진, 상기 각 조명 정규화된 객체 영상에 대한 후보 아이디를 생성하는 단계;
상기 각 조명 정규화된 객체 영상에 대한 후보 아이디에서 서로 공통된 수로 이루어진 객체의 고유 아이디를 생성하는 단계를 포함하는 것을 특징으로 하는 객체의 고유 아이디 생성 방법.
The method of claim 3, wherein generating a unique ID
Determining the largest and smallest positions in the eight-dimensional principal component of each partial vector matrix generated from the vector matrix of descriptors for the unique feature points of each illumination normalized object image;
Generating a candidate ID for each illumination normalized object image, comprising a first value and a second value representing the largest and smallest positions of each partial vector matrix;
And generating a unique ID of an object having a number common to each other from candidate IDs of the lighting normalized object images.
제 1 항 내지 제 5 항 중 어느 한 항에 있어서, 상기 특징점을 추출하는 단계는
다른 레벨의 분산을 가지는 가우시안 함수에 의해 블러(blur)된 스케일 공간 영상을 생성하는 단계;
상기 스케일 공간 영상 중 인접 영상의 차로부터 가우시안 차 영상을 생성하는 단계;
상기 가우시안 차 영상 중 현재 픽셀에 인접한 인접 픽셀, 상기 가운시안 차 영상에 상위 및 하위 인접한 인접 가운시안 차 영상 중 상기 현재 픽셀에 인접한 차위 인접 픽셀에서 최대 또는 최소 픽셀값을 가지는 후보 특징점을 판단하는 단계; 및
상기 후보 특징점에서 불안정한 후보 특징점을 제거하여 특징점을 추출하는 단계를 포함하는 것을 특징으로 하는 객체의 고유 아이디 생성 방법.
The method of any one of claims 1 to 5, wherein the extracting the feature points
Generating a scale spatial image blurred by a Gaussian function having a different level of variance;
Generating a Gaussian difference image from the difference of adjacent images among the scale spatial images;
Determining a candidate feature point having a maximum or minimum pixel value in a neighboring pixel adjacent to a current pixel of the Gaussian difference image and a next neighboring pixel adjacent to the current pixel among upper and lower adjacent neighboring gownian difference images; ; And
And extracting the feature point by removing the unstable candidate feature point from the candidate feature point.
제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
상기 특징점을 중심으로 상기 특징점의 인접 픽셀을 이용하여 상기 특징점과 상기 특징점 인접 픽셀 사이의 방위각과 크기를 계산하는 단계;
상기 계산한 방위각의 히스토그램으로부터 상기 특징점의 기준 방위를 판단하는 단계;
상기 기준 방위에 기초하여 상기 특징점 주변에 위치한 국부 영역의 그레디언트 방향과 크기로 표현되는 특징점 서술자를 생성하는 단계를 포함하는 것을 특징으로 하는 객체의 고유 아이디 생성 방법.
The method according to any one of claims 1 to 5,
Calculating an azimuth and magnitude between the feature point and the feature point adjacent pixel using the pixels adjacent to the feature point around the feature point;
Determining a reference orientation of the feature point from the calculated histogram of the azimuth angle;
And generating a feature point descriptor expressed in a gradient direction and a size of a local area located around the feature point based on the reference orientation.
제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
동일 객체를 촬영한 서로 상이한 3개의 객체 영상에서 잡음을 제거하여 3개의 객체 영상 각각에 대한 조명 정규화된 객체 영상을 획득하는 것을 특징으로 하는 객체의 고유 아이디 생성 방법.
The method according to any one of claims 1 to 5,
A method of generating a unique ID of an object, characterized by obtaining a lighting normalized object image for each of the three object images by removing noise from three different object images photographing the same object.
KR1020180046529A 2018-04-23 2018-04-23 Method for producing unique ID of object KR102124244B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180046529A KR102124244B1 (en) 2018-04-23 2018-04-23 Method for producing unique ID of object
PCT/KR2018/005332 WO2019208864A1 (en) 2018-04-23 2018-05-10 Method for generating unique id of object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180046529A KR102124244B1 (en) 2018-04-23 2018-04-23 Method for producing unique ID of object

Publications (2)

Publication Number Publication Date
KR20190122966A true KR20190122966A (en) 2019-10-31
KR102124244B1 KR102124244B1 (en) 2020-06-23

Family

ID=68295607

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180046529A KR102124244B1 (en) 2018-04-23 2018-04-23 Method for producing unique ID of object

Country Status (2)

Country Link
KR (1) KR102124244B1 (en)
WO (1) WO2019208864A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080078217A (en) * 2007-02-22 2008-08-27 정태우 Method for indexing object in video, method for annexed service using index of object and apparatus for processing video
KR20120094353A (en) * 2011-02-16 2012-08-24 인하대학교 산학협력단 A visual shape descriptor generating method using sectors and shape context of contour lines and the recording medium thereof
KR101442042B1 (en) * 2013-06-21 2014-09-23 한국과학기술원 Method and apparatus for recognizing 3d object using descriptor based on complementary feature point
KR20150039310A (en) * 2013-10-02 2015-04-10 한국전자통신연구원 Apparatus and method for recognizing object based sub region
KR20170096492A (en) * 2016-02-16 2017-08-24 삼성전자주식회사 Method for extracting feature of image to recognize object

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080078217A (en) * 2007-02-22 2008-08-27 정태우 Method for indexing object in video, method for annexed service using index of object and apparatus for processing video
KR20120094353A (en) * 2011-02-16 2012-08-24 인하대학교 산학협력단 A visual shape descriptor generating method using sectors and shape context of contour lines and the recording medium thereof
KR101442042B1 (en) * 2013-06-21 2014-09-23 한국과학기술원 Method and apparatus for recognizing 3d object using descriptor based on complementary feature point
KR20150039310A (en) * 2013-10-02 2015-04-10 한국전자통신연구원 Apparatus and method for recognizing object based sub region
KR20170096492A (en) * 2016-02-16 2017-08-24 삼성전자주식회사 Method for extracting feature of image to recognize object

Also Published As

Publication number Publication date
KR102124244B1 (en) 2020-06-23
WO2019208864A1 (en) 2019-10-31

Similar Documents

Publication Publication Date Title
Hsia New verification strategy for finger-vein recognition system
Hurley et al. Force field feature extraction for ear biometrics
JP6544900B2 (en) Object identification device, object identification method and program
KR100950776B1 (en) Method of face recognition
JP2013513168A (en) Fast subspace projection of descriptor patches for image recognition
CN108416291B (en) Face detection and recognition method, device and system
US11176409B2 (en) Distance-independent keypoint detection
JP2013541119A (en) System and method for improving feature generation in object recognition
CN113614731A (en) Authentication verification using soft biometrics
Lakemond et al. Hessian-based affine adaptation of salient local image features
Ismail et al. Efficient enhancement and matching for iris recognition using SURF
Donida Labati et al. A scheme for fingerphoto recognition in smartphones
Tiwari et al. A palmprint based recognition system for smartphone
KR101450247B1 (en) Method for authenticating based on finger vein using SIFT keypoint
Kumar et al. Rank level integration of face based biometrics
Vinay et al. Surveillance robots based on pose invariant face recognition using SSIM and spectral clustering
Pflug et al. Segmentation and normalization of human ears using cascaded pose regression
Carro et al. Face recognition using SURF
KR102124244B1 (en) Method for producing unique ID of object
KR102072298B1 (en) Method for estimating identity of object
KR101741761B1 (en) A classification method of feature points required for multi-frame based building recognition
Wu et al. An accurate feature point matching algorithm for automatic remote sensing image registration
Rodríguez et al. CNN-assisted coverings in the Space of Tilts: best affine invariant performances with the speed of CNNs
Dhawanpatil et al. Face spoofing detection using multiscale local binary pattern approach
Maurya et al. Spoofed Video Detection Using Histogram of Oriented Gradients

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant