KR20200013160A - Nose pattern recognition system and method based on deep learning - Google Patents

Nose pattern recognition system and method based on deep learning Download PDF

Info

Publication number
KR20200013160A
KR20200013160A KR1020180084266A KR20180084266A KR20200013160A KR 20200013160 A KR20200013160 A KR 20200013160A KR 1020180084266 A KR1020180084266 A KR 1020180084266A KR 20180084266 A KR20180084266 A KR 20180084266A KR 20200013160 A KR20200013160 A KR 20200013160A
Authority
KR
South Korea
Prior art keywords
image
feature point
inscription
species
unit
Prior art date
Application number
KR1020180084266A
Other languages
Korean (ko)
Other versions
KR102466215B1 (en
Inventor
권준석
조성민
팽진욱
김찬일
김태홍
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020180084266A priority Critical patent/KR102466215B1/en
Publication of KR20200013160A publication Critical patent/KR20200013160A/en
Application granted granted Critical
Publication of KR102466215B1 publication Critical patent/KR102466215B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06K9/00362
    • G06K9/48
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

The present invention relates to a deep learning-based nose pattern recognition system and to a method thereof. The deep learning-based nose pattern recognition system can input a face image of an animal belonging to a canine family, extract a nose pattern feature point image from the input face image, determine a detailed species of the animal by comparing the extracted nose pattern feature point image with a plurality of images stored in a first database unit, and output the determined detailed species result. Accordingly, the deep learning-based nose pattern recognition system of the present invention prevents the animal from being thrown away through the division of the species, the detailed species, and the like of the animal belonging to the canine family, and is capable of finding abandoned animals. In addition, according to the present invention, by determining the species based on deep learning for both the primary species determination and the secondary detailed species determination, the animal can be more objectively, accurately, and quickly recognized.

Description

딥러닝 기반 비문 인식 시스템 및 방법{Nose pattern recognition system and method based on deep learning}Nose pattern recognition system and method based on deep learning

본 발명은 비문 인식에 관한 것으로, 더욱 상세하게는 딥러닝을 기반으로 개과에 속하는 동물의 비문을 인식하여 세부 종을 판단하는 딥러닝 기반 비문 인식 시스템 및 방법에 관한 것이다.The present invention relates to inscription recognition, and more particularly, to a deep learning based inscription recognition system and method for recognizing inscriptions of animals belonging to a canine based on deep learning to determine detailed species.

인간은 신분을 검증하고 확인하는 방법으로 생체인증(Biometrics) 분야를 사용하고 있고, 이는 이미 오랜 기간 동안 발전해왔다. 이러한 생체인증 방식으로는 지문인식, 홍채인식, 정맥인식(Vein recognition) 등이 있다. Humans are using the field of biometrics as a way to verify and verify their identity, which has been developed for a long time. Such biometric authentication methods include fingerprint recognition, iris recognition, and vein recognition.

이와 관련하여 인간의 지문은 사람마다 모두 다르듯이, 개과에 속하는 동물들의 비문(코 무늬)은 동물마다 각각 다르다. 이에 이를 이용하여 동물의 종 확인 또는 주인이 찾고자 하는 동물을 확인할 수 있는 방법은 동물의 체계적인 관리를 가능하게 할 수 있다.In this regard, as human fingerprints vary from person to person, the inscriptions of animals belonging to the canine vary from animal to animal. Therefore, the method of identifying the species of the animal or identifying the animal that the owner wants to find may enable systematic management of the animal.

다만 일반적인 사람의 지문인식 방법과, 동물의 비문인식 방법은 구체적인 인식방식 등의 차이가 있기 때문에 이를 위한 새로운 모델을 마련할 필요성이 있다.However, the fingerprint recognition method of the general person and the inscription recognition method of the animal are different from the specific recognition method, so it is necessary to prepare a new model for this.

한국등록특허공보 제1494716호Korean Patent Publication No. 1494716 일본등록특허공보 제4190209호Japanese Patent Publication No. 4190209

이에 본 발명은 상기와 같은 제반 사항을 고려하여 제안된 것으로, 개과에 속하는 동물의 종, 세부 종 등의 구분을 통해 동물이 버려지는 것을 예방하고, 유기된 동물을 찾을 수 있도록 하는 것을 목적으로 한다.Accordingly, the present invention has been proposed in consideration of the above-described matters, and aims to prevent the animal from being discarded by distinguishing between the species and detailed species of the animal belonging to the canine and to find the abandoned animal. .

또한 본 발명은 개과에 속하는 각 동물의 비문 특성에 따라 영상 처리에 따른 파라미터를 용이하게 변경함으로써, 각 동물의 비문 특성에 따른 최적화된 이미지 처리를 구현하는 것을 목적으로 한다.In addition, an object of the present invention is to implement an optimized image processing according to the inscription characteristics of each animal by easily changing the parameters according to the image processing in accordance with the inscription characteristics of each animal belonging to the canine.

또한 본 발명은 개과에 속하는 동물의 비문에서 망 형태의 이미지를 효과적으로 추출하는 것을 목적으로 한다.In addition, the present invention aims to effectively extract the image of the network form from the inscription of the animal belonging to the canine.

또한 본 발명은 개과에 속하는 동물의 비문으로부터 보다 안정적인 특징점을 추출하는 것을 목적으로 한다.It is also an object of the present invention to extract more stable feature points from the inscriptions of animals belonging to the canine.

또한 본 발명은 1차 종 판단, 2차 세부 종 판단을 통해 에러를 최소화하며 구별 모호성을 방지하는 것을 목적으로 한다. In addition, the present invention aims to minimize error and prevent distinct ambiguity through primary species determination and secondary detailed species determination.

또한 본 발명은 1차 종 판단, 2차 세부 종 판단 모두 딥러닝을 기반으로 종을 판단함으로써, 보다 객관적이면서 정확하고 빠르게 인식하는 것을 목적으로 한다.In addition, the present invention aims to recognize species more objectively, accurately and quickly by judging species based on deep learning in both primary species determination and secondary detailed species determination.

본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해할 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects that are not mentioned will be clearly understood by those skilled in the art from the following description.

상기와 같은 목적을 달성하기 위하여 본 발명의 기술적 사상에 의한 딥러닝 기반 비문 인식 시스템은 개과에 속하는 동물의 얼굴 이미지를 입력하는 이미지 입력부, 입력된 얼굴 이미지로부터 비문 특징점 이미지를 추출하는 비문 특징점 이미지 추출부, 추출된 비문 특징점 이미지와 제 1 데이터베이스부에 저장된 복수 개의 이미지와 비교를 통해 동물의 세부 종을 판단하는 세부 종 판단부, 판단된 세부 종 결과를 출력하는 세부 종 결과 출력부를 포함할 수 있다.In order to achieve the above object, the deep learning-based inscription recognition system according to the present invention provides an image input unit for inputting a face image of an animal belonging to a canine, and extracts an inscription feature point image from the input face image. And a detailed species determination unit for determining the detailed species of the animal through comparison with the extracted inscription feature point image and the plurality of images stored in the first database unit, and a detailed species result output unit for outputting the determined detailed species result. .

이 때 비문 특징점 이미지 추출부는 입력된 얼굴 이미지 중 관심영역(ROI: Region Of Interest)에 해당하는 이미지를 설정한 후, 이를 전처리하는 전처리부, 전처리된 관심영역 이미지를 필터링하여 패턴 값이 추출된 필터 이미지를 출력하는 필터 이미지 출력부, 출력된 필터 이미지로부터 특징점을 추출하여 비문 특징점 이미지를 출력하는 특징점 이미지 출력부를 포함할 수 있다.In this case, the inscription feature point image extractor sets an image corresponding to a region of interest (ROI) among the input face images, and then a preprocessing unit preprocessing the filtered image and a preprocessed ROI image to extract a pattern value. A filter image output unit for outputting an image, and a feature point image output unit for outputting an inscription feature point image by extracting feature points from the output filter image.

특징점 이미지 출력부에서 추출된 특징점은 적어도 하나 이상의 비문 특징점 위치, 스케일 및 방향을 포함할 수 있다.The feature point extracted from the feature point image output unit may include at least one inscription feature point position, scale, and direction.

전처리부는 관심영역 이미지의 설정을 위해 입력된 얼굴 이미지에 적응 임계(Adaptive thresholding) 알고리즘을 적용할 수 있다.The preprocessor may apply an adaptive thresholding algorithm to the input face image for setting the ROI image.

필터 이미지 출력부는 필터 이미지의 출력을 위해 전처리된 관심영역 이미지에 가보 필터(Gabor filter)를 적용할 수 있다.The filter image output unit may apply a Gabor filter to the ROI image preprocessed for output of the filter image.

특징점 이미지 출력부는 특징점의 추출을 위해 출력된 필터 이미지에 시프트 알고리즘(Shift algorithm)을 적용할 수 있다.The feature point image output unit may apply a shift algorithm to the output filter image for extracting feature points.

세부 종 판단부는 추출된 특징점과 제 1 데이터베이스부에 저장된 복수 개 이미지의 특징점 간 유클리드 거리 값(Euclidean distance, L2-Norm)을 각각 산출하여 비교하는 이미지 비교부, 제 1 데이터베이스부에 저장된 복수 개 이미지의 특징점 중 산출된 유클리드 거리 값이 가장 작은 이미지의 특징점을 매칭 특징점으로 선정하는 매칭 특징점 선정부를 포함할 수 있다.The detail type determination unit is an image comparison unit which calculates and compares Euclidean distance values (Euclidean distance, L2-Norm) between the extracted feature points and the feature points of the plurality of images stored in the first database unit, and the plurality of images stored in the first database unit. The matching feature point selection unit may select a feature point of the image having the smallest Euclidean distance value among the feature points as a matching feature point.

매칭 특징점 선정부는 선정된 매칭 특징점 외에 산출된 유클리드 거리 값이 작은 순으로 매칭 특징점을 추가로 더 선정한 후, 다음 수학식으로 정의되는 매칭 판단식을 이용하여 선정된 매칭 특징점의 매칭 신뢰도를 판단할 수 있다.The matching feature point selector may further select the matching feature points in order of decreasing Euclidean distance value in addition to the selected matching feature points, and determine the matching reliability of the selected matching feature points using a matching decision equation defined by the following equation. have.

<수학식>Equation

E2 / E1 > (임계 값)E2 / E1> (Threshold)

(E1 : 선정된 매칭 특징점, E2 : 추가로 선정된 매칭 특징점)(E1: selected matching feature point, E2: additionally selected matching feature point)

이미지 입력부로부터 입력된 얼굴 이미지와 제 2 데이터베이스부에 저장된 이미지와의 비교를 통해 동물의 종을 판단하는 종 판단부를 더 포함할 수 있다.The apparatus may further include a species determination unit that determines a species of the animal by comparing the face image input from the image input unit with the image stored in the second database unit.

제 1 데이터베이스부는 동물의 세부 종을 판단할 수 있는 표준화된 데이터로 수집된 복수 개의 변이(Variation) 이미지를 포함할 수 있다.The first database unit may include a plurality of variation images collected with standardized data capable of determining the detailed species of the animal.

제 2 데이터베이스부는 동물의 종을 판단할 수 있는 표준화된 데이터로 수집된 복수 개의 종(Breed) 이미지를 포함할 수 있다.The second database unit may include a plurality of breed images collected with standardized data that may determine the species of the animal.

상기와 같은 목적을 달성하기 위하여 본 발명의 기술적 사상에 의한 딥러닝 기반 비문 인식 방법은 이미지 입력부에서 개과에 속하는 동물의 얼굴 이미지를 입력받는 이미지 입력 단계, 비문 특징점 이미지 추출부에서 입력된 얼굴 이미지로부터 비문 특징점 이미지를 추출하는 비문 특징점 이미지 추출 단계, 세부 종 판단부에서 추출된 비문 특징점 이미지와 제 1 데이터베이스부에 저장된 복수 개의 이미지와 비교를 통해 동물의 세부 종을 판단하는 세부 종 판단 단계, 세부 종 결과 출력부에서 판단된 세부 종 결과를 출력하는 세부 종 결과 출력 단계를 포함할 수 있다.In order to achieve the above object, the deep learning-based inscription recognition method according to the present invention includes an image input step of receiving a face image of an animal belonging to a canine from an image input unit, and a face image input from an inscription feature point image extractor. An inscription feature point image extraction step of extracting an inscription feature point image, a detail species determination step of determining a detailed species of an animal by comparing the inscription feature point image extracted by the detail species determination unit with a plurality of images stored in the first database unit, and the detail species The detailed seed result output step of outputting the detailed seed result determined by the result output unit may be included.

비문 특징점 이미지 추출 단계는 전처리부에서 입력된 얼굴 이미지 중 관심영역(ROI: Region Of Interest)에 해당하는 이미지를 설정한 후, 이를 전처리하는 전처리 단계, 필터 이미지 출력부에서 전처리된 관심영역 이미지를 필터링하여 패턴 값이 추출된 필터 이미지를 출력하는 필터 이미지 출력 단계, 특징점 이미지 출력부에서 출력된 필터 이미지로부터 특징점을 추출하여 비문 특징점 이미지를 출력하는 특징점 이미지 출력 단계를 포함할 수 있다.The inscription feature point image extraction step sets an image corresponding to a region of interest (ROI) among face images input by the preprocessor, and then preprocesses the preprocessing step, and filters the preprocessed ROI image from the filter image output unit. The filter image output step may include outputting a filter image from which a pattern value is extracted, and outputting a feature point image by extracting feature points from the filter image output from the feature point image output unit.

특징점 이미지 출력 단계에서 추출된 특징점은 적어도 하나 이상의 비문 특징점 위치, 스케일 및 방향을 포함할 수 있다.The feature point extracted in the feature point image output step may include at least one inscription feature point position, scale, and direction.

전처리 단계는 관심영역 이미지의 설정을 위해 입력된 얼굴 이미지에 적응 임계(Adaptive thresholding) 알고리즘을 적용할 수 있다.In the preprocessing step, an adaptive thresholding algorithm may be applied to the input face image for setting the ROI image.

필터 이미지 출력 단계는 필터 이미지의 출력을 위해 전처리된 관심영역 이미지에 가보 필터(Gabor filter)를 적용할 수 있다.The filter image output step may apply a Gabor filter to the ROI image preprocessed for output of the filter image.

특징점 이미지 출력 단계는 특징점의 추출을 위해 출력된 필터 이미지에 시프트 알고리즘(Shift algorithm)을 적용할 수 있다.In the feature point image output step, a shift algorithm may be applied to the output filter image for extraction of the feature point.

세부 종 판단 단계는 이미지 비교부에서 추출된 비문 특징점과 제 1 데이터베이스부에 저장된 복수 개 이미지의 특징점 간 유클리드 거리 값(Euclidean distance, L2-Norm)을 각각 산출하여 비교하는 이미지 비교 단계, 매칭 특징점 선정부에서 제 1 데이터베이스부에 저장된 복수 개 이미지의 특징점 중 산출된 유클리드 거리 값이 가장 작은 이미지의 특징점을 매칭 특징점으로 선정하는 매칭 특징점 선정 단계를 포함할 수 있다.The detailed species determination step includes an image comparison step of calculating and comparing Euclidean distance values (L2-Norm) between the inscription feature points extracted from the image comparison unit and the feature points of the plurality of images stored in the first database unit, and the matching feature point line. And a matching feature point selecting step of selecting, as a matching feature point, a feature point of the image having the smallest Euclidean distance value among the feature points of the plurality of images stored in the first database unit.

매칭 특징점 선정 단계는 선정된 매칭 특징점 외에 산출된 유클리드 거리 값이 작은 순으로 매칭 특징점을 추가로 더 선정한 후, 다음 수학식으로 정의되는 매칭 판단식을 이용하여 선정된 매칭 특징점의 매칭 신뢰도를 판단할 수 있다.In the matching feature point selection step, the matching feature points are further selected in order of the calculated Euclidean distance values in addition to the selected matching feature points, and then the matching reliability of the selected matching feature points is determined using a matching decision equation defined by the following equation. Can be.

<수학식>Equation

E2 / E1 > (임계 값)E2 / E1> (Threshold)

(E1 : 선정된 매칭 특징점, E2 : 추가로 선정된 매칭 특징점)(E1: selected matching feature point, E2: additionally selected matching feature point)

종 판단부에서 이미지 입력 단계로부터 입력된 얼굴 이미지와 제 2 데이터베이스부에 저장된 이미지와의 비교를 통해 상기 동물의 종을 판단하는 종 판단 단계를 더 포함할 수 있다.The species determination unit may further include a species determination step of determining the species of the animal by comparing the face image input from the image input step with the image stored in the second database unit.

제 1 데이터베이스부는 동물의 세부 종을 판단할 수 있는 표준화된 데이터로 수집된 복수 개의 변이(Variation) 이미지를 포함할 수 있다.The first database unit may include a plurality of variation images collected with standardized data capable of determining the detailed species of the animal.

제 2 데이터베이스부는 동물의 종을 판단할 수 있는 표준화된 데이터로 수집된 복수 개의 종(Breed) 이미지를 포함할 수 있다.The second database unit may include a plurality of breed images collected with standardized data that may determine the species of the animal.

이상에서 설명한 바와 같은 딥러닝 기반 비문 인식 시스템 및 방법에 따르면, According to the deep learning-based inscription recognition system and method as described above,

첫째, 개과에 속하는 동물의 종, 세부 종 등의 구분을 통해 동물이 버려지는 것을 예방하고, 유기된 동물을 찾을 수 있는 효과를 가진다.First, it is possible to prevent the animal from being discarded by distinguishing between the species, detailed species, etc. of the animal belonging to the canine, and has the effect of finding an abandoned animal.

둘째, 개과에 속하는 각 동물의 비문 특성에 따라 영상 처리에 따른 파라미터를 용이하게 변경함으로써, 각 동물의 비문 특성에 따른 최적화된 이미지 처리를 구현할 수 있는 효과를 가진다.Second, by easily changing the parameters according to the image processing according to the inscription characteristics of each animal belonging to the canine, it has the effect that can implement the optimized image processing according to the inscription characteristics of each animal.

셋째, 개과에 속하는 동물의 비문에서 망 형태의 이미지를 효과적으로 추출할 수 있는 효과를 가진다.Third, it has an effect that can effectively extract the image of the network form from the inscription of the animal belonging to the canine.

넷째, 개과에 속하는 동물의 비문으로부터 보다 안정적인 특징점을 추출할 수 있는 효과를 가진다.Fourth, it has the effect of extracting more stable feature points from the inscriptions of animals belonging to the canine.

다섯째, 1차 종 판단, 2차 세부 종 판단을 통해 에러를 최소화하며 구별 모호성을 방지할 수 있는 효과를 가진다. Fifth, it is possible to minimize error and prevent distinct ambiguity through the determination of the primary species and the secondary detailed species.

여섯째, 1차 종 판단, 2차 세부 종 판단 모두 딥러닝을 기반으로 종을 판단함으로써, 보다 객관적이면서 정확하고 빠르게 인식할 수 있는 효과를 가진다.Sixth, the primary species judgment and the secondary detailed species judgment both judge the species based on deep learning, thereby having an effect that can be recognized more objectively, accurately and quickly.

도 1은 본 발명의 제 1 실시예에 따른 딥러닝 기반 비문 인식 시스템을 나타낸 구성도.
도 2는 본 발명의 제 2 실시예에 따른 딥러닝 기반 비문 인식 시스템을 나타낸 구성도.
도 3은 본 발명의 제 1 실시예에 따른 딥러닝 기반 비문 인식 방법을 나타낸 순서도.
도 4는 본 발명의 제 2 실시예에 따른 딥러닝 기반 비문 인식 방법을 나타낸 순서도.
도 5는 본 발명의 실시예에 따른 비문 특징점 이미지 추출 단계(S300)를 나타낸 순서도.
도 6은 본 발명의 실시예에 따른 세부 종 판단 단계(S400)를 나타낸 순서도.
도 7은 본 발명의 실시예로서 강아지(또는 개)의 비문 특징점을 추출하는 과정을 나타낸 도면.
도 8은 본 발명의 실시예로서 강아지(또는 개)의 비문 선의 굵기(8~15[pixel])에 따른 가보 필터링(Gabor filtering) 이미지 결과를 나타낸 도면.
도 9는 본 발명의 실시예로서 가보 필터의 평행선 방향(

Figure pat00001
)에 따른 가보 필터링 이미지 결과를 나타낸 도면.
도 10은 본 발명의 실시예로서 강아지(또는 개)의 비문 매칭 과정을 나타낸 도면.
도 11은 본 발명의 실시예로서 5마리 강아지(또는 개)에 대한 점수 비교를 나타낸 그래프.
도 12는 본 발명의 실시예로서 시프트(Shift), 서프(Surf), 오브(Orb) 매칭을 비교한 도면.
도 13은 본 발명의 실시예로서 매칭 방법에 따른 정확도 및 시간 결과를 나타낸 그래프. 1 is a block diagram showing a deep learning-based inscription recognition system according to a first embodiment of the present invention.
2 is a block diagram showing a deep learning based inscription recognition system according to a second embodiment of the present invention.
3 is a flowchart illustrating a deep learning based inscription recognition method according to a first embodiment of the present invention.
4 is a flowchart illustrating a deep learning based inscription recognition method according to a second embodiment of the present invention.
5 is a flowchart illustrating an inscription feature point image extraction step S300 according to an embodiment of the present invention.
Figure 6 is a flow chart showing a detailed species determination step (S400) according to an embodiment of the present invention.
7 is a view showing a process of extracting the inscription feature point of the dog (or dog) as an embodiment of the present invention.
8 is a diagram showing Gabor filtering image results according to the thickness (8-15 [pixel]) of an inscription line of a dog (or dog) as an embodiment of the present invention.
9 is an embodiment of the present invention in the parallel direction (
Figure pat00001
Figure shows the Gabor filtered image results according to).
10 is a view showing an inscription matching process of a dog (or dog) as an embodiment of the present invention.
11 is a graph showing a score comparison for five puppies (or dogs) as an embodiment of the invention.
FIG. 12 is a diagram comparing shift, surf and orb matching as an embodiment of the present invention. FIG.
13 is a graph showing the accuracy and time results according to the matching method as an embodiment of the present invention.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. 본 발명의 특징 및 이점들은 첨부 도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 발명자가 그 자신의 발명의 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 할 것이다. 또한 본 발명과 관련된 공지 기능 및 그 구성에 대한 구체적인 설명은 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 구체적인 설명을 생략하였음에 유의해야할 것이다.In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings which illustrate preferred embodiments of the present invention and the contents described in the accompanying drawings. The features and advantages of the present invention will become more apparent from the following detailed description based on the accompanying drawings. Prior to this, terms or words used in the present specification and claims are defined in the technical spirit of the present invention on the basis of the principle that the inventor can appropriately define the concept of terms in order to explain in the best way of their own invention. It should be interpreted to mean meanings and concepts. In addition, it is to be noted that the detailed description of the known functions and configurations related to the present invention has been omitted when it is determined that the gist of the present invention may be unnecessarily obscured.

도 1은 본 발명의 제 1 실시예에 따른 딥러닝 기반 비문 인식 시스템을 나타낸 구성도이고, 도 2는 본 발명의 제 2 실시예에 따른 딥러닝 기반 비문 인식 시스템을 나타낸 구성도이다.1 is a block diagram showing a deep learning based inscription recognition system according to a first embodiment of the present invention, Figure 2 is a block diagram showing a deep learning based inscription recognition system according to a second embodiment of the present invention.

도 1 및 도 2를 참조하면, 딥러닝 기반 비문 인식 시스템은 이미지 입력부(100), 종 판단부(200), 비문 특징점 이미지 추출부(300), 세부 종 판단부(400), 세부 종 결과 출력부(500), 제 1 데이터베이스부(D1) 및 제 2 데이터베이스부(D2)를 포함할 수 있다.Referring to FIGS. 1 and 2, the deep learning based inscription recognition system outputs an image input unit 100, a species determination unit 200, an inscription feature point image extractor 300, a detailed species determination unit 400, and detailed species result output. The unit 500 may include a first database unit D1 and a second database unit D2.

이미지 입력부(100)는 개과에 속하는 동물의 얼굴 이미지를 입력할 수 있다. 이는 개과에 속하는 동물의 종 또는 세부 종을 판단하기 위해, 판단하고자 하는 이미지를 입력하기 위한 구성요소라 할 수 있다. 이 때 일반적으로 개과에 속하는 동물은 강아지, 개 등이 포함될 수 있다.The image input unit 100 may input a face image of an animal belonging to a canine. This may be referred to as a component for inputting an image to be determined in order to determine the species or detailed species of the animal belonging to the canine. In this case, animals generally belonging to the canine may include a dog, a dog, and the like.

종 판단부(200)는 이미지 입력부(100)로부터 입력된 얼굴 이미지와 제 2 데이터베이스부(D2)에 저장된 이미지와의 비교를 통해 개과에 속하는 동물의 종을 판단할 수 있다. 이는 개과에 속하는 동물의 세부 종을 판단하기 전에 1차적으로 후보군을 선별하기 위한 구성요소라 할 수 있다. 이 때 종 판단부(200)에서의 ‘종’은 동물의 색깔 정보 등이 포함될 수 있으며, 동물이 강아지(또는 개)라 하였을 때는 견종이 포함될 수 있다. 종 판단부(200)는 1차적으로 선별하고자 하는 후보군의 양, 특성 등에 따라 사용자가 용이하게 변경할 수 있다. 도 1에 도시된 바와 같이 종 판단부(200)는 사용자의 딥러닝 환경 구축 등에 따라 1차적인 종 판단 없이 세부 종만 판단하거나, 도 2에 도시된 바와 같이 1차적으로 종을 판단 후 2차적으로 세부 종을 판단할 수 있다. The species determination unit 200 may determine the species of the animal belonging to the dog family by comparing the face image input from the image input unit 100 with the image stored in the second database unit D2. This can be said to be a component that primarily selects candidate groups before determining the detailed species of animals belonging to the canine. In this case, the "species" in the species determination unit 200 may include color information of the animal, and when the animal is called a puppy (or dog), the breed may be included. The species determination unit 200 may be easily changed by the user according to the quantity, characteristics, and the like of the candidate group to be primarily selected. As shown in FIG. 1, the species determination unit 200 determines only the detailed species without primary species determination according to the user's deep learning environment construction, or secondarily after determining the species primarily as shown in FIG. 2. Detailed species can be determined.

한편 제 2 데이터베이스부(D2)는 동물의 종을 판단할 수 있는 표준화된 데이터로 수집된 복수 개의 종(Breed) 이미지를 포함하는 저장매체라 할 수 있다. 예를 들어 종을 판단하고자 하는 동물이 강아지(또는 개)라 하였을 때는 시베리안 허스키종 이미지 100장, 코카스파니엘 이미지 100장 등의 견종 이미지가 포함될 수 있다.Meanwhile, the second database unit D2 may be a storage medium including a plurality of breed images collected with standardized data that can determine the species of the animal. For example, when an animal to be judged as a dog is a dog (or dog), a dog image such as 100 Siberian husky species images and 100 Caucasuselian images may be included.

비문 특징점 이미지 추출부(300)는 이미지 입력부(100)로부터 입력된 얼굴 이미지로부터 비문 특징점 이미지를 추출할 수 있다. 이 때 비문은 개과에 속하는 각 동물의 코 무늬라 할 수 있다. 이는 개과에 속하는 각 동물의 비문 특성에 따라 이미지를 최적화하여 비문 특징점 이미지를 추출하기 위한 구성요소라 할 수 있다. 이를 위해 비문 특징점 이미지 추출부(300)는 전처리부(310), 필터 이미지 출력부(330) 및 특징점 이미지 출력부(350)를 포함할 수 있다.The inscription feature point image extractor 300 may extract the inscription feature point image from the face image input from the image input unit 100. At this time, the inscription may be the nose pattern of each animal belonging to the canine. This can be said to be an element for extracting the image of the inscription feature point by optimizing the image according to the inscription characteristic of each animal belonging to the canine. To this end, the inscription feature point image extractor 300 may include a preprocessor 310, a filter image output unit 330, and a feature point image output unit 350.

전처리부(310)는 이미지 입력부(100)로부터 입력된 얼굴 이미지 중 관심영역(ROI: Region Of Interest)에 해당하는 이미지를 설정한 후, 이를 전처리할 수 있다. 이는 얼굴 이미지 중 관심영역에 해당하는 데이터를 뽑기 위한 것으로서 눈, 코, 입 등 다양한 데이터들 중 필요한 영역인 ‘코’만을 추출하여 인식 속도 및 정확도를 높일 수 있는 구성요소라 할 수 있다. 이를 위해 전처리부(310)는 관심영역에 해당하는 이미지의 설정을 위해 이미지 입력부(100)로부터 입력된 얼굴 이미지에 적응 임계(Adaptive thresholding) 알고리즘을 적용할 수 있다. 그 이유는 적응 임계 알고리즘이 개과에 속하는 동물의 비문에서 망 형태의 이미지를 효과적으로 추출할 수 있기 때문이다. 개과에 속하는 동물의 코 패턴은 돌출된 부분과 움푹 들어간 부분으로 나눌 수 있는데, 이 때 움푹 들어간 부분을 연결하게 되면 망 형태의 이미지를 얻을 수 있다.The preprocessor 310 may set an image corresponding to a region of interest (ROI) among the face images input from the image input unit 100 and then preprocess it. This is for extracting data corresponding to the region of interest from the face image, and it can be said to be a component that can increase recognition speed and accuracy by extracting only 'nose' which is a necessary area among various data such as eyes, nose and mouth. To this end, the preprocessor 310 may apply an adaptive thresholding algorithm to the face image input from the image input unit 100 to set an image corresponding to the ROI. The reason is that the adaptive threshold algorithm can effectively extract the image of the network form from the inscription of the animal belonging to the canine. The nose pattern of an animal belonging to the canine can be divided into a protruding part and a recessed part, and when the recessed part is connected, a net-shaped image can be obtained.

필터 이미지 출력부(330)는 전처리부(310)로부터 전처리된 관심영역 이미지를 필터링하여 패턴 값이 추출된 필터 이미지를 출력할 수 있다. 이는 개과에 속하는 동물의 비문 선의 굵기에 따라 최적화된 이미지 처리를 구현할 수 있도록 하는 구성요소라 할 수 있다. 이를 위해 필터 이미지 출력부(330)는 필터 이미지의 출력을 위해 전처리부(310)로부터 전처리된 관심영역 이미지에 가보 필터(Gabor filter)를 적용할 수 있다. 그 이유는 가보 필터가 파동을 가지고 방향성을 통해 사용자가 원하는 두께와 방향의 연속적인 데이터를 출력할 수 있기 때문이다. 이러한 이유로 가보 필터는 파라미터를 변경하면서 강아지 코에 최적화시키기 위한 필터로서, 개과에 속하는 동물의 비문 선을 보다 효과적으로 추출할 수 있다.The filter image output unit 330 may output the filter image from which the pattern value is extracted by filtering the ROI image preprocessed from the preprocessor 310. This can be said to be an element that can implement the optimized image processing according to the thickness of the inscription line of the animal belonging to the canine. To this end, the filter image output unit 330 may apply a Gabor filter to the ROI image preprocessed from the preprocessor 310 to output the filter image. The reason is that the Gabor filter has a wave and can output continuous data of the thickness and direction desired by the user through the directionality. For this reason, the Gabor filter is a filter for optimizing the dog's nose while changing parameters, and can effectively extract the inscription line of the animal belonging to the canine.

특징점 이미지 출력부(350)는 필터 이미지 출력부(330)로부터 출력된 필터 이미지로부터 특징점을 추출하여 비문 특징점 이미지를 출력할 수 있다. 이는 개과에 속하는 각 동물의 비문 특성에 따라 비문 특징점을 추출하기 위한 구성요소라 할 수 있다. 이를 위해 특징점 이미지 출력부(350)는 특징점 추출을 위해 필터 이미지 출력부(330)로부터 출력된 필터 이미지에 시프트 알고리즘(Shift algorithm)을 적용할 수 있다. 그 이유는 시프트 알고리즘이 개과에 속하는 동물의 비문으로부터 보다 안정적인 특징점을 추출할 수 있기 때문이다. 이 때 추출된 특징점은 적어도 하나 이상의 비문 특징점 위치, 스케일 및 방향을 포함하여 보다 안정적으로 추출된 특징점일 수 있다.The feature point image output unit 350 may output the inscription feature point image by extracting the feature point from the filter image output from the filter image output unit 330. This can be said to be a component for extracting inscription features according to the inscription characteristics of each animal belonging to the canine. To this end, the feature point image output unit 350 may apply a shift algorithm to the filter image output from the filter image output unit 330 to extract the feature points. The reason is that the shift algorithm can extract more stable feature points from the inscriptions of the animals belonging to the canine. In this case, the extracted feature point may be a feature point more stably extracted, including at least one inscription feature point location, scale, and direction.

세부 종 판단부(400)는 특징점 이미지 출력부(350)로부터 추출된 특징점과 제 1 데이터베이스부(D1)에 저장된 복수 개의 이미지와 비교를 통해 개과에 속하는 동물의 세부 종을 판단할 수 있다. 이는 개과에 속하는 동물의 비문이 각 동물마다 다르다는 특성을 이용하여 세부 종을 판단하기 위한 구성요소라 할 수 있다. 이를 위해 세부 종 판단부(400)는 이미지 비교부(410) 및 매칭 특징점 선정부(430)를 포함할 수 있다.The detailed species determination unit 400 may determine the detailed species of the animal belonging to the canine by comparing the feature point extracted from the feature point image output unit 350 with a plurality of images stored in the first database unit D1. This can be said to be a component for judging the detailed species by using the characteristic that the inscription of the animal belonging to the canine is different for each animal. To this end, the detailed seed determiner 400 may include an image comparator 410 and a matching feature point selector 430.

한편 제 1 데이터베이스부(D1)는 동물의 세부 종을 판단할 수 있는 표준화된 데이터로 수집된 복수 개의 변이(Variation) 이미지를 포함하는 저장매체라 할 수 있다. 그 이유는 같은 종의 동물이라 하더라도 각 동물마다 다양한 크기, 색깔 등 서로 다른 특성을 가질 수 있기 때문이다. 예를 들어, 개과에 속하는 동물이 강아지(또는 개)일 경우, 제 2 데이터베이스부(D2)에서는 강아지의 종인 푸들, 시베리안허스키, 코카스파니엘 등을 판단하기 위한 데이터가 포함될 수 있다. 그리고 제 1데이터베이스부(D1)에서는 강아지가 ‘푸들’ 종인 것으로 판단되었을 때, 해당 ‘푸들’의 주인이 누구인지 또는 해당 ‘푸들’의 이름이 무엇인지 등의 세부 종을 판단하기 위한 데이터가 포함될 수 있다.Meanwhile, the first database unit D1 may be a storage medium including a plurality of variation images collected with standardized data for determining the detailed species of the animal. The reason is that even animals of the same species may have different characteristics such as various sizes and colors. For example, when an animal belonging to a canine is a puppy (or a dog), the second database unit D2 may include data for determining a poodle, a siberian husky, a coca spaniel, and the like, which are dog species. In the first database unit D1, when it is determined that the puppy is a 'Poodle' species, data for determining a detailed species such as who owns the 'Poodle' or the name of the 'Poodle' is included. Can be.

이미지 비교부(410)는 특징점 이미지 출력부(350)로부터 추출된 특징점과 제 1 데이터베이스부(D1)에 저장된 복수 개 이미지의 특징점 간 유클리드 거리 값(Euclidean distance, L2-Norm)을 각각 산출하여 비교할 수 있다. 이는 추출된 특징점의 기술자(Descriptor)(vector)와 제 1 데이터베이스부(D1)에 저장된 복수 개 이미지의 특징점의 기술자 비교를 위해 객관적인 수치값을 산출하기 위한 구성요소라 할 수 있다. 이 때 추출된 특징점의 개수가 N개, 제 1 데이터베이스부(D1)에 저장된 복수 개 이미지의 특징점의 개수가 M개인 경우, 총 N X M번의 비교를 할 수 있다.The image comparison unit 410 calculates and compares Euclidean distance values L2-Norm between the feature points extracted from the feature point image output unit 350 and the feature points of the plurality of images stored in the first database unit D1, respectively. Can be. This may be referred to as a component for calculating an objective numerical value for a descriptor comparison between a descriptor vector of the extracted feature point and a feature point of a plurality of images stored in the first database unit D1. In this case, when the number of extracted feature points is N and the number of feature points of the plurality of images stored in the first database unit D1 is M, a total of N X M times can be compared.

매칭 특징점 선정부(430)는 제 1 데이터베이스부(D1)에 저장된 복수 개 이미지의 특징점 중 이미지 비교부(410)로부터 산출된 유클리드 거리 값이 가장 작은 이미지의 특징점을 매칭 특징점으로 선정할 수 있다. 이는 비슷한 패턴을 보이는 비교대상들의 유클리드 거리 값은 작다는 유클리드 거리 값의 특징을 이용한 구성요소라 할 수 있다.The matching feature point selector 430 may select the feature point of the image having the smallest Euclidean distance value calculated from the image comparator 410 among the feature points of the plurality of images stored in the first database unit D1 as the matching feature point. This can be said to be a component using the feature of the Euclidean distance value that the Euclidean distance value of the comparative objects having a similar pattern is small.

한편 매칭 특징점 선정부(430)는 선정된 매칭 특징점 외에 이미지 비교부(410)로부터 산출된 유클리드 거리 값이 작은 순으로 매칭 특징점을 추가로 더 선정한 후, 선정된 매칭 특징점의 매칭 신뢰도를 판단할 수 있다. 이 때 매칭 신뢰도 판단은 하기 수학식으로 정의되는 매칭 판단식을 이용할 수 있다.Meanwhile, in addition to the selected matching feature point, the matching feature point selector 430 may further select the matching feature points in order of decreasing Euclidean distance value calculated from the image comparator 410, and then determine the matching reliability of the selected matching feature points. have. In this case, the matching reliability determination may use a matching determination equation defined by the following equation.

<수학식>Equation

E2 / E1 > (임계 값)E2 / E1> (Threshold)

(E1 : 선정된 매칭 특징점, E2 : 추가로 선정된 매칭 특징점)(E1: selected matching feature point, E2: additionally selected matching feature point)

도 1 및 도 2에 도시된 인식 시스템이 딥러닝을 기반으로 비문을 인식하는 방법은 도 3 내지 도 6을 참조하여 설명할 수 있다. 도 3은 본 발명의 제 1 실시예에 따른 딥러닝 기반 비문 인식 방법을 나타낸 순서도이고, 도 4는 본 발명의 제 2 실시예에 따른 딥러닝 기반 비문 인식 방법을 나타낸 순서도이고, 도 5는 본 발명의 실시예에 따른 비문 특징점 이미지 추출 단계(S300)를 나타낸 순서도이고, 도 6은 본 발명의 실시예에 따른 세부 종 판단 단계(S400)를 나타낸 순서도이다.A method of recognizing an inscription based on deep learning by the recognition system illustrated in FIGS. 1 and 2 may be described with reference to FIGS. 3 to 6. 3 is a flowchart illustrating a deep learning based inscription recognition method according to a first embodiment of the present invention, FIG. 4 is a flowchart illustrating a deep learning based inscription recognition method according to a second embodiment of the present invention, and FIG. FIG. 6 is a flowchart illustrating an inscription feature point image extraction step S300 according to an exemplary embodiment of the present invention, and FIG. 6 is a flowchart illustrating the detailed species determination step S400 according to an exemplary embodiment of the present invention.

도 3 및 도 4를 참조하면, 딥러닝 기반 비문 인식 방법은 이미지 입력 단계(S100), 종 판단 단계(S200), 비문 특징점 이미지 추출 단계(S300), 세부 종 판단 단계(S400) 및 세부 종 결과 출력 단계(S500)를 포함할 수 있다.3 and 4, the deep learning-based inscription recognition method includes an image input step S100, a species determination step S200, an inscription feature point image extraction step S300, a detailed species determination step S400, and a detailed species result. It may include an output step (S500).

먼저 이미지 입력부(100)에서는 개과에 속하는 동물의 얼굴 이미지를 입력할 수 있다(S100). 이는 개과에 속하는 동물의 종 또는 세부 종을 판단하기 위해, 판단하고자 하는 이미지를 입력하기 위한 단계라 할 수 있다. 이 때 일반적으로 개과에 속하는 동물은 강아지, 개 등이 포함될 수 있다.First, the image input unit 100 may input the face image of the animal belonging to the canine (S100). This may be referred to as a step for inputting an image to be determined in order to determine the species or detailed species of the animal belonging to the canine. In this case, animals generally belonging to the canine may include a dog, a dog, and the like.

종 판단부(200)에서는 S100으로부터 입력된 얼굴 이미지와 제 2 데이터베이스부(D2)에 저장된 이미지와의 비교를 통해 개과에 속하는 동물의 종을 판단할 수 있다(S200). 이는 개과에 속하는 동물의 세부 종을 판단하기 전에 1차적으로 후보군을 선별하기 위한 단계라 할 수 있다. 이 때 S200에서의 ‘종’은 동물의 색깔 정보 등이 포함될 수 있으며, 동물이 강아지(또는 개)라 하였을 때는 견종이 포함될 수 있다. S200은 1차적으로 선별하고자 하는 후보군의 양, 특성 등에 따라 사용자가 용이하게 변경할 수 있다. 도 3에 도시된 바와 같이 S200은 사용자의 딥러닝 환경 구축 등에 따라 1차적인 종 판단 없이 세부 종만 판단하거나, 도 4에 도시된 바와 같이 1차적으로 종을 판단 후 2차적으로 세부 종을 판단할 수 있다.The species determination unit 200 may determine the species of the animal belonging to the dog family by comparing the face image input from S100 with the image stored in the second database unit D2 (S200). This can be said to be a step for initially selecting candidate groups before determining the detailed species of animals belonging to the canine. In this case, the “species” in S200 may include animal color information, and may include a breed when the animal is called a puppy (or dog). S200 may be easily changed by the user according to the amount, characteristics, and the like of the candidate group to be primarily selected. As shown in FIG. 3, the S200 determines only the detailed species without primary species determination according to the user's deep learning environment construction, or the secondary species after the primary species determination as shown in FIG. 4. Can be.

한편 제 2 데이터베이스부(D2)는 동물의 종을 판단할 수 있는 표준화된 데이터로 수집된 복수 개의 종(Breed) 이미지를 포함하는 저장매체라 할 수 있다. 예를 들어 종을 판단하고자 하는 동물이 강아지(또는 개)라 하였을 때는 시베리안 허스키종 이미지 100장, 코카스파니엘 이미지 100장 등의 견종 이미지가 포함될 수 있다.Meanwhile, the second database unit D2 may be a storage medium including a plurality of breed images collected with standardized data that can determine the species of the animal. For example, when an animal to be judged as a dog is a dog (or dog), a dog image such as 100 Siberian husky species images and 100 Caucasuselian images may be included.

비문 특징점 이미지 추출부(300)에서는 S100으로부터 입력된 얼굴 이미지로부터 비문 특징점 이미지를 추출할 수 있다(S300). 이 때 비문은 개과에 속하는 각 동물의 코 무늬라 할 수 있다. 이는 개과에 속하는 각 동물의 비문 특성에 따라 이미지를 최적화하여 비문 특징점 이미지를 추출하기 위한 단계라 할 수 있다. The inscription feature point image extractor 300 may extract the inscription feature point image from the face image input from S100 (S300). At this time, the inscription may be the nose pattern of each animal belonging to the canine. This is a step for extracting the image of the inscription feature point by optimizing the image according to the inscription characteristic of each animal belonging to the canine.

한편 도 5에 도시된 바와 같이, S300에서는 전처리 단계(S310), 필터 이미지 출력 단계(S330) 및 특징점 이미지 출력 단계(S350)를 포함할 수 있다.As shown in FIG. 5, in S300, a preprocessing step S310, a filter image output step S330, and a feature point image output step S350 may be included.

전처리부(310)에서는 S100으로부터 입력된 얼굴 이미지 중 관심영역(ROI: Region Of Interest)에 해당하는 이미지를 설정한 후, 이를 전처리할 수 있다(S310). 이는 얼굴 이미지 중 관심영역에 해당하는 데이터를 뽑기 위한 것으로서 눈, 코, 입 등 다양한 데이터들 중 필요한 영역인 ‘코’만을 추출하여 인식 속도 및 정확도를 높일 수 있는 단계라 할 수 있다. 이를 위해 S310에서는 관심영역에 해당하는 이미지의 설정을 위해 S100으로부터 입력된 얼굴 이미지에 적응 임계(Adaptive thresholding) 알고리즘을 적용할 수 있다. 그 이유는 적응 임계 알고리즘이 개과에 속하는 동물의 비문에서 망 형태의 이미지를 효과적으로 추출할 수 있기 때문이다. 개과에 속하는 동물의 코 패턴은 돌출된 부분과 움푹 들어간 부분으로 나눌 수 있는데, 이 때 움푹 들어간 부분을 연결하게 되면 망 형태의 이미지를 얻을 수 있다.The preprocessor 310 may set an image corresponding to a region of interest (ROI) among the face images input from S100 and then preprocess it (S310). This is to extract the data corresponding to the region of interest from the face image, and it is a step to increase the recognition speed and accuracy by extracting only the 'nose' which is a necessary area among various data such as eyes, nose and mouth. To this end, in S310, an adaptive thresholding algorithm may be applied to the face image input from S100 to set an image corresponding to the ROI. The reason is that the adaptive threshold algorithm can effectively extract the image of the network form from the inscription of the animal belonging to the canine. The nose pattern of an animal belonging to the canine can be divided into a protruding part and a recessed part, and when the recessed part is connected, a net-shaped image can be obtained.

필터 이미지 출력부(330)에서는 S310으로부터 전처리된 관심영역 이미지를 필터링하여 패턴 값이 추출된 필터 이미지를 출력할 수 있다(S330). 이는 개과에 속하는 동물의 비문 선의 굵기에 따라 최적화된 이미지 처리를 구현할 수 있도록 하는 단계라 할 수 있다. 이를 위해 S330에서는 필터 이미지의 출력을 위해 S310으로부터 전처리된 관심영역 이미지에 가보 필터(Gabor filter)를 적용할 수 있다. 그 이유는 가보 필터가 파동을 가지고 방향성을 통해 사용자가 원하는 두께와 방향의 연속적인 데이터를 출력할 수 있기 때문이다. 이러한 이유로 가보 필터는 파라미터를 변경하면서 강아지 코에 최적화시키기 위한 필터로서, 개과에 속하는 동물의 비문 선을 보다 효과적으로 추출할 수 있다.The filter image output unit 330 may output a filter image from which a pattern value is extracted by filtering the ROI image preprocessed from S310 (S330). This can be said to be a step to implement the optimized image processing according to the thickness of the inscription line of the animal belonging to the canine. To this end, in S330, a Gabor filter may be applied to the ROI image preprocessed from S310 to output the filter image. The reason is that the Gabor filter has a wave and can output continuous data of the thickness and direction desired by the user through the directionality. For this reason, the Gabor filter is a filter for optimizing the dog's nose while changing parameters, and can effectively extract the inscription line of the animal belonging to the canine.

특징점 이미지 출력부(350)에서는 S330로부터 출력된 필터 이미지로부터 특징점을 추출하여 비문 특징점 이미지를 출력할 수 있다(S350). 이는 개과에 속하는 각 동물의 비문 특성에 따라 비문 특징점을 추출하기 위한 단계라 할 수 있다. 이를 위해 S350에서는 특징점 추출을 위해 S330으로부터 출력된 필터 이미지에 시프트 알고리즘(Shift algorithm)을 적용할 수 있다. 그 이유는 시프트 알고리즘이 개과에 속하는 동물의 비문으로부터 보다 안정적인 특징점을 추출할 수 있기 때문이다. 이 때 특징점 이미지는 적어도 하나 이상의 비문 특징점 위치, 스케일 및 방향을 포함하여 보다 안정적으로 추출된 특징점일 수 있다.The feature point image output unit 350 may output the inscription feature point image by extracting the feature point from the filter image output from S330 (S350). This is a step for extracting the inscription feature points according to the inscription characteristics of each animal belonging to the canine. To this end, in S350, a shift algorithm may be applied to the filter image output from S330 for feature point extraction. The reason is that the shift algorithm can extract more stable feature points from the inscriptions of the animals belonging to the canine. In this case, the feature point image may be a feature point that is more stably extracted, including at least one inscription feature point location, scale, and direction.

세부 종 판단부(400)에서는 S350으로부터 추출된 특징점과 제 1 데이터베이스부(D1)에 저장된 저장된 복수 개의 이미지와 비교를 통해 개과에 속하는 동물의 세부 종을 판단할 수 있다(S400). 이는 개과에 속하는 동물의 비문이 각 동물마다 다르다는 특성을 이용하여 세부 종을 판단하기 위한 단계라 할 수 있다. The detailed species determination unit 400 may determine the detailed species of the animal belonging to the canine by comparing the feature point extracted from S350 and the plurality of images stored in the first database unit D1 (S400). This is a step for judging the detailed species by using the characteristic that the inscription of the animal belonging to the canine is different for each animal.

이를 위해 도 6에 도시된 바와 같이, S400에서는 이미지 비교 단계(S410) 및 매칭 특징점 선정 단계(S430)를 포함할 수 있다.For this purpose, as shown in FIG. 6, in S400, an image comparison step S410 and a matching feature point selection step S430 may be included.

한편 제 1 데이터베이스부(D1)는 동물의 세부 종을 판단할 수 있는 표준화된 데이터로 수집된 복수 개의 변이(Variation) 이미지를 포함하는 저장매체라 할 수 있다. 그 이유는 같은 종의 동물이라 하더라도 각 동물마다 다양한 크기, 색깔 등 서로 다른 특성을 가질 수 있기 때문이다. 예를 들어, 개과에 속하는 동물이 강아지(또는 개)일 경우, 제 2 데이터베이스부(D2)에서는 강아지의 종인 푸들, 시베리안허스키, 코카스파니엘 등을 판단하기 위한 데이터가 포함될 수 있다. 그리고 제 1데이터베이스부(D1)에서는 강아지가 ‘푸들’ 종인 것으로 판단되었을 때, 해당 ‘푸들’의 주인이 누구인지 또는 해당 ‘푸들’의 이름이 무엇인지 등의 세부 종을 판단하기 위한 데이터가 포함될 수 있다.Meanwhile, the first database unit D1 may be a storage medium including a plurality of variation images collected with standardized data for determining the detailed species of the animal. The reason is that even animals of the same species may have different characteristics such as various sizes and colors. For example, when an animal belonging to a canine is a puppy (or a dog), the second database unit D2 may include data for determining a poodle, a siberian husky, a coca spaniel, and the like, which are dog species. In the first database unit D1, when it is determined that the puppy is a 'Poodle' species, data for determining a detailed species such as who owns the 'Poodle' or the name of the 'Poodle' is included. Can be.

이미지 비교부(410)에서는 S350으로부터 추출된 특징점과 제 1 데이터베이스부(D1)에 저장된 복수 개 이미지의 특징점 간 유클리드 거리 값(Euclidean distance, L2-Norm)을 각각 산출하여 비교할 수 있다(S350). 이는 추출된 특징점의 기술자(Descriptor)(vector)와 제 1 데이터베이스부(D1)에 저장된 복수 개 이미지의 특징점의 기술자 비교를 위해 객관적인 수치값을 산출하기 위한 단계라 할 수 있다. 이 때 추출된 특징점의 개수가 N개, 제 1 데이터베이스부(D1)에 저장된 복수 개 이미지의 특징점의 개수가 M개인 경우, 총 N X M번의 비교를 할 수 있다.The image comparison unit 410 may calculate and compare Euclidean distance values L2-Norm between the feature points extracted from S350 and the feature points of the plurality of images stored in the first database unit D1 (S350). This may be referred to as a step for calculating an objective numerical value for comparing the descriptors of the extracted feature points with the descriptors of the plurality of images stored in the first database unit D1. In this case, when the number of extracted feature points is N and the number of feature points of the plurality of images stored in the first database unit D1 is M, a total of N X M times can be compared.

매칭 특징점 선정부(430)에서는 제 1 데이터베이스부(D1)에 저장된 복수 개 이미지의 특징점 중 S410으로부터 산출된 유클리드 거리 값이 가장 작은 이미지의 특징점을 매칭 특징점으로 선정할 수 있다(S430). 이는 비슷한 패턴을 보이는 비교대상들의 유클리드 거리 값은 작다는 유클리드 거리 값의 특징을 이용한 단계라 할 수 있다.The matching feature point selecting unit 430 may select the feature point of the image having the smallest Euclidean distance value calculated from S410 among the feature points of the plurality of images stored in the first database unit D1 as the matching feature point (S430). This is a step using the feature of the Euclidean distance value that the Euclidean distance value of the comparative objects showing a similar pattern is small.

한편 S430에서는 선정된 매칭 특징점 외에 S410으로부터 산출된 유클리드 거리 값이 작은 순으로 매칭 특징점을 추가로 더 선정한 후, 선정된 매칭 특징점의 매칭 신뢰도를 판단할 수 있다. 이 때 매칭 신뢰도 판단은 하기 수학식으로 정의되는 매칭 판단식을 이용할 수 있다.Meanwhile, in S430, in addition to the selected matching feature point, the matching feature point may be further selected in order of decreasing Euclidean distance value calculated from S410, and then the matching reliability of the selected matching feature point may be determined. In this case, the matching reliability determination may use a matching determination equation defined by the following equation.

<수학식>Equation

E2 / E1 > (임계 값)E2 / E1> (Threshold)

(E1 : 선정된 매칭 특징점, E2 : 추가로 선정된 매칭 특징점)(E1: selected matching feature point, E2: additionally selected matching feature point)

도 7은 본 발명의 실시예로서 강아지(또는 개)의 비문 특징점을 추출하는 과정을 나타낸 도면이고, 도 8은 본 발명의 실시예로서 강아지(또는 개)의 비문 선의 굵기(8~15[pixel])에 따른 가보 필터링(Gabor filtering) 이미지 결과를 나타낸 도면이며, 도 9는 본 발명의 실시예로서 가보 필터의 평행선 방향(

Figure pat00002
)에 따른 가보 필터링 이미지 결과를 나타낸 도면이고, 도 10은 본 발명의 실시예로서 강아지(또는 개)의 비문 매칭 과정을 나타낸 도면이다.7 is a diagram illustrating a process of extracting an inscription feature point of a dog (or dog) as an embodiment of the present invention, and FIG. 8 is a thickness (8 to 15 [pixel] of an inscription line of a dog (or dog) as an embodiment of the present invention. FIG. 9 is a diagram illustrating Gabor filtering image results according to an embodiment of the present invention, and FIG. 9 is an embodiment of the present invention.
Figure pat00002
FIG. 10 is a diagram illustrating a Gabor filtering image result, and FIG. 10 illustrates an inscription matching process of a dog (or dog) as an embodiment of the present invention.

도 7을 참조하면, 사용자 인터페이스(User interface)에 강아지의 코 이미지가 입력 값으로 들어온다고 가정할 수 있다. 이 때 사용자 인터페이스는 웹(Web) 또는 모바일(Mobile) 등 사용자가 입력받고자 하는 다양한 매체를 포함할 수 있다. Referring to FIG. 7, it may be assumed that a dog's nose image is input as an input value in a user interface. In this case, the user interface may include various media that a user wants to receive, such as web or mobile.

도 7(a)은 강아지의 코 이미지이다. 이 때 도 7(a)에서의 강아지 코 이미지 크기는 400X400[pixel]로, 이는 코 이미지의 해상도에 따라 다양한 크기로 입력받을 수 있다.Figure 7 (a) is a dog's nose image. At this time, the size of the dog nose image in Figure 7 (a) is 400X400 [pixel], which can be input in various sizes depending on the resolution of the nose image.

도 7(b)은 도 7(a)로부터 입력받은 강아지 코 이미지 중 관심영역(ROI) 이미지이다. 도 7(a)에 도시된 바와 같이, 강아지 코에서 특징을 뽑는다면, 콧구멍을 기준으로 양 콧구멍 사이를 가로지르는 코 하단의 선과, 콧구멍 사이와 코 상단에 위치하는 무늬에서 특징을 뽑을 수 있다. 이를 기초로 코가 반듯한 원 형식으로 입력받는다고 가정하였을 때, 도 7(b)의 관심영역 높이는 코 이미지 높이의 1/8~7/8로, 관심영역 폭은 코 이미지 폭의 1/4~3/4인 직사각형으로 설정할 수 있다. 다만 상기 관심영역의 높이 및 너비 수치는 실시예로서, 입력받는 코 이미지의 크기 또는 코 형태 등에 따라 용이하게 변경하여 설정할 수 있다. 한편 도 7(b)에 도시된 바와 같이, 개과에 속하는 동물의 코 패턴은 돌출된 부분과 움푹 들어간 부분으로 나눌 수 있는데, 이 때 돌출된 부분과 움푹 들어간 부분으로 만들어진 전체적인 무늬를 ‘비문’이라 할 수 있으며, 특정한 1개의 패턴을 ‘특징점’이라 할 수 있다.FIG. 7B is a region of interest (ROI) image of the dog nose image received from FIG. 7A. As shown in FIG. 7 (a), if the feature is extracted from the dog's nose, the feature is drawn from the line at the bottom of the nose across the nostrils and the pattern located between the nostrils and the top of the nose. Can be. Based on this, assuming that the nose is input in the form of a straight circle, the height of the region of interest in FIG. 7 (b) is 1/8 to 7/8 of the height of the nose image, and the region of interest is 1/4 to the width of the nose image. Can be set to 3/4 rectangle. However, the height and width values of the ROI may be easily changed and set according to the size or nose shape of the received nose image. On the other hand, as shown in Figure 7 (b), the nose pattern of the animal belonging to the canine can be divided into a protruding portion and a recessed portion, wherein the overall pattern made of the protruding portion and the recessed portion is called 'secret' One specific pattern may be referred to as a 'feature point'.

도 7(c)은 도 7(b)로부터 설정된 관심영역 이미지를 전처리한 이미지이다. 도 7(b) 및 도 7(c)에 도시된 바와 같이, 설정된 강아지 코 이미지의 관심영역에서 망 형태의 이미지를 효과적으로 추출하기 위해서는 적응 임계 알고리즘을 사용할 수 있다. 적응 임계 알고리즘은 임계값을 전체 영역에 적용하여 처리하는 방식이 아닌, 주변 영역의 평균값이나 가우시안 필터링(Gaussian filtering) 값을 이용해서 변화하는 임계값을 가지며 전체 글로벌(Global) 이미지를 이진화할 수 있다. 이 때 도 7(b)에서는 가우시안 방식을 이용했으며, 주변영역의 크기는 4x4[pixel]로 할 수 있다.FIG. 7C is an image obtained by preprocessing the ROI image set from FIG. 7B. As illustrated in FIGS. 7B and 7C, an adaptive threshold algorithm may be used to effectively extract a network-shaped image from a region of interest of a set dog nose image. The adaptive threshold algorithm can binarize the entire global image without changing the threshold using the average value or Gaussian filtering of the surrounding area, instead of applying the threshold to the entire area. . In this case, the Gaussian method is used in FIG. 7B, and the size of the peripheral area may be 4 × 4 [pixel].

도 7(d)은 도 7(c)로부터 전처리된 이미지를 필터링한 이미지이다. 도 7(d)에 도시된 바와 같이, 전처리된 이미지에는 가보 필터(Gabor filter)를 적용할 수 있다. 가보 필터는 이미지 프로세싱에서 엣지 검출(Edge detection), 텍스처 분석(Texture analysis), 특징 추출(Feature extraction) 등에 사용되는 선형필터이다. 즉 이미지에 특정 주파수 요소를 특정 방향으로 로컬화된 영역의 여부를 분석하는 필터이다. 주기함수의 특징을 이용해서 엣지 혹은 텍스처들이 변화하는 부분을 찾아낼 수 있다. 이차원 공간 영역에서 2D 가보 필터는 사인함수로 모듈레이션된 가우시안 필터이다.FIG. 7D is an image obtained by filtering the preprocessed image from FIG. 7C. As shown in FIG. 7D, a Gabor filter may be applied to the preprocessed image. Gabor filters are linear filters used for edge detection, texture analysis, and feature extraction in image processing. In other words, it is a filter that analyzes whether a specific frequency component is localized in a specific direction in an image. You can use the features of the periodic function to find out where the edges or textures change. In the two-dimensional space domain, the 2D gabor filter is a Gaussian filter modulated with a sine function.

가보 필터의 수식은 다음과 같다.The formula for the Gabor filter is as follows:

<수식 1><Equation 1>

Figure pat00003
Figure pat00003

이 때 x, y는 가보 필터의 크기이고,

Figure pat00004
는 가보 필터의 표준편차이다.
Figure pat00005
는 필터의 평행선의 방향이다.
Figure pat00006
는 함수의 파동 크기이다.
Figure pat00007
는 평행선의 종횡비이다.
Figure pat00008
는 중심으로부터 이동한 거리이다. 여기서 강아지 코의 선들을 잘 추출하기 위한 파라미터는
Figure pat00009
Figure pat00010
이다.Where x and y are the size of the heirloom filter,
Figure pat00004
Is the standard deviation of the Gabor filter.
Figure pat00005
Is the direction of the parallel lines of the filter.
Figure pat00006
Is the wave size of the function.
Figure pat00007
Is the aspect ratio of the parallel lines.
Figure pat00008
Is the distance traveled from the center. Here, the parameter to extract the lines of the dog's nose
Figure pat00009
Wow
Figure pat00010
to be.

Figure pat00011
은 파라미터가 변함에 따라, 주기함수의 파동 크기가 변하게 된다. 즉 선형적으로 필터링할 수 있는 굵기에 영향을 끼친다. 도 8에 도시된 바와 같이, 강아지 코에 대해서는 굵기를 실험적으로 8~15[pixel]까지의 굵기가 적당하였다.
Figure pat00011
As the parameter changes, the wave size of the periodic function changes. This affects the thickness that can be filtered linearly. As shown in FIG. 8, the thickness of the dog's nose was experimentally 8 to 15 [pixel] thick.

Figure pat00012
은 필터의 평행선 방향을 나타내는데, 도 9에 도시된 바와 같이 보다 정밀한 측정을 위해
Figure pat00013
/60의 간격으로 60개의 방향을 나누었다.
Figure pat00012
Indicates the parallel direction of the filter, for more precise measurements as shown in FIG.
Figure pat00013
The 60 directions were divided at intervals of / 60.

도 7(e)은 도 7(d)로부터 필터링된 이미지에서 특징점을 추출한 이미지이다. 도 7(e)에 도시된 바와 같이, 필터링된 이미지는 시프트 알고리즘(Shift algorithm)을 적용할 수 있다. 그 이유는 시프트 알고리즘이 회전에 불변하는 특징을 추출하는 특징점 기반 인식 알고리즘이기 때문이다.FIG. 7E is an image in which feature points are extracted from the filtered image from FIG. 7D. As shown in FIG. 7E, the filtered image may apply a shift algorithm. This is because the shift algorithm is a feature-based recognition algorithm that extracts features that are invariant to rotation.

시프트 알고리즘으로 특징점을 추출하는 방법은 다음과 같이 4단계를 거칠 수 있다.The method of extracting feature points by the shift algorithm may be performed in four steps as follows.

1. scale-space extrema detection 단계 : 물체가 불변하기 위해 특징점 추출 시, 가우시안 블러 이미지를 스케일 별로 축소시켜 쌓아 올린 가우시안 피라미드(Gaussian Pyramid)를 생성한다. 그리고 가우시안 피라미드 영상의 차인 DOG(different of Gaussian)를 구해서 극점(Extrema)인 지점을 찾는다. 여러 스케일에 걸쳐서 특징점으로 추출된 값은 스케일에 불변하다고 할 수 있다. 1. Scale-space extrema detection step: When extracting feature points to make objects invariant, a Gaussian blur image is reduced and scaled up to create a Gaussian pyramid. Then, the DOG (different of Gaussian), which is the difference between Gaussian pyramid images, is found to find the extreme point. Values extracted as feature points across multiple scales can be said to be invariant in scale.

2. Keypoint localization 단계 : 회전에 불변하는 특징을 추가로 만들기 위해, 알고리즘은 방향을 정규화(Normalize)하고, 극점(Extrema)을 키포인트(Keypoint)로 제한한다. 이는 테일러(Taylor) 급수의 2차 전개로 보간(Interpolation)하여 특징점을 확실하게 나타내 줄 수 있는 키포인트(keypoint)를 찾아내는 단계이다.2. Keypoint localization step: To make the rotation invariant feature additional, the algorithm normalizes the direction and limits the extreme to the keypoint. This step is to find a keypoint that can interpolate to the secondary development of the Taylor series to clearly indicate the feature point.

3. Orientation assignment 단계 : 회전변화에도 특징점 검출을 위해서 앞 단계(Keypoint localization)에서 정해진 키포인트(keypoint)의 방향을 찾는 단계이다. 3. Orientation assignment step: This step is to find the direction of the keypoint specified in the previous step (Keypoint localization) in order to detect the feature point even in the rotation change.

4. Keypoint descriptor 단계 : 각 특징점마다 기술자(descriptor)를 정해주는 단계이다. 기술자는 특징점을 중심으로 주변의 기울기(Gradient) 값들의 방향들이다. 이를 이용하여 각 특징점마다 기술자를 적용하면, 도 7(e)에 도시된 바와 같이 특징점의 위치와 스케일, 방향 등을 알 수 있다. 이는 보다 안정적인 특징점을 추출할 수 있는 특징을 가질 수 있다.4. Keypoint descriptor step: It is a step to define a descriptor for each feature point. The descriptor is the directions of the gradient values around the feature point. If the descriptor is applied to each feature point using this, as shown in FIG. 7E, the position, scale, direction, etc. of the feature point can be known. It may have a feature that can extract a more stable feature point.

도 10(a)은 시프트 매칭(Shift matching) 방법을 이용한 다른 강아지(또는 개)에 대한 비문 매칭 과정을 나타낸 도면이고, 도 10(b)은 시프트 매칭(Shift matching) 방법을 이용한 다른 강아지(또는 개)에 대한 비문 매칭 과정을 나타낸 도면이다.FIG. 10 (a) illustrates an inscription matching process for another puppy (or dog) using a shift matching method, and FIG. 10 (b) illustrates another puppy (or shift) using a shift matching method. A diagram showing the inscription matching process for dog).

도 10(a) 및 도 10(b)을 참조하면, 상기와 같은 기술자를 통해 특징점이 추출된 이미지(입력된 이미지)와 데이터베이스의 이미지 사이의 각 키 간 유클리드 거리 값을 데이터베이스의 이미지 개수만큼 산출할 수 있다. 그리고 산출된 유클리드 거리 값 중 최소 값(E1)에 해당하는 데이터베이스의 이미지를 추출된 이미지와 매칭되는 매칭 키(Matching key)라고 선정할 수 있다.Referring to FIGS. 10A and 10B, the Euclidean distance value between each key between the image (input image) from which the feature point is extracted and the image of the database is calculated by the number of images in the database. can do. The image of the database corresponding to the minimum value E1 among the calculated Euclidean distance values may be selected as a matching key matching the extracted image.

한편 최소 값(E1)와 두 번째로 가까운 값의 일정 비율을 통해 구한 두 값을 통해 정확한 매칭을 할 수 있다. 이는 최소 값(E1) 다음으로 유클리드 거리 값이 작은 값(E2)에 해당하는 데이터베이스의 이미지를 추가로 더 선정한 후, 이를 이용하여 최소 값(E1)의 매칭 신뢰도를 파악할 수 있다. 이 때 매칭 신뢰도 판단은 하기 수학식으로 정의되는 매칭 판단식을 이용할 수 있다.On the other hand, two values obtained through a ratio of the minimum value (E1) and the second closest value can be accurately matched. This further selects an image of a database corresponding to a value E2 having a smaller Euclidean distance value next to the minimum value E1, and then uses this to determine the matching reliability of the minimum value E1. In this case, the matching reliability determination may use a matching determination equation defined by the following equation.

<수학식>Equation

E2 / E1 > (임계 값)E2 / E1> (Threshold)

(E1 : 최소 값(선정된 매칭 특징점), E2 : 추가로 선정된 값(추가로 선정된 매칭 특징점))(E1: minimum value (selected matching feature point), E2: additionally selected value (additionally selected matching feature point))

도 11은 본 발명의 실시예로서 5마리 강아지(또는 개)에 대한 점수 비교를 나타낸 그래프이고, 도 12는 본 발명의 실시예로서 시프트(Shift), 서프(Surf), 오브(Orb) 매칭을 비교한 도면이고, 도 13은 본 발명의 실시예로서 매칭 방법에 따른 정확도 및 시간 결과를 나타낸 그래프이다. FIG. 11 is a graph showing a score comparison for five puppies (or dogs) as an embodiment of the present invention, and FIG. 12 is a shift, surf and orb matching as an embodiment of the present invention. FIG. 13 is a graph showing accuracy and time results according to a matching method as an embodiment of the present invention.

표 1은 5마리의 강아지에 대한 점수 비교를 나타낸 표이고, 표 2는 매칭 방법에 따른 정확도 및 시간 결과를 나타낸 표이다.Table 1 is a table showing the score comparison for five dogs, Table 2 is a table showing the accuracy and time results according to the matching method.

도 11 및 표 1을 참조하면, 본 발명은 실시예로 5마리의 강아지에 대한 점수를 비교하기 위해 CPU i5 2.2 Ghz인 컴퓨터에서 Python 3.6.4를 이용하였으며, 5종의 강아지의 여러 코 이미지 교차 매칭을 통해서 점수 값을 비교하였다. 여기서 점수 값은 시프트 매칭의 특징점(Key point)의 개수로서, 아래 표 1과 같이 가장 높은 값을 가지는 강아지가 그 강아지라고 확인할 수 있다.Referring to FIG. 11 and Table 1, the present invention used Python 3.6.4 on a computer with a CPU i5 2.2 Ghz to compare the scores for five dogs as an example, cross the nose image of five dogs The score values were compared by matching. Here, the score value is the number of key points of the shift matching, and it can be confirmed that the puppy having the highest value as shown in Table 1 is the puppy.

Dog1Dog1 Dog2Dog2 Dog3Dog3 Dog4Dog4 Dog5Dog5 Dog1Dog1 44.544.5 9.179.17 10.210.2 8.678.67 5.165.16 Dog2Dog2 9.339.33 58.758.7 9.339.33 88 5.275.27 Dog3Dog3 7.57.5 88 92.192.1 6.836.83 5.335.33 Dog4Dog4 6.56.5 7.87.8 7.17.1 42.542.5 6.676.67 Dog5Dog5 6.86.8 5.335.33 88 5.55.5 75.875.8

도 12, 도 13 및 표 2를 참조하면, 본 발명은 실시예로서 실시간(Real time) 매칭 방법을 이용하기 위해 시프트 매칭(Shift matching) 방법과 함께, 서프(Surf), 오브(Orb) 방법을 이용하여 정확도 및 시간을 측정할 수 있다.12, 13 and Table 2, according to an embodiment of the present invention, the Surf and Orb methods are used together with the Shift matching method to use the Real time matching method. Can be used to measure accuracy and time.

도 12(a) 및 도 12(b)는 시프트 매칭(Shift matching)을, 도 12(c) 및 도 12(d)는 서프 매칭(Surf matching)을, 도 12(e) 및 도 12(f)는 오브 매칭(Orb matching)을 이용해 매칭한 결과이다. 그리고 도 12(a), 도 12(c) 및 도 12(e)는 같은 강아지의 코 사진을, 도 12(b), 도 12(d) 및 도 12(f)는 다른 강아지의 코 사진을 비교한 결과이다.12 (a) and 12 (b) show shift matching, FIGS. 12 (c) and 12 (d) show Surf matching, and FIGS. 12 (e) and 12 (f). ) Is a result of matching using Orb matching. 12 (a), 12 (c) and 12 (e) show nose pictures of the same dog, and FIGS. 12 (b), 12 (d) and 12 (f) show nose pictures of other dogs. The result is a comparison.

여기서 매칭율(MR : Matching Rate)은 같은 강아지의 복수 개의 코 이미지에 대한 이미지 점수들의 평균을 Same Image Score(SIS)라 하고, 다른 강아지의 복수 개의 코 이미지에 대한 이미지 점수들의 평균을 Different Image Score(DIS)라 할 수 있다. 매칭율(MR)은 SIS/(DIS+SIS)*100로 정의할 수 있다.Here, Matching Rate (MR) refers to an average of image scores of a plurality of nose images of the same dog as Same Image Score (SIS), and an average of image scores of a plurality of nose images of different dogs is referred to as Different Image Score. It can be called (DIS). The matching rate MR may be defined as SIS / (DIS + SIS) * 100.

상기 매칭율(MR) 정의에 따라, 매칭율을 계산한 결과, 도 13 및 아래 표 2와 같이 시프트 매칭(Shift matching) 방법이 정확도 및 시간에서 가장 높은 매칭율(MR)인 것으로 나타났다.As a result of calculating the matching rate according to the definition of the matching rate (MR), as shown in FIG. 13 and Table 2 below, it was found that the shift matching method has the highest matching rate (MR) in accuracy and time.

Time/
per
Time /
per
Time
(s)
Time
(s)
DIS
(score)
DIS
(score)
SIS
(score)
SIS
(score)
MR
(%)
MR
(%)
SIFTSIFT 2.182.18 157157 5.25.2 25.825.8 83.2283.22 SURFSURF 1.811.81 131131 29.129.1 37.237.2 56.1056.10 ORBORB 1.761.76 127127 297297 265265 47.1547.15

한편 도 7 내지 도 13에 도시된 본 발명의 실시예는 ImageNet database를 pre-training 과정에서 사용하였으며, 추가적으로 동물 종에 대한 이미지를 fine-tuning으로 사용하였지만, 이는 인식 시스템 환경 및 사용자 설정 등에 따라 다양하게 변경할 수 있다.On the other hand, the embodiment of the present invention shown in Figure 7 to 13 used the ImageNet database in the pre-training process, and additionally used the image for the animal species as fine-tuning, which varies depending on the recognition system environment and user settings Can be changed.

또한 본 발명의 딥러닝(Deep learning) 방법은 이미지가 포함하고 있는 물체의 종류를 알아내는 심층 신경 아키텍처(Deep neural architecture)를 이용한 alexNet, VGGNet, GoogleNet, resNet 등 다양한 방법을 이용할 수 있다.In addition, the deep learning method of the present invention may use a variety of methods such as alexNet, VGGNet, GoogleNet, and resNet using a deep neural architecture for finding the kind of an object included in an image.

이상에서 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서 그러한 모든 적절한 변경 및 수정들도 본 발명의 범위에 속하는 것으로 간주되어야할 것이다.Although described and illustrated in connection with a preferred embodiment for illustrating the technical spirit of the present invention above, the present invention is not limited to the configuration and operation as shown and described as such, it is a deviation from the scope of the technical idea It will be understood by those skilled in the art that many changes and modifications can be made to the invention without departing from the scope of the invention. Accordingly, all such suitable changes and modifications should be considered to be within the scope of the present invention.

이미지 입력부 : 100 종 판단부 : 200
비문 특징점 이미지 추출부 : 300 전처리부 : 310
필터 이미지 출력부 : 330 특징점 이미지 출력부 : 350
세부 종 판단부 : 400 이미지 비교부 : 410
매칭 특징점 선정부 : 430 세부 종 결과 출력부 : 500
제 1 데이터베이스부 : D1 제 2 데이터베이스부 : D2
Image input unit: 100 species determination unit: 200
Inscription Feature Point Image Extraction Unit: 300 Preprocessor: 310
Filter image output unit: 330 Feature point image output unit: 350
Species species judgment unit: 400 image comparison unit: 410
Matching feature point selector: 430 Detailed result output: 500
1st database part: D1 2nd database part: D2

Claims (22)

개과에 속하는 동물의 얼굴 이미지를 입력하는 이미지 입력부;
상기 입력된 얼굴 이미지로부터 비문 특징점 이미지를 추출하는 비문 특징점 이미지 추출부;
상기 추출된 비문 특징점 이미지와 제 1 데이터베이스부에 저장된 복수 개의 이미지와 비교를 통해 상기 동물의 세부 종을 판단하는 세부 종 판단부; 및
상기 판단된 세부 종 결과를 출력하는 세부 종 결과 출력부;를 포함하는 딥러닝 기반 비문 인식 시스템.
An image input unit for inputting an image of a face of an animal belonging to a dog family;
An inscription feature point image extracting unit for extracting an inscription feature point image from the input face image;
A detailed species determination unit that determines the detailed species of the animal by comparing the extracted inscription feature point image with a plurality of images stored in a first database unit; And
Deep learning-based inscription recognition system comprising a; detailed species result output unit for outputting the determined detailed species result.
제 1 항에 있어서, 상기 비문 특징점 이미지 추출부는,
상기 입력된 얼굴 이미지 중 관심영역(ROI: Region Of Interest)에 해당하는 이미지를 설정한 후, 이를 전처리하는 전처리부;
상기 전처리된 관심영역 이미지를 필터링하여 패턴 값이 추출된 필터 이미지를 출력하는 필터 이미지 출력부; 및
상기 출력된 필터 이미지로부터 특징점을 추출하여 비문 특징점 이미지를 출력하는 특징점 이미지 출력부;를 포함하는 딥러닝 기반 비문 인식 시스템.
The method of claim 1, wherein the inscription feature point image extraction unit,
A preprocessor configured to set an image corresponding to a region of interest (ROI) among the input face images and then preprocess it;
A filter image output unit which filters the preprocessed ROI image and outputs a filter image from which a pattern value is extracted; And
And a feature point image output unit configured to extract a feature point from the output filter image and output an inscription feature point image.
제 2 항에 있어서, 상기 추출된 특징점은,
적어도 하나 이상의 비문 특징점 위치, 스케일 및 방향을 포함하는 딥러닝 기반 비문 인식 시스템.
The method of claim 2, wherein the extracted feature point,
A deep learning based inscription recognition system comprising at least one inscription feature point location, scale and direction.
제 2 항에 있어서, 상기 전처리부는,
상기 관심영역 이미지의 설정을 위해 상기 입력된 얼굴 이미지에 적응 임계(Adaptive thresholding) 알고리즘을 적용하는 딥러닝 기반 비문 인식 시스템.
The method of claim 2, wherein the pretreatment unit,
And a deep learning based inscription recognition system applying an adaptive thresholding algorithm to the input face image for setting the ROI image.
제 2 항에 있어서, 상기 필터 이미지 출력부는,
상기 필터 이미지의 출력을 위해 상기 전처리된 관심영역 이미지에 가보 필터(Gabor filter)를 적용하는 딥러닝 기반 비문 인식 시스템.
The method of claim 2, wherein the filter image output unit,
A deep learning based inscription recognition system applying a Gabor filter to the preprocessed ROI image for outputting the filter image.
제 2 항에 있어서, 상기 특징점 이미지 출력부는,
상기 특징점 추출을 위해 상기 출력된 필터 이미지에 시프트 알고리즘(Shift algorithm)을 적용하는 딥러닝 기반 비문 인식 시스템.
The method of claim 2, wherein the feature point image output unit,
A deep learning based inscription recognition system applying a shift algorithm to the output filter image for the feature point extraction.
제 3 항에 있어서, 상기 세부 종 판단부는,
상기 추출된 특징점과 상기 제 1 데이터베이스부에 저장된 복수 개 이미지의 특징점 간 유클리드 거리 값(Euclidean distance, L2-Norm)을 각각 산출하여 비교하는 이미지 비교부; 및
상기 제 1 데이터베이스부에 저장된 복수 개 이미지의 특징점 중 상기 산출된 유클리드 거리 값이 가장 작은 이미지의 특징점을 매칭 특징점으로 선정하는 매칭 특징점 선정부;를 포함하는 딥러닝 기반 비문 인식 시스템.
The method of claim 3, wherein the detailed species determination unit,
An image comparison unit configured to calculate and compare Euclidean distance values (L2-Norm) between the extracted feature points and the feature points of the plurality of images stored in the first database unit; And
And a matching feature point selector for selecting a feature point of the image having the smallest Euclidean distance value among the feature points of the plurality of images stored in the first database unit as a matching feature point.
제 7 항에 있어서, 상기 매칭 특징점 선정부는,
상기 선정된 매칭 특징점 외에 상기 산출된 유클리드 거리 값이 작은 순으로 매칭 특징점을 추가로 더 선정한 후, 다음 수학식으로 정의되는 매칭 판단식을 이용하여 상기 선정된 매칭 특징점의 매칭 신뢰도를 판단하는 딥러닝 기반 비문 인식 시스템.
<수학식>
E2 / E1 > (임계 값)
(E1 : 선정된 매칭 특징점, E2 : 추가로 선정된 매칭 특징점)
The method of claim 7, wherein the matching feature point selection unit,
After further selecting the matching feature points in order of the calculated Euclidean distance value in addition to the selected matching feature points, deep learning for determining matching reliability of the selected matching feature points using a matching decision equation defined by the following equation: Based inscription recognition system.
Equation
E2 / E1> (Threshold)
(E1: selected matching feature point, E2: additionally selected matching feature point)
제 1 항에 있어서,
상기 이미지 입력부로부터 입력된 얼굴 이미지와 제 2 데이터베이스부에 저장된 이미지와의 비교를 통해 상기 동물의 종을 판단하는 종 판단부를 더 포함하는 딥러닝 기반 비문 인식 시스템.
The method of claim 1,
And a species determination unit for determining the species of the animal by comparing the face image input from the image input unit with the image stored in the second database unit.
제 1 항에 있어서, 상기 제 1 데이터베이스부는,
상기 동물의 세부 종을 판단할 수 있는 표준화된 데이터로 수집된 복수 개의 변이(Variation) 이미지를 포함하는 딥러닝 기반 비문 인식 시스템.
The method of claim 1, wherein the first database unit,
Deep learning based inscription recognition system including a plurality of variation (variation) images collected with standardized data that can determine the detailed species of the animal.
제 9 항에 있어서, 상기 제 2 데이터베이스부는,
상기 동물의 종을 판단할 수 있는 표준화된 데이터로 수집된 복수 개의 종(Breed) 이미지를 포함하는 딥러닝 기반 비문 인식 시스템.
The method of claim 9, wherein the second database unit,
Deep learning based inscription recognition system including a plurality of images (Breed) collected with standardized data that can determine the species of the animal.
이미지 입력부에서 개과에 속하는 동물의 얼굴 이미지를 입력받는 이미지 입력 단계;
비문 특징점 이미지 추출부에서 상기 입력된 얼굴 이미지로부터 비문 특징점 이미지를 추출하는 비문 특징점 이미지 추출 단계;
세부 종 판단부에서 상기 추출된 비문 특징점 이미지와 제 1 데이터베이스부에 저장된 복수 개의 이미지와 비교를 통해 상기 동물의 세부 종을 판단하는 세부 종 판단 단계; 및
세부 종 결과 출력부에서 상기 판단된 세부 종 결과를 출력하는 세부 종 결과 출력 단계;를 포함하는 딥러닝 기반 비문 인식 방법.
An image input step of receiving an image of a face of an animal belonging to a canine at an image input unit;
An inscription feature point image extraction step of extracting an inscription feature point image from the input face image by an inscription feature point image extractor;
A detailed species determination step of determining a detailed species of the animal by comparing the extracted inscription feature point image with a plurality of images stored in a first database unit in a detailed species determination unit; And
And a detailed seed result output step of outputting the determined detailed seed result in a detailed seed result output unit.
제 12 항에 있어서, 상기 비문 특징점 이미지 추출 단계는,
전처리부에서 상기 입력된 얼굴 이미지 중 관심영역(ROI: Region Of Interest)에 해당하는 이미지를 설정한 후, 이를 전처리하는 전처리 단계;
필터 이미지 출력부에서 상기 전처리된 관심영역 이미지를 필터링하여 패턴 값이 추출된 필터 이미지를 출력하는 필터 이미지 출력 단계; 및
특징점 이미지 출력부에서 상기 출력된 필터 이미지로부터 특징점을 추출하여 비문 특징점 이미지를 출력하는 특징점 이미지 출력 단계;를 포함하는 딥러닝 기반 비문 인식 방법.
The method of claim 12, wherein the extracting the inscription feature point image comprises:
A pre-processing step of setting an image corresponding to a region of interest (ROI) among the input face images by a pre-processing unit and pre-processing the image;
A filter image output step of filtering the preprocessed ROI image by a filter image output unit to output a filter image from which a pattern value is extracted; And
And a feature point image output step of outputting an inscription feature point image by extracting the feature point from the output filter image in the feature point image output unit.
제 13 항에 있어서, 상기 추출된 특징점은,
적어도 하나 이상의 비문 특징점 위치, 스케일 및 방향을 포함하는 딥러닝 기반 비문 인식 방법.
The method of claim 13, wherein the extracted feature point,
A deep learning based inscription recognition method comprising at least one inscription feature point location, scale and direction.
제 13 항에 있어서, 상기 전처리 단계는,
상기 관심영역 이미지의 설정을 위해 상기 입력된 얼굴 이미지에 적응 임계(Adaptive thresholding) 알고리즘을 적용하는 딥러닝 기반 비문 인식 방법.
The method of claim 13, wherein the pretreatment step,
A deep learning-based inscription recognition method applying an adaptive thresholding algorithm to the input face image to set the ROI image.
제 13 항에 있어서, 상기 필터 이미지 출력 단계는,
상기 필터 이미지의 출력을 위해 상기 전처리된 관심영역 이미지에 가보 필터(Gabor filter)를 적용하는 딥러닝 기반 비문 인식 방법.
The method of claim 13, wherein the filter image output step,
A deep learning based inscription recognition method applying a Gabor filter to the preprocessed ROI image for outputting the filter image.
제 13 항에 있어서, 상기 특징점 이미지 출력 단계는,
상기 특징점의 추출을 위해 상기 출력된 필터 이미지에 시프트 알고리즘(Shift algorithm)을 적용하는 딥러닝 기반 비문 인식 방법.
The method of claim 13, wherein the outputting the feature point image comprises:
Deep learning based inscription recognition method for applying a shift algorithm to the output filter image for the extraction of the feature point.
제 12 항에 있어서, 상기 세부 종 판단 단계는,
이미지 비교부에서 상기 추출된 특징점과 상기 제 1 데이터베이스부에 저장된 복수 개 이미지의 특징점 간 유클리드 거리 값(Euclidean distance, L2-Norm)을 각각 산출하여 비교하는 이미지 비교 단계; 및
매칭 특징점 선정부에서 상기 제 1 데이터베이스부에 저장된 복수 개 이미지의 특징점 중 상기 산출된 유클리드 거리 값이 가장 작은 이미지의 특징점을 매칭 특징점으로 선정하는 매칭 특징점 선정 단계;를 포함하는 딥러닝 기반 비문 인식 방법.
The method of claim 12, wherein the detailed species determination step,
An image comparison step of calculating and comparing Euclidean distance values (L2-Norm) between the extracted feature points in the image comparison unit and the feature points of the plurality of images stored in the first database unit, respectively; And
A matching feature point selection step of selecting a feature point of an image having the smallest Euclidean distance value among the feature points of a plurality of images stored in the first database unit as a matching feature point in a matching feature point selection unit; .
제 18 항에 있어서, 상기 매칭 특징점 선정 단계는,
상기 선정된 매칭 특징점 외에 상기 산출된 유클리드 거리 값이 작은 순으로 매칭 특징점을 추가로 더 선정한 후, 다음 수학식으로 정의되는 매칭 판단식을 이용하여 상기 선정된 매칭 특징점의 매칭 신뢰도를 판단하는 딥러닝 기반 비문 인식 방법.
<수학식>
E2 / E1 > (임계 값)
(E1 : 선정된 매칭 특징점, E2 : 추가로 선정된 매칭 특징점)
The method of claim 18, wherein the matching feature point selection step,
After further selecting the matching feature points in order of decreasing calculated Euclidean distance value in addition to the selected matching feature points, deep learning for determining matching reliability of the selected matching feature points using a matching decision equation defined by the following equation: Based inscription recognition method.
Equation
E2 / E1> (Threshold)
(E1: selected matching feature point, E2: additionally selected matching feature point)
제 12 항에 있어서,
종 판단부에서 상기 이미지 입력 단계로부터 입력된 얼굴 이미지와 제 2 데이터베이스부에 저장된 이미지와의 비교를 통해 상기 동물의 종을 판단하는 종 판단단계를 더 포함하는 딥러닝 기반 비문 인식 방법.
The method of claim 12,
And a species determination step of determining a species of the animal by comparing a face image input from the image input step by a species determination unit with an image stored in a second database unit.
제 12 항에 있어서, 상기 제 1 데이터베이스부는,
상기 동물의 세부 종을 판단할 수 있는 표준화된 데이터로 수집된 복수 개의 변이(Variation) 이미지를 포함하는 딥러닝 기반 비문 인식 방법.
The method of claim 12, wherein the first database unit,
Deep learning based inscription recognition method comprising a plurality of variations (variation) images collected with standardized data that can determine the detailed species of the animal.
제 20 항에 있어서, 상기 제 2 데이터베이스부는,
상기 동물의 종을 판단할 수 있는 표준화된 데이터로 수집된 복수 개의 종(Breed) 이미지를 포함하는 딥러닝 기반 비문 인식 방법.
The method of claim 20, wherein the second database unit,
Deep learning based inscription recognition method comprising a plurality of species (Breed) images collected with standardized data that can determine the species of the animal.
KR1020180084266A 2018-07-19 2018-07-19 Nose pattern recognition system and method based on deep learning KR102466215B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180084266A KR102466215B1 (en) 2018-07-19 2018-07-19 Nose pattern recognition system and method based on deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180084266A KR102466215B1 (en) 2018-07-19 2018-07-19 Nose pattern recognition system and method based on deep learning

Publications (2)

Publication Number Publication Date
KR20200013160A true KR20200013160A (en) 2020-02-06
KR102466215B1 KR102466215B1 (en) 2022-11-11

Family

ID=69569273

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180084266A KR102466215B1 (en) 2018-07-19 2018-07-19 Nose pattern recognition system and method based on deep learning

Country Status (1)

Country Link
KR (1) KR102466215B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112784742A (en) * 2021-01-21 2021-05-11 宠爱王国(北京)网络科技有限公司 Extraction method and device of nose print features and nonvolatile storage medium
KR102254642B1 (en) * 2020-04-24 2021-05-21 (주)유소프트 Platform of recognizing and saving biometric marker based block chain
WO2022154410A1 (en) * 2021-01-13 2022-07-21 삼성전자 주식회사 Method and electronic device for creating image filter effect
KR20230005661A (en) 2021-07-01 2023-01-10 주식회사 인텔리고 Deep learning based system and method for recognizing behavior type using emg signal

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4190209B2 (en) 2002-05-23 2008-12-03 サージミヤワキ株式会社 Noseprint matching method
KR101309889B1 (en) * 2012-08-10 2013-09-17 아이베리파이 엘엘씨 Texture features for biometric authentication
KR101494716B1 (en) 2014-10-31 2015-02-26 주식회사 아이싸이랩 Apparatus of Animal Recognition System using nose patterns
KR20170002193A (en) * 2015-06-29 2017-01-06 주식회사 버즈폴 Apparatu for pet sitter intermediation using breed identificationand method therefor
JP2017126168A (en) * 2016-01-13 2017-07-20 富士通株式会社 Biometric authentication apparatus, biometric authentication method, and biometric authentication program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4190209B2 (en) 2002-05-23 2008-12-03 サージミヤワキ株式会社 Noseprint matching method
KR101309889B1 (en) * 2012-08-10 2013-09-17 아이베리파이 엘엘씨 Texture features for biometric authentication
KR101494716B1 (en) 2014-10-31 2015-02-26 주식회사 아이싸이랩 Apparatus of Animal Recognition System using nose patterns
KR20170002193A (en) * 2015-06-29 2017-01-06 주식회사 버즈폴 Apparatu for pet sitter intermediation using breed identificationand method therefor
JP2017126168A (en) * 2016-01-13 2017-07-20 富士通株式会社 Biometric authentication apparatus, biometric authentication method, and biometric authentication program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102254642B1 (en) * 2020-04-24 2021-05-21 (주)유소프트 Platform of recognizing and saving biometric marker based block chain
WO2022154410A1 (en) * 2021-01-13 2022-07-21 삼성전자 주식회사 Method and electronic device for creating image filter effect
CN112784742A (en) * 2021-01-21 2021-05-11 宠爱王国(北京)网络科技有限公司 Extraction method and device of nose print features and nonvolatile storage medium
KR20230005661A (en) 2021-07-01 2023-01-10 주식회사 인텔리고 Deep learning based system and method for recognizing behavior type using emg signal

Also Published As

Publication number Publication date
KR102466215B1 (en) 2022-11-11

Similar Documents

Publication Publication Date Title
KR102466215B1 (en) Nose pattern recognition system and method based on deep learning
Creusot et al. A machine-learning approach to keypoint detection and landmarking on 3D meshes
Berretti et al. A set of selected SIFT features for 3D facial expression recognition
TWI281126B (en) Image detection method based on region
Ali et al. Multimodal biometrics enhancement recognition system based on fusion of fingerprint and palmprint: a review
Wijaya et al. Pornographic image recognition based on skin probability and eigenporn of skin ROIs images
Farooq et al. Performance analysis of biometric recognition system based on palmprint
Le et al. Document retrieval based on logo spotting using key-point matching
Anjomshoae et al. Enhancement of template-based method for overlapping rubber tree leaf identification
da Silva Soares et al. Methodology based on texture, color and shape features for traffic light detection and recognition
Fawwad Hussain et al. Gray level face recognition using spatial features
Tiwari et al. An efficient technique for automatic segmentation of fingerprint ROI from digital slap image
Pushpa et al. Deep learning model for plant species classification using leaf vein features
Oldal et al. Biometric Authentication System based on Hand Geometry and Palmprint Features.
Allen et al. Unsupervised tattoo segmentation combining bottom-up and top-down cues
Pereira et al. An image analysis framework for effective classification of seed damages
Tariq et al. An automated system for fingerprint classification using singular points for biometric security
Vivek et al. Feature extraction for multimodal biometric and study of fusion using Gaussian mixture model
Chehrsimin Enhanced methods for saimaa ringed seal identification
Palaniswamy et al. Automatic Identification of Morphometric Landmarks in Digital Images.
Kumar et al. Feature selection approach in animal classification
Patel et al. Biometric-based Unique Identification for Bovine Animals—Comparative Study of Various Machine and Deep Learning Computer Vision Methods
Wang et al. Human Iris Image Analysis for the Classification of Fuchs’ Crypts and Peripupillary Rings
Othman et al. Face recognition model for age invariant
Zubiolo et al. Morphological analysis and feature extraction of neurons from mouse cortices multiscale 3D microscopic images

Legal Events

Date Code Title Description
A302 Request for accelerated examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant