KR102550864B1 - Method and System for Object Identification by Patterns of Object Image - Google Patents

Method and System for Object Identification by Patterns of Object Image Download PDF

Info

Publication number
KR102550864B1
KR102550864B1 KR1020200177638A KR20200177638A KR102550864B1 KR 102550864 B1 KR102550864 B1 KR 102550864B1 KR 1020200177638 A KR1020200177638 A KR 1020200177638A KR 20200177638 A KR20200177638 A KR 20200177638A KR 102550864 B1 KR102550864 B1 KR 102550864B1
Authority
KR
South Korea
Prior art keywords
roi
image
affine transformation
object image
ransac
Prior art date
Application number
KR1020200177638A
Other languages
Korean (ko)
Other versions
KR20220087180A (en
Inventor
권성화
Original Assignee
가톨릭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭대학교 산학협력단 filed Critical 가톨릭대학교 산학협력단
Priority to KR1020200177638A priority Critical patent/KR102550864B1/en
Publication of KR20220087180A publication Critical patent/KR20220087180A/en
Application granted granted Critical
Publication of KR102550864B1 publication Critical patent/KR102550864B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/0068Geometric image transformation in the plane of the image for image registration, e.g. elastic snapping
    • G06T3/0075Geometric image transformation in the plane of the image for image registration, e.g. elastic snapping using affine transformations
    • G06T3/147
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration

Abstract

개체 이미지의 패턴에 의한 개체 인식 식별 방법 및 시스템이 제시된다. 본 발명에서 제안하는 개체 이미지의 패턴에 의한 개체 인식 식별 방법은 제1 개체 이미지(IA) 및 제2 개체 이미지(IB)에 대하여 서로 다른 사이즈를 갖는 복수의 ROI 중 가장 작은 사이즈를 갖는 제1 ROI(v1)로 RANSAC 정렬 알고리즘을 수행하여 제1 ROI에 대한 아핀 변환 (Tf)을 찾는 단계, RANSAC 정렬 알고리즘을 수행하지 않고, 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾는 단계, 아핀 변환(Tf,2)과 제1 개체 이미지(IA)에 대해 제2 ROI(v2) 크기의 ROI 이미지(RA,1)의 네 개의 꼭짓점을 이용하여 제2 개체 이미지(IB)에 대해 제2 ROI(v2) 크기의 ROI 이미지(R* B,2)을 생성하는 단계 및 제1 개체 이미지(IA)에 대한 ROI 이미지(RA,2)와 제2 개체 이미지(IB)에 대한 ROI 이미지(R* B,2)로부터 생성된 각각의 템플릿의 해밍 거리를 계산하는 단계를 포함한다. A method and system for recognizing an object by a pattern of an object image are presented. The object recognition identification method according to the pattern of the object image proposed in the present invention is a first object image (I A ) and a second object image (I B ) having the smallest size among a plurality of ROIs having different sizes. Finding an affine transformation (T f ) for the first ROI by performing a RANSAC alignment algorithm with 1 ROI (v 1 ), using an affine transformation (T f ) for the first ROI without performing the RANSAC alignment algorithm Finding an affine transformation (T f,2 ) corresponding to performing the RANSAC alignment algorithm with a second ROI (v 2 ) having a size larger than the first ROI among the plurality of ROIs, affine transformation (T f,2 ) and A second ROI (v 2 ) for the second object image (I B ) using four vertices of the ROI image (R A,1 ) having the size of the second ROI (v 2 ) for the first object image (I A ) ) generating an ROI image (R * B,2 ) of size, and an ROI image (R A,2 ) for the first object image (I A ) and an ROI image (R for the second object image (I B )) * B,2 ) and calculating the Hamming distance of each template generated from

Description

개체 이미지의 패턴에 의한 개체 인식 식별 방법 및 시스템{Method and System for Object Identification by Patterns of Object Image}Method and system for object identification by pattern of object image {Method and System for Object Identification by Patterns of Object Image}

본 발명은 개체 이미지의 패턴을 이용한 개체 인식으로 개체를 식별하기 위한 방법 및 시스템에 관한 것이다. The present invention relates to a method and system for identifying an object by object recognition using a pattern of an object image.

최근 전국적으로 반려동물이 급격히 늘어나면서 그에 따른 다양한 문제도 함께 증가하는 추세이다. 정부에서도 반려동물등록제, 유기동물 보호소 운영과 같은 정책을 실시하고 있지만 역부족인 것이 사실이다.Recently, with the rapid increase in the number of companion animals nationwide, various problems are also increasing. The government is also implementing policies such as the companion animal registration system and the operation of shelters for abandoned animals, but it is true that they are not enough.

특히 현재 시행되는 반려동물등록제의 경우, 반려동물들을 동물병원에서 등록하고 시, 군, 구청에서 별도의 신고를 해야 하는 등의 번거로움이 있고, 반려동물 등록 여부를 증명하기 위해 마이크로칩 시술, 외장형 무선식별 장치 부착 또는 인식표를 부착해야 하는 불편함이 있다.In particular, in the case of the current companion animal registration system, there is the hassle of registering companion animals at the veterinary hospital and separately reporting at the city, county, or district office. There is an inconvenience of attaching a wireless identification device or attaching an identification tag.

또한, 신원등록을 통해 반려동물에 대한 많은 문제를 해결할 수 있지만, 기존 신원등록 방법의 부작용과 불편함으로 반려동물에 대한 신원등록률이 낮아 유기동물의 문제가 개선되지 않고 있으며, 기존의 인위적인 착용이나 삽입과 같은 반려동물의 대한 부작용을 초래할 수 있는 방법을 지양할 필요가 있다. 또한, 미국도 유기동물에 대한 문제가 심각하지만, 마이크로칩 반대 운동 등의 기존 등록방법에 대한 부정적인 인식이 강하기 때문에 등록에 있어서 불편함이나 부작용이 없는 등록방식의 필요성이 대두되고 있다.In addition, many problems regarding companion animals can be solved through identification registration, but the identification registration rate for companion animals is low due to the side effects and inconvenience of the existing identification registration method, and the problem of abandoned animals is not improved, and the existing artificial wearing or insertion It is necessary to avoid methods that can cause side effects on companion animals, such as In addition, the United States also has serious problems with abandoned animals, but because of the strong negative perception of existing registration methods such as the anti-microchip movement, the need for a registration method without inconvenience or side effects in registration is emerging.

한국 등록특허 제10-1539944호(2015.07.22)Korean Patent Registration No. 10-1539944 (2015.07.22) 한국 등록특허 제10-1706345호(2017.02.07)Korean Patent Registration No. 10-1706345 (2017.02.07)

본 발명이 이루고자 하는 기술적 과제는 개체 이미지의 패턴을 기반으로 하는 새로운 개체 인식 방법을 통해 비 유사도 점수를 계산하고, 개체 인식의 정확도는 유지하면서 개체 인식에 걸리는 시간을 감소 시키기 위해 이미지 인식에 있어서 서로 다른 사이즈를 갖는 복수의 ROI를 이용하는 방법 및 시스템을 제공하는데 있다. The technical problem to be achieved by the present invention is to calculate a dissimilarity score through a new object recognition method based on the pattern of an object image, and to reduce the time required for object recognition while maintaining the accuracy of object recognition. An object of the present invention is to provide a method and system using a plurality of ROIs having different sizes.

본 발명은 개체 이미지의 패턴을 이용한 개체 인식으로 개체를 식별하기 위한 방법 및 시스템에 관한 것으로, 개체 인식의 정확도는 유지하면서 개체 인식에 걸리는 시간을 감소 시키기 위해 이미지 인식에 있어서 서로 다른 사이즈를 갖는 복수의 ROI를 이용하는 방법 및 시스템을 제안한다. The present invention relates to a method and system for identifying an object by object recognition using a pattern of an object image. In order to reduce the time required for object recognition while maintaining the accuracy of object recognition, a plurality of images having different sizes are used in image recognition. We propose a method and system using the ROI of

ROI의 크기가 클수록 개체 인식의 정확도는 높으나 계산 시간이 오래 걸리는 단점이 있다. 다시 말해, 개체 인식 계산 과정 중 다양한 변화(예를 들어, 평행이동, 회전, 확대/축소 등)에 따른 RANSAC 정렬 알고리즘에 가장 많은 시간이 소요되고, 이 단계의 계산 소요 시간은 ROI의 크기가 클수록 오래 걸린다. The larger the size of the ROI, the higher the accuracy of object recognition, but has the disadvantage of taking a long calculation time. In other words, during the object recognition calculation process, the RANSAC alignment algorithm according to various changes (eg, translation, rotation, zoom, etc.) takes the most time, and the calculation time of this step increases as the size of the ROI increases. It takes a long time.

따라서, 본 발명에서는 개체 이미지의 패턴 인식의 정확도는 유지하면서 개체 이미지의 패턴 인식에 걸리는 시간을 줄이기 위해 가장 많은 시간이 소요되는 RANSAC 정렬 알고리즘에서 작은 크기의 ROI를 이용하여 계산하고, 이로부터 얻은 최적의 아핀 변환을 이용하여 큰 크기의 ROI를 생성하고 이를 이용하여 매칭을 수행한다.Therefore, in the present invention, in order to reduce the time required for object image pattern recognition while maintaining the accuracy of object image pattern recognition, the RANSAC alignment algorithm, which takes the most time, calculates using a small ROI, and the optimal A large-sized ROI is created using the affine transformation of , and matching is performed using it.

일 측면에 있어서, 본 발명에서 제안하는 반려동물의 비문 인식 식별 방법은 제1 비문 이미지(IA) 및 제2 비문 이미지(IB)에 대하여 ROI(Region of Interest)로 RANSAC(Random Sample Consensus) 정렬 알고리즘을 수행하여 아핀 변환(affine transformation)(Tf)을 찾는 단계, 아핀 변환(Tf)과 제1 비문 이미지(IA)에 대한 ROI 이미지(RA)의 네 개의 꼭짓점을 이용하여 제2 비문 이미지(IB)에 대한 ROI 이미지(RB)를 생성하는 단계 및 제1 비문 이미지(IA)에 대한 ROI 이미지(RA)와 제2 비문 이미지(IB)에 대한 ROI 이미지(RB)로부터 생성된 각각의 템플릿의 해밍 거리(hamming distance)를 계산하는 단계를 포함한다. In one aspect, the inscription recognition identification method of a companion animal proposed in the present invention uses RANSAC (Random Sample Consensus) as a region of interest (ROI) for the first inscription image (I A ) and the second inscription image (I B ) Finding an affine transformation (T f ) by performing a sorting algorithm, using the affine transformation (T f ) and four vertices of the ROI image (R A ) for the first inscription image (I A ) Step 2 of generating an ROI image (R B ) for the inscription image (I B ), and an ROI image (R A ) for the first inscription image (I A ) and an ROI image for the second inscription image (I B ) ( and calculating a hamming distance of each template generated from R B ).

또 다른 일 측면에 있어서, 본 발명에서 제안하는 개체 이미지의 패턴에 의한 개체 인식 식별 방법은 제1 개체 이미지(IA) 및 제2 개체 이미지(IB)에 대하여 서로 다른 사이즈를 갖는 복수의 ROI(Region of Interest) 중 가장 작은 사이즈를 갖는 제1 ROI(v1)로 RANSAC(Random Sample Consensus) 정렬 알고리즘을 수행하여 제1 ROI에 대한 아핀 변환(affine transformation)(Tf)을 찾는 단계 -제1 개체 이미지(IA)에 대해 제1 ROI(v1)을 적용한 ROI 이미지는 RA,1으로 나타내고, 제2 개체 이미지(IB)에 대해 제1 ROI(v1)을 적용한 ROI 이미지는 RB,1으로 나타냄-, RANSAC 정렬 알고리즘을 수행하지 않고, 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾는 단계, 아핀 변환(Tf,2)과 제1 개체 이미지(IA)에 대해 제2 ROI(v2) 크기의 ROI 이미지(RA,2)의 네 개의 꼭짓점을 이용하여 제2 개체 이미지(IB)에 대해 제2 ROI(v2) 크기의 ROI 이미지(R* B,2)을 생성하는 단계 및 제1 개체 이미지(IA)에 대한 ROI 이미지(RA,2)와 제2 개체 이미지(IB)에 대한 ROI 이미지(R* B,2)로부터 생성된 각각의 템플릿의 해밍 거리(hamming distance)를 계산하는 단계를 포함한다. In another aspect, the object recognition identification method according to the pattern of the object image proposed in the present invention includes a plurality of ROIs having different sizes for the first object image (I A ) and the second object image (I B ). Finding an affine transformation (T f ) for the first ROI by performing a Random Sample Consensus (RANSAC) alignment algorithm with the first ROI (v 1 ) having the smallest size among (Region of Interest) An ROI image to which the first ROI (v 1 ) is applied to one object image (I A ) is denoted by R A,1 , and an ROI image to which the first ROI (v 1 ) is applied to the second object image (I B ) is Represented by R B,1- , without performing the RANSAC alignment algorithm, using an affine transformation (T f ) for the first ROI to a second ROI (v 2 ) having a size larger than the first ROI among the plurality of ROIs Finding an affine transformation (T f,2 ) corresponding to that performed by the RANSAC alignment algorithm, an ROI of the size of the second ROI (v 2 ) for the affine transformation (T f,2 ) and the first object image (I A ) generating an ROI image (R * B,2 ) having a size of a second ROI (v 2 ) for a second object image (I B ) by using four vertices of the image (R A ,2 ); and Calculate the hamming distance of each template generated from the ROI image (R A,2 ) of the image (I A ) and the ROI image (R * B,2 ) of the second object image (I B ) It includes steps to

RANSAC 정렬 알고리즘을 수행하지 않고, 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾는 단계는 하기식을 이용하여 아핀 변환(Tf,2)을 계산하고, Corresponding to performing the RANSAC alignment algorithm with a second ROI (v 2 ) having a larger size than the first ROI among a plurality of ROIs using an affine transformation (T f ) for the first ROI without performing the RANSAC alignment algorithm The step of finding the affine transformation (T f,2 ) to calculate the affine transformation (T f,2 ) using the following equation,

Figure 112020137549049-pat00001
Figure 112020137549049-pat00001

여기서

Figure 112020137549049-pat00002
,
Figure 112020137549049-pat00003
,
Figure 112020137549049-pat00004
이므로, here
Figure 112020137549049-pat00002
,
Figure 112020137549049-pat00003
,
Figure 112020137549049-pat00004
Because of,

Figure 112020137549049-pat00005
일 때,
Figure 112020137549049-pat00006
이다.
Figure 112020137549049-pat00005
when,
Figure 112020137549049-pat00006
am.

본 발명에서 제안하는 개체 이미지의 패턴에 의한 개체인식 식별 방법은 개체 이미지의 패턴을 이용한 인식에 걸리는 시간을 감소시키기 위해 RANSAC 정렬 알고리즘은 복수의 ROI 중 가장 작은 사이즈를 갖는 제1 ROI(v1)로 수행하여 제1 ROI에 대한 아핀 변환(Tf)을 획득하고, 개체 이미지의 패턴을 이용한 인식의 정확도를 증가 시키기 위해 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾아 생성된 템플릿으로 해밍 거리를 계산하며, 템플릿의 해밍 거리 계산의 정확도를 높이기 위해 RANSAC 정렬 알고리즘을 이용하여 최적의 아핀 변환을 찾고, 제1 개체 이미지(IA) 및 제2 개체 이미지(IB) 각각의 ROI의 좌표 정보의 변화 및 ROI 이미지의 잘못된 정렬을 제외하는 기법을 이용한다. In order to reduce the time required for recognition using the pattern of an object image, the object recognition identification method according to the pattern of the object image proposed in the present invention uses the RANSAC alignment algorithm to select the first ROI (v 1 ) having the smallest size among the plurality of ROIs To obtain an affine transformation (T f ) for the first ROI, and to increase the accuracy of recognition using the pattern of the object image, the affine transformation (T f ) for the first ROI is used to obtain a first one of the plurality of ROIs. The affine transformation (T f,2 ) corresponding to the RANSAC alignment algorithm was performed with the second ROI (v 2 ) having a size larger than 1 ROI, and the Hamming distance was calculated with the generated template, and the Hamming distance calculation of the template In order to increase accuracy, the RANSAC alignment algorithm is used to find the optimal affine transformation, and the change in coordinate information of each ROI of the first object image (I A ) and the second object image (I B ) and the misalignment of the ROI image are excluded use a technique that

또 다른 일 측면에 있어서, 본 발명에서 제안하는 개체 이미지의 패턴에 의한 개체 인식 식별 시스템은 제1 개체 이미지(IA) 및 제2 개체 이미지(IB)에 대하여 서로 다른 사이즈를 갖는 복수의 ROI(Region of Interest) 중 가장 작은 사이즈를 갖는 제1 ROI(v1)로 RANSAC(Random Sample Consensus) 정렬 알고리즘을 수행하여 제1 ROI에 대한 아핀 변환(affine transformation)(Tf)을 찾는 RANSAC 정렬 알고리즘 수행부 -제1 개체 이미지(IA)에 대해 제1 ROI(v1)을 적용한 ROI 이미지는 RA,1으로 나타내고, 제2 개체 이미지(IB)에 대해 제1 ROI(v1)을 적용한 ROI 이미지는 RB,1으로 나타냄-, RANSAC 정렬 알고리즘을 수행하지 않고, 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾는 아핀 변환 수행부, 아핀 변환(Tf,2)과 제1 개체 이미지(IA)에 대해 제2 ROI(v2) 크기의 ROI 이미지(RA,2)의 네 개의 꼭짓점을 이용하여 제2 개체 이미지(IB)에 대해 제2 ROI(v2) 크기의 ROI 이미지(R* B,2)을 생성하는 ROI 영역 생성부 및 제1 개체 이미지(IA)에 대한 ROI 이미지(RA,2)와 제2 개체 이미지(IB)에 대한 ROI 이미지(R* B,2)로부터 생성된 각각의 템플릿의 해밍 거리(hamming distance)를 계산하는 해밍 거리 계산부를 포함한다.In another aspect, the object recognition identification system according to the pattern of the object image proposed in the present invention is a plurality of ROIs having different sizes for the first object image I A and the second object image I B . A RANSAC alignment algorithm for finding an affine transformation (T f ) for the first ROI by performing a RANSAC (Random Sample Consensus) alignment algorithm with the first ROI (v 1 ) having the smallest size among (Region of Interest) Execution Unit - An ROI image to which the first ROI (v 1 ) is applied to the first object image (I A ) is represented by R A,1 , and the first ROI (v 1 ) is applied to the second object image (I B ). The applied ROI image is represented by R B,1- , a second ROI having a larger size than the first ROI among a plurality of ROIs by using an affine transformation (T f ) for the first ROI without performing the RANSAC alignment algorithm ( v 2 ), an affine transformation performer that finds an affine transformation (T f,2 ) corresponding to the RANSAC alignment algorithm, and a second ROI for the affine transformation (T f,2 ) and the first object image (I A ) An ROI image (R * B,2 ) of the size of the second ROI (v 2 ) is obtained for the second object image (I B ) using four vertices of the ROI image (R A , 2 ) of size (v 2 ). ROI area generation unit to generate and each generated from the ROI image (R A,2 ) for the first object image (I A ) and the ROI image (R * B,2 ) for the second object image (I B ) A Hamming distance calculation unit for calculating a Hamming distance of the template is included.

본 발명의 실시예들에 따르면 개체 이미지의 패턴을 기반으로 하는 새로운 개체 인식 방법을 통해 비 유사도 점수를 계산하고, 이미지 인식에 있어서 서로 다른 사이즈를 갖는 복수의 ROI를 이용함으로써 개체 인식의 정확도는 유지하면서 개체 인식에 걸리는 시간을 감소 시킬 수 있다.According to embodiments of the present invention, a dissimilarity score is calculated through a new object recognition method based on a pattern of an object image, and object recognition accuracy is maintained by using a plurality of ROIs having different sizes in image recognition. while reducing the time required for object recognition.

도 1은 본 발명의 일 실시예에 따른 개체 인식을 위한 코 이미지의 샘플을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 개체 인식을 위한 코 이미지의 ROI에 대한 위상 코드를 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 비 유사도 점수

Figure 112020137549049-pat00007
에 대한 비교와 ROC 곡선을 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 개체 이미지의 패턴에 의한 개체 인식 식별 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 개체 이미지의 패턴에 의한 개체 인식 식별 시스템의 구성을 나타내는 도면이다. 1 is a diagram showing a sample of a nose image for object recognition according to an embodiment of the present invention.
2 is a diagram illustrating phase codes for ROIs of a nose image for object recognition according to an embodiment of the present invention.
3 is a dissimilarity score according to an embodiment of the present invention
Figure 112020137549049-pat00007
It is a diagram showing the comparison and the ROC curve for .
4 is a flowchart illustrating a method for recognizing and identifying an object based on a pattern of an object image according to an embodiment of the present invention.
5 is a diagram showing the configuration of an object recognition identification system based on a pattern of an object image according to an embodiment of the present invention.

이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 개체 인식을 위한 코 이미지의 샘플을 나타내는 도면이다.1 is a diagram showing a sample of a nose image for object recognition according to an embodiment of the present invention.

본 발명에서는 개체 이미지의 패턴에 의한 개체 인식 식별 방법에 관하여 반려동물의 코 이미지를 예시로서 설명한다. 여기서, 반려동물의 코 이미지는 실시예일뿐 이에 한정되지 않으며, 이외의 다양한 개체에 대해 제안하는 개체 이미지의 패턴에 의한 개체 인식 식별 방법이 적용될 수 있다. In the present invention, a nose image of a companion animal will be described as an example of an object recognition and identification method based on a pattern of an object image. Here, the nose image of a companion animal is only an example and is not limited thereto, and an object recognition and identification method based on a pattern of an object image proposed for various other objects may be applied.

도 1(a)는 본 발명의 일 실시예에 따른 정면에서 캡쳐한 코 이미지를 나타내는 도면이고, 도 1(b)는 도 1(a)에 도시된 코 이미지에서 딥러닝 방법에 의한 분할 결과를 나타내는 도면이고, 도 1(c)는 도 1(a)에 도시된 코 이미지에서 ROI 이미지를 획득하기 위한 가이드 선들을 나타내는 도면이고, 도 1(d)는 이러한 가이드 선들에 의해 잘린 ROI 영역을 나타내는 도면이다. Figure 1 (a) is a view showing a nose image captured from the front according to an embodiment of the present invention, Figure 1 (b) is a segmentation result by the deep learning method in the nose image shown in Figure 1 (a) FIG. 1(c) is a diagram showing guide lines for obtaining an ROI image from the nose image shown in FIG. 1(a), and FIG. 1(d) shows an ROI area cut by these guide lines. it is a drawing

머즐 패턴(muzzle pattern)에 의한 반려동물(예를 들어, 강아지)의 생체 인식은 해당 반려동물 개체의 머즐 패턴을 비교하여 수행된다. 따라서 머즐 패턴 식별의 첫 번째 단계는 코 이미지(nose image)에서 머즐 패턴을 추출하는 것이다. 머즐 패턴을 추출하려면, 먼저 주어진 코 이미지에서 관심 영역(Region of Interest; ROI)을 식별해야 한다. 코는 3 차원 개체이기 때문에 캡쳐된 머즐 패턴은 시야각에 따라 크게 왜곡 될 수 있다. 따라서 식별의 정확도를 높이기 위해 캡쳐 방향을 다소 일관되게 유지하는 것이 중요하다. 정면에서 코 이미지를 촬영하는 것은 자연스럽고 직관적이므로 본 발명에서는 코 이미지를 정면에서 촬영한다고 가정한다. 도 1(a)는 정면에서 캡쳐한 코 이미지 샘플을 나타낸다. 캡쳐된 코 이미지에서 가장 두드러진 특징은 콧 구멍과 필트럼(philtrum)이다. 이러한 이유로 두 콧 구멍 사이의 일부 영역을 ROI로 사용한다. Biometric recognition of a companion animal (eg, a puppy) by a muzzle pattern is performed by comparing a muzzle pattern of a corresponding companion animal. Therefore, the first step in muzzle pattern identification is to extract the muzzle pattern from the nose image. To extract the muzzle pattern, we first need to identify a Region of Interest (ROI) in a given nose image. Since the nose is a three-dimensional object, the captured muzzle pattern may be greatly distorted depending on the viewing angle. Therefore, it is important to keep the capture direction somewhat consistent in order to increase the accuracy of identification. Taking a nose image from the front is natural and intuitive, so it is assumed that the nose image is taken from the front in the present invention. Figure 1 (a) shows a nose image sample captured from the front. The most prominent features in the captured nose image are the nostrils and philtrum. For this reason, a partial area between the two nostrils is used as an ROI.

따라서 ROI를 추출하려면 먼저 주어진 코 이미지에서 콧 구멍과 필트럼을 식별해야 한다. 본 발명에서는 딥러닝 방법을 사용하여 콧 구멍과 필트럼 부위를 분할(segment)한다. 도 1(b)는 도 1(a)에 표시된 이미지에서 딥러닝 방법에 의한 분할 결과를 보여준다. 이러한 영역이 감지되면 두 콧 구멍 영역의 위쪽 접선과 접선에 수직이고 두 콧 구멍 사이의 각 콧 구멍 영역에 닿는 두 개의 수직선을 쉽게 찾을 수 있다. 도 1(c)는 도 1(a)에 도시된 코 이미지의 상단에 이러한 선들을 나타낸다. 이 선들은 자연스럽게 좌표 정보

Figure 112020137549049-pat00008
를 통해 좌표계를 제공한다. 여기서
Figure 112020137549049-pat00009
는 선들의 두 교차점의 중간 점이고,
Figure 112020137549049-pat00010
Figure 112020137549049-pat00011
에서 오른쪽 교차점까지의 벡터이다. 이후,
Figure 112020137549049-pat00012
는 이미지 평면의 직교 기준(orthogonal basis)이다. 여기서
Figure 112020137549049-pat00013
Figure 112020137549049-pat00014
를 90도 회전에서 얻은 벡터를 나타낸다. 직교 기준
Figure 112020137549049-pat00015
로 정의된 좌표계를 사용하여, 직사각형 영역을 ROI로 사용한다. 도 1(d)는 이러한 구성을 사용하여 도 1(a)의 코 이미지에서 잘린 ROI를 나타낸다. Therefore, to extract ROIs, we first need to identify the nostrils and filtrum in a given nose image. In the present invention, the nostril and filtrum regions are segmented using a deep learning method. Figure 1 (b) shows the result of segmentation by the deep learning method in the image shown in Figure 1 (a). Once these areas are detected, it is easy to find two perpendicular lines that touch each nostril area between the two nostrils, perpendicular to the tangent to the upper tangent of the two nostril areas. Figure 1(c) shows these lines on top of the nose image shown in Figure 1(a). These lines naturally coordinate information
Figure 112020137549049-pat00008
Provides a coordinate system through here
Figure 112020137549049-pat00009
is the midpoint of the two intersections of the lines,
Figure 112020137549049-pat00010
Is
Figure 112020137549049-pat00011
is the vector from to the right intersection. after,
Figure 112020137549049-pat00012
is the orthogonal basis of the image plane. here
Figure 112020137549049-pat00013
Is
Figure 112020137549049-pat00014
represents the vector obtained from a 90 degree rotation. Cartesian standard
Figure 112020137549049-pat00015
Using the coordinate system defined by , a rectangular region is used as the ROI. Figure 1(d) shows an ROI cropped from the nose image of Figure 1(a) using this configuration.

도 2는 본 발명의 일 실시예에 따른 개체 인식을 위한 코 이미지의 ROI에 대한 위상 코드를 나타내는 도면이다.2 is a diagram illustrating phase codes for ROIs of a nose image for object recognition according to an embodiment of the present invention.

직사각형 ROI를 획득하면, 직사각형 영역에 다양한 주파수 변환 또는 웨이블릿 변환을 적용하여 머즐 패턴을 위상 코드로 인코딩한다. 단순화를 위해, 위상 코드를 2-차원 비트 어레이(bit array)로 생각할 수 있다. 본 발명에서는 다음과 같은 복소수 2D 가버 웨이블릿(Gabor wavelet)을 사용하여 정의된 인간 홍채 인식에 사용된 Daugman [2]과 동일한 위상 코드를 사용한다: When a rectangular ROI is acquired, a muzzle pattern is encoded into a phase code by applying various frequency transforms or wavelet transforms to the rectangular region. For simplicity, a phase code can be thought of as a two-dimensional bit array. In the present invention, we use the same phase code as Daugman [2] used for human iris recognition defined using the complex 2D Gabor wavelet as follows:

Figure 112020137549049-pat00016
Figure 112020137549049-pat00016

특히, 실수부(

Figure 112020137549049-pat00017
)와 허수부(
Figure 112020137549049-pat00018
)는 이진수(0 또는 1)이다. 자세한 내용은 Daugman [2]를 참조한다. 도 1(d)에서 잘린 ROI에 대한 위상 코드
Figure 112020137549049-pat00019
은 도 2에 나타내었다. In particular, the real part (
Figure 112020137549049-pat00017
) and the imaginary part (
Figure 112020137549049-pat00018
) is a binary number (0 or 1). See Daugman [2] for details. Phase code for cropped ROI in Fig. 1(d)
Figure 112020137549049-pat00019
is shown in Figure 2.

머즐은 일반적으로 젖어 있고 헤어(hair)와 같은 일부 물체에 의해 가려 질 수 있으므로, 머즐 패턴의 일부가 손상되어 비교 시 무시될 수 있다. 이를 위해 위상 코드의 어느 부분을 아티팩트로 무시해야 하는지 나타내는 마스킹 비트 벡터(masking bit vector)도 계산해야 한다. 본 발명에서는 마스킹 비트 벡터의 크기가 위상 코드의 크기와 같다고 가정하고, 마스킹 비트 벡터에서의 0의 값은 위상 코드에서의 해당 비트 값이 어떻게든 손상되어 무시된다는 것을 나타낸다.Muzzles are usually wet and may be obscured by some object, such as hair, so parts of the muzzle pattern are damaged and can be ignored in comparison. For this purpose, a masking bit vector indicating which parts of the phase code should be ignored as artifacts must also be calculated. In the present invention, it is assumed that the size of the masking bit vector is equal to the size of the phase code, and a value of 0 in the masking bit vector indicates that the corresponding bit value in the phase code is somehow corrupted and ignored.

따라서, 각 머즐 패턴은 한 쌍의 비트 벡터, 즉 위상 코드와 마스크라고 하는 마스킹 비트 벡터로 인코딩된다. 단순화를 위해 머즐 패턴을 참조할 때 위상 코드와 마스크 쌍을 단순히 머즐 템플릿 또는 템플릿이라고 한다. 다음에서는, 위상 코드(

Figure 112020137549049-pat00020
) 및 마스크(
Figure 112020137549049-pat00021
)로 템플릿
Figure 112020137549049-pat00022
를 나타내기 위해
Figure 112020137549049-pat00023
표기법을 사용한다.Thus, each muzzle pattern is encoded with a pair of bit vectors: a phase code and a masking bit vector called a mask. For simplicity, when referring to muzzle patterns, phase code and mask pairs are simply referred to as muzzle templates or templates. In the following, the phase code (
Figure 112020137549049-pat00020
) and mask (
Figure 112020137549049-pat00021
) as template
Figure 112020137549049-pat00022
to indicate
Figure 112020137549049-pat00023
use notation.

두 머즐 패턴 간의 비 유사도 점수 또는 거리(distance) 점수는 해당 템플릿을 비교하여 측정된다. 두 템플릿 간의 가장 잘 알려진 기본 거리는 [2]에서와 같이 부분 해밍 거리(fractional Hamming distance)이다. 하지만, 대부분의 머즐 위상 코드가 가려진 경우 부분 해밍 거리가 비교 결과를 잘못 나타낼 수 있다. 따라서, 본 발명에서는 [22]에서 제안한 수정된 부분 해밍 거리를 사용하여 머즐 템플릿의 비 유사도를 측정한다. A dissimilarity score or distance score between two muzzle patterns is measured by comparing corresponding templates. The most well-known basic distance between two templates is the fractional Hamming distance as in [2]. However, if most of the muzzle phase codes are occluded, the partial Hamming distance may misrepresent the comparison result. Therefore, in the present invention, the dissimilarity of muzzle templates is measured using the modified partial Hamming distance proposed in [22].

수정된 부분 해밍 거리 또는 단순하게 템플릿 A와 템플릿 B 간의 수정된 해밍 거리

Figure 112020137549049-pat00024
는 다음과 같이 정의된다: Modified partial Hamming distance or simply Modified Hamming distance between template A and template B
Figure 112020137549049-pat00024
is defined as:

Figure 112020137549049-pat00025
Figure 112020137549049-pat00025

여기서

Figure 112020137549049-pat00026
Figure 112020137549049-pat00027
는 각각 머즐 템플릿 A와 B의 위상 코드를 나타낸다;
Figure 112020137549049-pat00028
Figure 112020137549049-pat00029
는 각각 머즐 템플릿 A 및 B의 마스크를 나타낸다. 거리
Figure 112020137549049-pat00030
의 정의에서,
Figure 112020137549049-pat00031
는 비트 부울 XOR 연산자,
Figure 112020137549049-pat00032
는 비트 AND 연산자,
Figure 112020137549049-pat00033
은 비트 NOT 연산자,
Figure 112020137549049-pat00034
는 비트 벡터의 표준이고
Figure 112020137549049-pat00035
은 위상 코드의 비트 수를 나타낸다. 이러한 거리의 기본 아이디어는 각각의 유효하지 않은 비트에 대해 비 유사도 점수 0.5를 제공하는 것이다. here
Figure 112020137549049-pat00026
and
Figure 112020137549049-pat00027
denote the phase codes of muzzle templates A and B, respectively;
Figure 112020137549049-pat00028
and
Figure 112020137549049-pat00029
denotes the masks of muzzle templates A and B, respectively. distance
Figure 112020137549049-pat00030
In the definition of
Figure 112020137549049-pat00031
is the bitwise Boolean XOR operator,
Figure 112020137549049-pat00032
is the bitwise AND operator,
Figure 112020137549049-pat00033
is the bitwise NOT operator,
Figure 112020137549049-pat00034
is the standard of the bit vector and
Figure 112020137549049-pat00035
represents the number of bits of the phase code. The basic idea of these distances is to give a dissimilarity score of 0.5 for each invalid bit.

본 발명의 실시예에 따르면, 코 이미지가 정면에서 촬영되었다고 가정한다. 하지만, 항상 3 차원 공간에서 같은 방향에서 코 이미지를 촬영하는 것은 불가능하다. 또한 ROI를 식별하는 데 분할 오류(segmentation error)가 있을 수 있다. 따라서, 동일한 대상의 머즐 위상 코드의 동일한 부분에서 동일한 머즐 패턴이 인코딩된다고 가정해서는 안 된다. 비교하기 위한 두 개의 코 이미지에 대한 잘린 두 ROI의 차이를 보완하기 위해 비교 수행 시 코드 이동(codes shifting)을 적용한다. 더욱 상세하게는, 전체적으로 위상 코드를 이동하지 않고, 하위 블록을 독립적으로 수행한다. 이것은 3 차원 물체를 2 차원 이미지로 캡쳐하는 데 실제로 작동하는 것은 투영 변환이기 때문이고, 따라서 두 위상 코드를 비교하기 위해 적용해야 하는 것은 비선형 변환이다. 이러한 아이디어로, 먼저 위상 코드를 여러 하위 블록으로 나눈다. 마스크도 같은 방식으로 하위 블록으로 나눈다. 분할된 위상 코드 쌍과 해당 분할 마스크를 단순히 머즐 템플릿의 하위 블록이라고 한다. 이후, 다음과 같은 방식으로 두 개의 하위 블록을 비교한다: According to an embodiment of the present invention, it is assumed that the nose image is taken from the front. However, it is impossible to always take nose images from the same direction in 3D space. There may also be segmentation errors in identifying ROIs. Therefore, it should not be assumed that the same muzzle pattern is encoded in the same part of the muzzle phase code of the same object. In order to compensate for the difference between the two cropped ROIs of the two nose images for comparison, codes shifting is applied during comparison. More specifically, sub-blocks are independently performed without moving phase codes as a whole. This is because what actually works to capture a 3D object into a 2D image is a projection transformation, so what needs to be applied to compare two phase codes is a non-linear transformation. With this idea, we first divide the phase code into several sub-blocks. Masks are also divided into sub-blocks in the same way. The segmented phase code pair and the corresponding segmentation mask are simply referred to as sub-blocks of the muzzle template. Then, the two sub-blocks are compared in the following way:

Figure 112020137549049-pat00036
Figure 112020137549049-pat00036

여기서

Figure 112020137549049-pat00037
Figure 112020137549049-pat00038
는 각각 템플릿 A와 B의 k 번째 하위 블록을 나타내고
Figure 112020137549049-pat00039
Figure 112020137549049-pat00040
에서 수평으로
Figure 112020137549049-pat00041
픽셀, 수직으로
Figure 112020137549049-pat00042
픽셀만큼 이동한 하위 블록을 나타낸다.
Figure 112020137549049-pat00043
는 거리 점수 계산에 적용할 이동 세트
Figure 112020137549049-pat00044
를 나타낸다. 블록 거리 점수
Figure 112020137549049-pat00045
가 계산되면 최종 거리 점수
Figure 112020137549049-pat00046
이 블록 거리의 기하학적 평균으로 주어진다: here
Figure 112020137549049-pat00037
and
Figure 112020137549049-pat00038
denotes the kth subblock of templates A and B, respectively.
Figure 112020137549049-pat00039
Is
Figure 112020137549049-pat00040
horizontally from
Figure 112020137549049-pat00041
pixels vertically
Figure 112020137549049-pat00042
Indicates a sub-block moved by a pixel.
Figure 112020137549049-pat00043
is the set of moves to be applied in calculating the distance score
Figure 112020137549049-pat00044
indicates block distance score
Figure 112020137549049-pat00045
is calculated, the final distance score
Figure 112020137549049-pat00046
The geometric mean of this block distance is given by:

Figure 112020137549049-pat00047
Figure 112020137549049-pat00047

여기서 A와 B는 비교할 머즐 템플릿을 나타내고 m은 템플릿의 하위 블록 수이다. where A and B represent muzzle templates to be compared and m is the number of subblocks in the template.

도 3은 본 발명의 일 실시예에 따른 비 유사도 점수

Figure 112020137549049-pat00048
에 대한 비교와 ROC 곡선을 나타내는 도면이다. 3 is a dissimilarity score according to an embodiment of the present invention
Figure 112020137549049-pat00048
It is a diagram showing the comparison and the ROC curve for .

본 발명에서 제안하는 개체 식별 알고리즘의 성능을 측정하기 위해 개체인식을 위한 코 이미지 데이터셋으로 비교 테스트를 하였다. In order to measure the performance of the object identification algorithm proposed in the present invention, a comparative test was performed with a nose image dataset for object recognition.

이 데이터셋에서 이미지는 1920

Figure 112020137549049-pat00049
1080 해상도의 CCD 카메라를 사용하여 수집되었다. 정반사를 최소화하기 위해 코에 덮개를 사용했다. In this dataset the image is 1920
Figure 112020137549049-pat00049
It was collected using a CCD camera with 1080 resolution. A cover was used on the nose to minimize specular reflection.

도 3은 비 유사도 점수

Figure 112020137549049-pat00050
에 대한 비교 결과를 나타낸다. ROC 곡선에서 알 수 있듯이, 알고리즘의 정확도는 실제 목적에 충분하지 않다. 주요 문제점 중 하나는 동일한 개체를 비교한 경우(genuine)의 비교 점수의 분포가 오른쪽에 상대적으로 헤비 테일(heavy tail)을 갖는 다는 것이다. 이러한 동일한 개체를 비교한 경우(genuine)의 높은 비교 점수는 주로 이미지가 비교되는 두 비 유사도 ROI가 다른 방향에서 촬영될 때 서로 정렬되지 않았기 때문이다. 이러한 결과는 다른 투영 변환으로 얻은 두 이미지를 정렬하는 방법이 필요함을 의미한다. 다음에서 두 이미지를 정렬하는 방법에 대해 설명한다.3 is a dissimilarity score
Figure 112020137549049-pat00050
Indicates the comparison result for . As can be seen from the ROC curve, the accuracy of the algorithm is not good enough for practical purposes. One of the major problems is that the distribution of comparison scores when comparing identical individuals (genuine) has a relatively heavy tail on the right. The high comparison score in the case of comparing the same object (genuine) is mainly because the two dissimilarity ROIs in which images are compared are not aligned with each other when taken from different directions. These results imply that we need a way to align the two images obtained with different projection transformations. The following describes how to align the two images.

Figure 112020137549049-pat00051
Figure 112020137549049-pat00052
가 동일한 피사체에서 찍은 두 개의 다른 코 이미지이고
Figure 112020137549049-pat00053
Figure 112020137549049-pat00054
가 각각 코 이미지
Figure 112020137549049-pat00055
Figure 112020137549049-pat00056
에서 잘라낸 ROI라고 가정한다.
Figure 112020137549049-pat00057
Figure 112020137549049-pat00058
와 정렬하기 위해,
Figure 112020137549049-pat00059
의 어느 부분이
Figure 112020137549049-pat00060
의 어느 부분에 해당하는지에 대한 정보가 필요하다. 이 정보를 얻기 위해
Figure 112020137549049-pat00061
의 포인트
Figure 112020137549049-pat00062
을 샘플링하고 각각의 포인트
Figure 112020137549049-pat00063
에 대하여
Figure 112020137549049-pat00064
의 가장 가까운 포인트
Figure 112020137549049-pat00065
를 찾는다. 이를 위해, 중심이
Figure 112020137549049-pat00066
Figure 112020137549049-pat00067
의 하위 직사각형
Figure 112020137549049-pat00068
는 크기가
Figure 112020137549049-pat00069
와 동일한
Figure 112020137549049-pat00070
의 가능한 모든 하위 직사각형과 비교된다. 두 개의 직사각형을 비교하여 두 개의 하위 직사각형의 두 개의 해당 하위 템플릿의 비 유사도 점수
Figure 112020137549049-pat00071
를 측정한다. 그러면, 가장 가까운 포인트
Figure 112020137549049-pat00072
Figure 112020137549049-pat00073
에서
Figure 112020137549049-pat00074
에 가장 가까운 하위 직사각형의 중심이다.
Figure 112020137549049-pat00051
and
Figure 112020137549049-pat00052
are two different nose images taken from the same subject, and
Figure 112020137549049-pat00053
and
Figure 112020137549049-pat00054
are the respective nose images
Figure 112020137549049-pat00055
and
Figure 112020137549049-pat00056
Assume that the ROI is cropped from .
Figure 112020137549049-pat00057
cast
Figure 112020137549049-pat00058
to align with
Figure 112020137549049-pat00059
which part of
Figure 112020137549049-pat00060
Information on which part of the to get this information
Figure 112020137549049-pat00061
point of
Figure 112020137549049-pat00062
and for each point
Figure 112020137549049-pat00063
about
Figure 112020137549049-pat00064
nearest point of
Figure 112020137549049-pat00065
look for For this purpose, the center
Figure 112020137549049-pat00066
person
Figure 112020137549049-pat00067
sub-rectangle of
Figure 112020137549049-pat00068
is the size
Figure 112020137549049-pat00069
same as
Figure 112020137549049-pat00070
All possible sub-rectangles of are compared. The dissimilarity score of the two corresponding sub-templates of the two sub-rectangles by comparing the two rectangles
Figure 112020137549049-pat00071
to measure Then, the nearest point
Figure 112020137549049-pat00072
Is
Figure 112020137549049-pat00073
at
Figure 112020137549049-pat00074
is the center of the sub-rectangle closest to .

Figure 112020137549049-pat00075
Figure 112020137549049-pat00076
Figure 112020137549049-pat00077
Figure 112020137549049-pat00078
에 해당한다는 정보 바탕으로 RANSAC(Random Sample Consensus) 패러다임 [21]을 적용하여 최적의 변환 T를 피팅한다.
Figure 112020137549049-pat00075
of
Figure 112020137549049-pat00076
go
Figure 112020137549049-pat00077
of
Figure 112020137549049-pat00078
Based on the information that corresponds to , the RANSAC (Random Sample Consensus) paradigm [21] is applied to fit the optimal transformation T.

RANSAC(Random Sample Consensus) 정렬 알고리즘은 다음과 같다: The Random Sample Consensus (RANSAC) sorting algorithm is as follows:

1.

Figure 112020137549049-pat00079
에서 m 개의 포인트의 부분 집합
Figure 112020137549049-pat00080
을 랜덤으로 선택하고, 하기식의 제곱 오차를 최소화하는 최상의 아핀 변환(affine transform) T를 찾는다: One.
Figure 112020137549049-pat00079
subset of m points in
Figure 112020137549049-pat00080
is randomly selected and finds the best affine transform T that minimizes the squared error of the equation:

Figure 112020137549049-pat00081
Figure 112020137549049-pat00081

여기서

Figure 112020137549049-pat00082
의 포인트
Figure 112020137549049-pat00083
Figure 112020137549049-pat00084
의 포인트
Figure 112020137549049-pat00085
에 해당한다. here
Figure 112020137549049-pat00082
point of
Figure 112020137549049-pat00083
Is
Figure 112020137549049-pat00084
point of
Figure 112020137549049-pat00085
corresponds to

2. 피팅된 아핀 변환 T를 사용하여 L에서 일부 오차 허용치

Figure 112020137549049-pat00086
내에 있는, 즉 하기식을 만족하는, 포인트
Figure 112020137549049-pat00087
의 부분 집합
Figure 112020137549049-pat00088
을 결정한다: 2. Some error tolerance in L using the fitted affine transformation T
Figure 112020137549049-pat00086
Points that are within, that is, that satisfy the following equation
Figure 112020137549049-pat00087
subset of
Figure 112020137549049-pat00088
determines:

Figure 112020137549049-pat00089
Figure 112020137549049-pat00089

부분 집합

Figure 112020137549049-pat00090
은 T에 의한 합의 세트(consensus set) 라고 한다.subset
Figure 112020137549049-pat00090
is called the consensus set by T.

3. 미리 결정된 횟수의 시도에 따라 1 단계와 2 단계를 반복하고 가장 큰 합의 세트를 갖는 T를 최종 출력으로 한다. 3. Steps 1 and 2 are repeated according to a predetermined number of trials, and T having the largest set of sums is the final output.

피팅된 아핀 변환 T를 사용하면, 코 이미지

Figure 112020137549049-pat00091
에서 정렬된 ROI
Figure 112020137549049-pat00092
는 역 4 포인트
Figure 112020137549049-pat00093
Figure 112020137549049-pat00094
로 정의된다. 여기서
Figure 112020137549049-pat00095
Figure 112020137549049-pat00096
의 경계 직사각형의 4 개의 정점이다. RANSAC 정렬 알고리즘을 적용하면, 새로운 비 유사도 점수
Figure 112020137549049-pat00097
이 다음과 같이 계산된다: Using the fitted affine transform T, the nose image
Figure 112020137549049-pat00091
ROIs sorted from
Figure 112020137549049-pat00092
is inverse 4 points
Figure 112020137549049-pat00093
Figure 112020137549049-pat00094
is defined as here
Figure 112020137549049-pat00095
Is
Figure 112020137549049-pat00096
are the four vertices of the bounding rectangle of Applying the RANSAC sorting algorithm, the new dissimilarity score
Figure 112020137549049-pat00097
is calculated as:

Figure 112020137549049-pat00098
여기서
Figure 112020137549049-pat00099
는 머즐 템플릿 A, 잘린 ROI
Figure 112020137549049-pat00100
에서 생성된 머즐 템플릿 B, 및 RANSAC 정렬 알고리즘에 의해 정렬 된 ROI
Figure 112020137549049-pat00101
에서 생성된 머즐 템플릿
Figure 112020137549049-pat00102
와 비교할 머즐 이미지이다. 점수
Figure 112020137549049-pat00103
은 정렬된 ROI를 얻기 위해 원래 코 이미지가 필요하기 때문에 두 머즐 템플릿 사이가 아니라 머즐 템플릿 A와 코 이미지 사이의 비 유사도를 측정한다.
Figure 112020137549049-pat00098
here
Figure 112020137549049-pat00099
is muzzle template A, cropped ROI
Figure 112020137549049-pat00100
Muzzle template B generated from , and ROIs aligned by the RANSAC alignment algorithm
Figure 112020137549049-pat00101
Muzzle Templates Generated from
Figure 112020137549049-pat00102
This is the muzzle image to compare with. score
Figure 112020137549049-pat00103
measures the dissimilarity between the muzzle template A and the nose image, rather than between the two muzzle templates, since the original nose image is needed to obtain an aligned ROI.

도 4는 본 발명의 일 실시예에 따른 개체 이미지의 패턴에 의한 개체 인식 식별 방법을 설명하기 위한 흐름도이다. 4 is a flowchart illustrating a method for recognizing and identifying an object based on a pattern of an object image according to an embodiment of the present invention.

제안하는 개체 이미지의 패턴에 의한 개체 인식 식별 방법은 제1 개체 이미지(IA) 및 제2 개체 이미지(IB)에 대하여 서로 다른 사이즈를 갖는 복수의 ROI(Region of Interest) 중 가장 작은 사이즈를 갖는 제1 ROI(v1)로 RANSAC(Random Sample Consensus) 정렬 알고리즘을 수행하여 제1 ROI에 대한 아핀 변환(affine transformation)(Tf)을 찾는 단계(410), RANSAC 정렬 알고리즘을 수행하지 않고, 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾는 단계(420), 아핀 변환(Tf,2)과 제1 개체 이미지(IA)에 대해 제2 ROI(v2) 크기의 ROI 이미지(RA,2)의 네 개의 꼭짓점을 이용하여 제2 개체 이미지(IB)에 대해 제2 ROI(v2) 크기의 ROI 이미지(R* B,2)을 생성하는 단계(430) 및 제1 개체 이미지(IA)에 대한 ROI 이미지(RA,2)와 제2 개체 이미지(IB)에 대한 ROI 이미지(R* B,2)로부터 생성된 각각의 템플릿의 해밍 거리(hamming distance)를 계산하는 단계(440)를 포함한다. The object recognition identification method according to the pattern of the object image proposed uses the smallest size among a plurality of regions of interest (ROIs) having different sizes for the first object image (I A ) and the second object image (I B ). Finding an affine transformation (T f ) for the first ROI by performing a RANSAC (Random Sample Consensus) alignment algorithm with the first ROI (v 1 ) having (410), without performing the RANSAC alignment algorithm, An affine transformation (T f , 2 ) is found (420), using the affine transformation (T f,2 ) and the four vertices of the ROI image (R A,2 ) having the size of the second ROI (v 2 ) for the first object image (I A ). generating an ROI image (R * B , 2) having a size of a second ROI (v 2 ) for the second object image (I B ) (430) and an ROI image (for the first object image (I A )) A step 440 of calculating a hamming distance of each template generated from R A,2 ) and the ROI image (R * B,2 ) of the second object image (I B ).

여기서, 제1 개체 이미지(IA)에 대해 제1 ROI(v1)을 적용한 ROI 이미지는 RA,1으로 나타내고, 제2 개체 이미지(IB)에 대해 제1 ROI(v1)을 적용한 ROI 이미지는 RB,1으로 나타낸다. Here, the ROI image to which the first ROI (v 1 ) is applied to the first object image (I A ) is represented by R A,1 , and the first ROI (v 1 ) to the second object image (I B ) is applied. ROI images are denoted by R B,1 .

본 발명의 실시예에 사용되는 파라미터 RA,k는 제1 개체 이미지(IA)로부터 생성되는 vk 형태의 ROI 이미지를 나타낸다(k = 1, 2). TA,k: IA 평면→ RA,k 평면은 제1 개체 이미지(IA)로부터 RA,k로의 변환을 나타낸다. Parameter R A,k used in an embodiment of the present invention represents a v k type ROI image generated from the first object image I A (k = 1, 2). T A,k : I A plane→ R A,k plane represents conversion from the first object image I A to R A,k .

본 발명의 실시예에 사용되는 파라미터 RB,k는 제2 개체 이미지(IB)로부터 생성되는 vk 형태의 ROI 이미지를 나타낸다(k = 1, 2). TB,k: IB 평면→ RB,k 평면은 제2 개체 이미지(IB)로부터 RB,k로의 변환을 나타낸다.A parameter R B,k used in an embodiment of the present invention represents an ROI image in the form of v k generated from the second object image I B (k = 1, 2). T B,k : I B plane→ R B,k plane represents conversion from the second object image I B to R B,k .

이하, 본 발명의 일 실시예에 따른 개체 이미지의 패턴에 의한 개체 인식 식별 방법을 상세하게 설명한다. Hereinafter, a method for recognizing and identifying an object based on a pattern of an object image according to an embodiment of the present invention will be described in detail.

본 발명에서는 개체 이미지의 패턴에 의한 개체 인식 식별 방법에 관하여 반려동물의 코 이미지를 예시로서 설명한다. 여기서, 반려동물의 코 이미지는 실시예일뿐 이에 한정되지 않으며, 이외의 다양한 개체에 대해 제안하는 개체 이미지의 패턴에 의한 개체 인식 식별 방법이 적용될 수 있다. In the present invention, a nose image of a companion animal will be described as an example of an object recognition and identification method based on a pattern of an object image. Here, the nose image of a companion animal is only an example and is not limited thereto, and an object recognition and identification method based on a pattern of an object image proposed for various other objects may be applied.

본 발명의 실시예에 따르면, 머즐 이미지로부터 직사각형 관심 영역 ROI 생성 시 ROI의 가로, 세로 크기에 따라 다음과 같은 2가지 형태를 이용할 수 있다:According to an embodiment of the present invention, when creating a rectangular region-of-interest ROI from a muzzle image, the following two types can be used depending on the horizontal and vertical sizes of the ROI:

v1: 64x96 (ROI크기 가로x세로, 단위는 픽셀)v 1 : 64x96 (ROI size width x height, unit is pixels)

v2: 256x384 v2 : 256x384

이와 같은 2가지 ROI 형태는 실시예일뿐 또 다른 형태 및 더 많은 수의 ROI가 사용될 수 있다. These two ROI types are examples only, and other types and larger numbers of ROIs may be used.

ROI의 크기가 클수록 머즐 패턴 인식의 정확도는 높으나 계산 시간이 오래 걸리는 단점이 있다. 다시 말해, 머즐 패턴 인식 계산 과정 중 다양한 변화(예를 들어, 평행이동, 회전, 확대/축소 등)에 따른 RANSAC 정렬 알고리즘에 가장 많은 시간이 소요되고, 이 단계의 계산 소요 시간은 ROI의 크기가 클수록 오래 걸린다. The larger the size of the ROI, the higher the accuracy of muzzle pattern recognition, but has the disadvantage of taking a long calculation time. In other words, during the muzzle pattern recognition calculation process, the RANSAC alignment algorithm according to various changes (e.g., translation, rotation, zoom, etc.) takes the most time, and the calculation time for this step is the size of the ROI. The bigger it is, the longer it takes.

RANSAC 정렬을 포함한 전체 매칭 시 걸리는 시간을 비교해 보면 v1은 v2에 비해 약 4배 가량 빠르게 매칭할 수 있다. Comparing the time required for full matching including RANSAC alignment, v 1 can match about 4 times faster than v 2 .

따라서, 본 발명에서는 개체 이미지의 패턴 인식의 정확도는 유지하면서 개체 이미지의 패턴 인식에 걸리는 시간을 줄이기 위해 가장 많은 시간이 소요되는 RANSAC 정렬 알고리즘은 작은 크기의 ROI를 이용하여 계산하고, 이로부터 얻은 최적의 아핀 변환을 이용하여 큰 크기의 ROI를 생성하고 이를 이용하여 매칭을 수행한다. Therefore, in the present invention, in order to reduce the time required for object image pattern recognition while maintaining the accuracy of object image pattern recognition, the RANSAC alignment algorithm, which takes the most time, is calculated using a small ROI, and the optimal A large-sized ROI is created using the affine transformation of , and matching is performed using it.

먼저 단계(410)에서, 제1 개체 이미지(IA) 및 제2 개체 이미지(IB)에 대하여 서로 다른 사이즈를 갖는 복수의 ROI 중 가장 작은 사이즈를 갖는 제1 ROI(v1)로 RANSAC 정렬 알고리즘을 수행하여 제1 ROI에 대한 아핀 변환(Tf)을 찾는다. First, in step 410, RANSAC alignment with a first ROI (v 1 ) having the smallest size among a plurality of ROIs having different sizes for the first object image I A and the second object image I B An algorithm is performed to find the affine transformation (T f ) for the first ROI.

제1 ROI(v1)를 이용하여 RA,1 및 RB,1에 RANSAC 정렬 알고리즘을 적용하고, 최적의 아핀 변환 Tf: RB,1 → RA,1 을 계산한다. 즉,

Figure 112020137549049-pat00104
인 행렬 A와 b를 계산한다. The RANSAC alignment algorithm is applied to R A,1 and R B,1 using the first ROI (v 1 ), and an optimal affine transformation T f : R B,1 → R A,1 is calculated. in other words,
Figure 112020137549049-pat00104
Calculate matrices A and b that are

단계(420)에서, RANSAC 정렬 알고리즘을 수행하지 않고, 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾는다. In step 420, RANSAC alignment with a second ROI (v 2 ) having a larger size than the first ROI among the plurality of ROIs using an affine transformation (T f ) for the first ROI without performing the RANSAC alignment algorithm Find the affine transformation (T f,2 ) that corresponds to the algorithm performed.

제2 ROI(v2)를 이용하여 RA,2 및 RB,2 사이의 아핀 변환 Tf,2: RB,2 → RA,2 을 다음과 같이 계산한다: Using the second ROI (v 2 ), the affine transformation T f, 2 between R A,2 and R B, 2 : R B,2 → R A,2 is calculated as follows:

Figure 112020137549049-pat00105
Figure 112020137549049-pat00105

여기서

Figure 112020137549049-pat00106
,
Figure 112020137549049-pat00107
,
Figure 112020137549049-pat00108
이므로, here
Figure 112020137549049-pat00106
,
Figure 112020137549049-pat00107
,
Figure 112020137549049-pat00108
Because of,

Figure 112020137549049-pat00109
일 때,
Figure 112020137549049-pat00110
이다. 여기서
Figure 112020137549049-pat00111
는 제1 ROI 사이즈와 제2 ROI 사이즈의 가로,세로의 비율을 나타내고,
Figure 112020137549049-pat00112
는 일 실시예일뿐 제1 ROI 사이즈와 제2 ROI 사이즈에 대한 다양한 비율이 적용될 수 있다.
Figure 112020137549049-pat00109
when,
Figure 112020137549049-pat00110
am. here
Figure 112020137549049-pat00111
Represents the horizontal and vertical ratio of the first ROI size and the second ROI size,
Figure 112020137549049-pat00112
is only an example, and various ratios for the first ROI size and the second ROI size may be applied.

단계(430)에서, 아핀 변환(Tf,2)과 제1 개체 이미지(IA)에 대해 제2 ROI(v2) 크기의 ROI 이미지(RA,2)의 네 개의 꼭짓점을 이용하여 제2 개체 이미지(IB)에 대해 제2 ROI(v2) 크기의 ROI 이미지(R* B,2)을 생성한다. In step 430, the affine transformation (T f,2 ) and the four vertexes of the ROI image (R A, 2 ) having the size of the second ROI (v 2 ) for the first object image (I A ) are used to generate the first object image (I A ). An ROI image (R * B, 2 ) having a size of the second ROI (v 2 ) is generated for the 2-object image (I B ).

단계(420)에서 계산한 아핀 변환(Tf,2)을 이용하여

Figure 112020137549049-pat00113
Figure 112020137549049-pat00114
를 구하고(단,
Figure 112020137549049-pat00115
는 ROI 이미지(RA,2)의 4개의 꼭짓점), 제2 개체 이미지(IB)에서 꼭짓점이
Figure 112020137549049-pat00116
인 영역으로부터 v2형태의 ROI 이미지 R* B,2을 생성한다. Using the affine transformation (T f,2 ) calculated in step 420
Figure 112020137549049-pat00113
Figure 112020137549049-pat00114
Find (however,
Figure 112020137549049-pat00115
is the four vertices of the ROI image (R A,2 ), and the vertices in the second object image (I B )
Figure 112020137549049-pat00116
An ROI image R * B,2 in the form of v 2 is created from the area of .

단계(440)에서, 제1 개체 이미지(IA)에 대한 ROI 이미지(RA,2)와 제2 개체 이미지(IB)에 대한 ROI 이미지(R* B,2)로부터 생성된 각각의 템플릿의 해밍 거리를 계산한다. 다시 말해, RA,2로부터 생성한 템플릿 A와 R* B,2로부터 생성한 템플릿 B* 간의 해밍 거리를 계산하여 비 유사도 점수를 계산한다. In step 440, each template generated from the ROI image (R A,2 ) for the first object image (I A ) and the ROI image (R * B,2 ) for the second object image (I B ) Calculate the Hamming distance of In other words, the dissimilarity score is calculated by calculating the Hamming distance between template A generated from R A,2 and template B * generated from R * B,2 .

이를 통해 속도는 v1형태의 ROI 이미지를 이용하는 것과 유사하면서도 인식의 정확도는 v2의 정확도를 유지하는 매칭이 가능해진다. Through this, it is possible to perform matching that maintains the accuracy of v 2 while the speed is similar to that of using the ROI image in the form of v 1 .

개체 이미지의 패턴을 이용한 인식에 걸리는 시간을 감소시키기 위해 RANSAC 정렬 알고리즘은 복수의 ROI 중 가장 작은 사이즈를 갖는 제1 ROI(v1)로 수행하여 제1 ROI에 대한 아핀 변환(Tf)을 획득하고, 개체 이미지의 패턴을 이용한 인식의 정확도를 증가 시키기 위해 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾아 생성된 템플릿으로 해밍 거리를 계산한다. 또한, 템플릿의 해밍 거리 계산의 정확도를 높이기 위해 상술된 바와 같이 RANSAC 정렬 알고리즘을 이용하여 최적의 아핀 변환을 찾고, 제1 개체 이미지(IA) 및 제2 개체 이미지(IB) 각각의 ROI의 좌표 정보의 변화 및 ROI 이미지의 잘못된 정렬을 제외하는 기법을 이용한다. In order to reduce the time required for recognition using the pattern of the object image, the RANSAC alignment algorithm is performed with the first ROI (v 1 ) having the smallest size among the plurality of ROIs to obtain an affine transformation (T f ) for the first ROI and RANSAC with a second ROI (v 2 ) having a larger size than the first ROI among a plurality of ROIs by using an affine transformation (T f ) for the first ROI to increase the accuracy of recognition using the pattern of the object image. Calculate the Hamming distance with the generated template by finding the affine transformation (T f,2 ) corresponding to the one performed by the alignment algorithm. In addition, in order to increase the accuracy of calculating the Hamming distance of the template, the optimal affine transformation is found using the RANSAC alignment algorithm as described above, and the first object image (I A ) and the second object image (I B ) of each ROI A technique that excludes changes in coordinate information and misalignment of ROI images is used.

도 5는 본 발명의 일 실시예에 따른 개체 이미지의 패턴에 의한 개체 인식 식별 시스템의 구성을 나타내는 도면이다.5 is a diagram showing the configuration of an object recognition identification system based on a pattern of an object image according to an embodiment of the present invention.

본 실시예에 따른 개체 인식 식별 시스템(500)은 프로세서(510), 버스(520), 네트워크 인터페이스(530), 메모리(540) 및 데이터베이스(550)를 포함할 수 있다. 메모리(540)는 운영체제(541) 및 개체 이미지의 패턴에 의한 개체 인식 식별 루틴(542)을 포함할 수 있다. 프로세서(510)는 RANSAC 정렬 알고리즘 수행부(511), 아핀 변환 수행부(512), ROI 영역 생성부(513) 및 해밍거리 계산부(514)를 포함할 수 있다. 다른 실시예들에서 개체 인식 식별 시스템(500)은 도 5의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 개체 인식 식별 시스템(500)은 디스플레이나 트랜시버(transceiver)와 같은 다른 구성요소들을 포함할 수도 있다.The object recognition identification system 500 according to this embodiment may include a processor 510, a bus 520, a network interface 530, a memory 540, and a database 550. The memory 540 may include an operating system 541 and an object recognition identification routine 542 based on a pattern of an object image. The processor 510 may include a RANSAC alignment algorithm performer 511 , an affine transform performer 512 , an ROI area generator 513 and a Hamming distance calculator 514 . In other embodiments, entity recognition identification system 500 may include more components than those of FIG. 5 . However, there is no need to clearly show most of the prior art components. For example, entity recognition identification system 500 may include other components such as a display or a transceiver.

메모리(540)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(540)에는 운영체제(541)와 개체 이미지의 패턴에 의한 개체 인식 식별 루틴(542)을 위한 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism, 미도시)을 이용하여 메모리(540)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체(미도시)를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 네트워크 인터페이스(530)를 통해 메모리(540)에 로딩될 수도 있다. The memory 540 is a computer-readable recording medium and may include a random access memory (RAM), a read only memory (ROM), and a permanent mass storage device such as a disk drive. In addition, the memory 540 may store program codes for the operating system 541 and the object recognition identification routine 542 based on the pattern of the object image. These software components may be loaded from a computer-readable recording medium separate from the memory 540 using a drive mechanism (not shown). The separate computer-readable recording medium may include a computer-readable recording medium (not shown) such as a floppy drive, a disk, a tape, a DVD/CD-ROM drive, and a memory card. In another embodiment, software components may be loaded into the memory 540 through the network interface 530 rather than a computer-readable recording medium.

버스(520)는 개체 인식 식별 시스템(500)의 구성요소들간의 통신 및 데이터 전송을 가능하게 할 수 있다. 버스(520)는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술을 이용하여 구성될 수 있다.Bus 520 may enable communication and data transfer between components of object recognition identification system 500 . Bus 520 may be configured using a high-speed serial bus, a parallel bus, a storage area network (SAN), and/or other suitable communication technology.

네트워크 인터페이스(530)는 개체 인식 식별 시스템(500)을 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성요소일 수 있다. 네트워크 인터페이스(530)는 개체 인식 식별 시스템(500)을 무선 또는 유선 커넥션을 통해 컴퓨터 네트워크에 연결시킬 수 있다.The network interface 530 may be a computer hardware component for connecting the entity recognition identification system 500 to a computer network. The network interface 530 may connect the entity recognition identification system 500 to a computer network through a wireless or wired connection.

데이터베이스(550)는 개체 이미지의 패턴에 의한 개체 인식 식별을 위해 필요한 모든 정보를 저장 및 유지하는 역할을 할 수 있다. 도 5에서는 개체 인식 식별 시스템(500)의 내부에 데이터베이스(550)를 구축하여 포함하는 것으로 도시하고 있으나, 이에 한정되는 것은 아니며 시스템 구현 방식이나 환경 등에 따라 생략될 수 있고 혹은 전체 또는 일부의 데이터베이스가 별개의 다른 시스템 상에 구축된 외부 데이터베이스로서 존재하는 것 또한 가능하다.The database 550 may play a role of storing and maintaining all information necessary for object recognition and identification based on a pattern of an object image. 5 shows that the database 550 is built and included inside the object recognition identification system 500, but is not limited thereto, and may be omitted depending on the system implementation method or environment, or all or part of the database It is also possible to exist as an external database built on a separate and different system.

프로세서(510)는 기본적인 산술, 로직 및 개체 인식 식별 시스템(500)의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(540) 또는 네트워크 인터페이스(530)에 의해, 그리고 버스(520)를 통해 프로세서(510)로 제공될 수 있다. 프로세서(510)는 RANSAC 정렬 알고리즘 수행부(511), 아핀 변환 수행부(512), ROI 영역 생성부(513) 및 해밍거리 계산부(514)를 위한 프로그램 코드를 실행하도록 구성될 수 있다. 이러한 프로그램 코드는 메모리(540)와 같은 기록 장치에 저장될 수 있다.The processor 510 may be configured to process commands of a computer program by performing basic arithmetic, logic, and input/output operations of the entity recognition and identification system 500 . Instructions may be provided to processor 510 by memory 540 or network interface 530 and via bus 520 . The processor 510 may be configured to execute program codes for the RANSAC alignment algorithm performer 511 , the affine transform performer 512 , the ROI area generator 513 and the Hamming distance calculator 514 . These program codes may be stored in a recording device such as memory 540 .

RANSAC 정렬 알고리즘 수행부(511), 아핀 변환 수행부(512), ROI 영역 생성부(513) 및 해밍거리 계산부(514)는 도 4의 단계들(410~440)을 수행하기 위해 구성될 수 있다.The RANSAC alignment algorithm performer 511, the affine transform performer 512, the ROI region generator 513, and the Hamming distance calculator 514 may be configured to perform steps 410 to 440 of FIG. there is.

개체 인식 식별 시스템(500)은 RANSAC 정렬 알고리즘 수행부(511), 아핀 변환 수행부(512), ROI 영역 생성부(513) 및 해밍거리 계산부(514)를 포함할 수 있다.The object recognition identification system 500 may include a RANSAC alignment algorithm performer 511, an affine transform performer 512, an ROI area generator 513, and a Hamming distance calculator 514.

본 발명에서는 개체 이미지의 패턴 인식의 정확도는 유지하면서 개체 이미지의 패턴 인식에 걸리는 시간을 줄이기 위해 가장 많은 시간이 소요되는 RANSAC 정렬 알고리즘은 작은 크기의 ROI를 이용하여 계산하고, 이로부터 얻은 최적의 아핀 변환을 이용하여 큰 크기의 ROI를 생성하고 이를 이용하여 매칭을 수행한다. In the present invention, in order to reduce the time required for object image pattern recognition while maintaining the accuracy of object image pattern recognition, the RANSAC alignment algorithm, which takes the most time, is calculated using a small ROI, and the optimal affine obtained from this is calculated. A large-sized ROI is created using transformation and matching is performed using it.

RANSAC 정렬 알고리즘 수행부(511)는 제1 개체 이미지(IA) 및 제2 개체 이미지(IB)에 대하여 서로 다른 사이즈를 갖는 복수의 ROI 중 가장 작은 사이즈를 갖는 제1 ROI(v1)로 RANSAC 정렬 알고리즘을 수행하여 제1 ROI에 대한 아핀 변환(Tf)을 찾는다. The RANSAC alignment algorithm execution unit 511 sets the first ROI (v 1 ) having the smallest size among a plurality of ROIs having different sizes for the first object image I A and the second object image I B . The RANSAC alignment algorithm is performed to find the affine transformation (T f ) for the first ROI.

제1 ROI(v1)를 이용하여 RA,1 및 RB,1에 RANSAC 정렬 알고리즘을 적용하고, 최적의 아핀 변환 Tf: RB,1 → RA,1 을 계산한다. 즉,

Figure 112020137549049-pat00117
인 행렬 A와 b를 계산한다. The RANSAC alignment algorithm is applied to R A,1 and R B,1 using the first ROI (v 1 ), and an optimal affine transformation T f : R B,1 → R A,1 is calculated. in other words,
Figure 112020137549049-pat00117
Calculate matrices A and b that are

아핀 변환 수행부(512)는 RANSAC 정렬 알고리즘을 수행하지 않고, 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾는다. The affine transformation performer 512 does not perform the RANSAC alignment algorithm, but uses the affine transformation (T f ) for the first ROI to convert it into a second ROI (v 2 ) having a larger size than the first ROI among a plurality of ROIs. Find an affine transformation (T f,2 ) that corresponds to performing the RANSAC sorting algorithm.

제2 ROI(v1)를 이용하여 RA,2 및 RB,2 사이의 아핀 변환 Tf,2: RB,2 → RA,2 을 다음과 같이 계산한다: Using the second ROI (v 1 ), the affine transformation T f, 2 between R A,2 and R B, 2 : R B,2 → R A,2 is calculated as follows:

Figure 112020137549049-pat00118
Figure 112020137549049-pat00118

여기서

Figure 112020137549049-pat00119
,
Figure 112020137549049-pat00120
,
Figure 112020137549049-pat00121
이므로, here
Figure 112020137549049-pat00119
,
Figure 112020137549049-pat00120
,
Figure 112020137549049-pat00121
Because of,

Figure 112020137549049-pat00122
일 때,
Figure 112020137549049-pat00123
이다.
Figure 112020137549049-pat00122
when,
Figure 112020137549049-pat00123
am.

ROI 영역 생성부(513)는 아핀 변환(Tf,2)과 제1 개체 이미지(IA)에 대해 제2 ROI(v2) 크기의 ROI 이미지(RA,2)의 네 개의 꼭짓점을 이용하여 제2 개체 이미지(IB)에 대해 제2 ROI(v2) 크기의 ROI 이미지(R* B,2)을 생성한다. The ROI area generating unit 513 uses the affine transformation (T f,2 ) and the four vertices of the ROI image (R A,2 ) having the size of the second ROI (v 2 ) for the first object image (I A ). to generate an ROI image (R * B,2 ) having a size of the second ROI (v 2 ) for the second object image (I B ).

아핀 변환 수행부(512)에서 계산한 아핀 변환(Tf,2)을 이용하여

Figure 112020137549049-pat00124
Figure 112020137549049-pat00125
를 구하고(단,
Figure 112020137549049-pat00126
는 ROI 이미지(RA,2)의 4개의 꼭짓점), 제2 개체 이미지(IB)에서 꼭짓점이
Figure 112020137549049-pat00127
인 영역으로부터 v2형태의 ROI 이미지 R* B2을 생성한다. Using the affine transformation (T f,2 ) calculated by the affine transformation performer 512
Figure 112020137549049-pat00124
Figure 112020137549049-pat00125
Find (however,
Figure 112020137549049-pat00126
is the four vertices of the ROI image (R A,2 ), and the vertices in the second object image (I B )
Figure 112020137549049-pat00127
An ROI image R * B2 in the form of v 2 is created from the in region.

해밍거리 계산부(514)는 제1 개체 이미지(IA)에 대한 ROI 이미지(RA,2)와 제2 개체 이미지(IB)에 대한 ROI 이미지(R* B,2)로부터 생성된 각각의 템플릿의 해밍 거리를 계산한다. 다시 말해, RA,2로부터 생성한 템플릿 A와 R* B,2로부터 생성한 템플릿 B* 간의 해밍 거리를 계산하여 비 유사도 점수를 계산한다. The hamming distance calculation unit 514 generates ROI images (R A,2 ) for the first object image (I A ) and ROI images (R * B,2 ) for the second object image (I B ), respectively. Calculate the Hamming distance of the template of In other words, the dissimilarity score is calculated by calculating the Hamming distance between template A generated from R A,2 and template B * generated from R * B,2 .

이를 통해 속도는 v1형태의 ROI 이미지를 이용하는 것과 유사하면서도 인식의 정확도는 v2의 정확도를 유지하는 매칭이 가능해진다. Through this, it is possible to perform matching that maintains the accuracy of v 2 while the speed is similar to that of using the ROI image in the form of v 1 .

개체 이미지의 패턴을 이용한 인식에 걸리는 시간을 감소시키기 위해 RANSAC 정렬 알고리즘은 복수의 ROI 중 가장 작은 사이즈를 갖는 제1 ROI(v1)로 수행하여 제1 ROI에 대한 아핀 변환(Tf)을 획득하고, 개체 이미지의 패턴을 이용한 인식의 정확도를 증가 시키기 위해 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾아 생성된 템플릿으로 해밍 거리를 계산한다. 또한, 템플릿의 해밍 거리 계산의 정확도를 높이기 위해 상술된 바와 같이 RANSAC 정렬 알고리즘을 이용하여 최적의 아핀 변환을 찾고, 제1 개체 이미지(IA) 및 제2 개체 이미지(IB) 각각의 ROI의 좌표 정보의 변화 및 ROI 이미지의 잘못된 정렬을 제외하는 기법을 이용한다. In order to reduce the time required for recognition using the pattern of the object image, the RANSAC alignment algorithm is performed with the first ROI (v 1 ) having the smallest size among the plurality of ROIs to obtain an affine transformation (T f ) for the first ROI and RANSAC with a second ROI (v 2 ) having a larger size than the first ROI among a plurality of ROIs by using an affine transformation (T f ) for the first ROI to increase the accuracy of recognition using the pattern of the object image. Calculate the Hamming distance with the generated template by finding the affine transformation (T f,2 ) corresponding to the one performed by the alignment algorithm. In addition, in order to increase the accuracy of calculating the Hamming distance of the template, the optimal affine transformation is found using the RANSAC alignment algorithm as described above, and the first object image (I A ) and the second object image (I B ) of each ROI A technique that excludes changes in coordinate information and misalignment of ROI images is used.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다.  또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.  이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다.  예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다.  또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.  소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다.  소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. can be embodied in Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.  상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.  상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.  컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.  프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.  The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

<참고 문헌><References>

[1] J. G. Daugman, "High confidence visual recognition of persons by a test of statistical independence," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 15, no. 11, pp. 1148-1161, Nov 1993. [1] J. G. Daugman, "High confidence visual recognition of persons by a test of statistical independence," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 15, no. 11, p. 1148-1161, Nov 1993.

[2] J. Daugman, "How iris recognition works," Circuits and Systems for Video Technology, IEEE Transactions on, vol. 14, no. 1, pp. 21-30, Jan 2004. [2] J. Daugman, "How iris recognition works," Circuits and Systems for Video Technology, IEEE Transactions on, vol. 14, no. 1, p. 21-30, Jan 2004.

[3] ――, "Probing the uniqueness and randomness of iriscodes: Results from 200 billion iris pair comparisons," Proceedings of the IEEE, vol. 94, no. 11, pp. 1927-1935, Nov 2006. [3] ――, "Probing the uniqueness and randomness of iriscodes: Results from 200 billion iris pair comparisons," Proceedings of the IEEE, vol. 94, no. 11, p. 1927-1935, Nov 2006.

[4] J. G. Daugman, "Complete discrete 2-D gabor transforms by neural networks for image analysis and compression," IEEE Transactions on Acoustics, Speech, and Signal Processing, vol. 36, no. 7, pp. 1169-1179, July 1988. [4] J. G. Daugman, "Complete discrete 2-D gabor transforms by neural networks for image analysis and compression," IEEE Transactions on Acoustics, Speech, and Signal Processing, vol. 36, no. 7, p. 1169-1179, July 1988.

[5] S. Kumar, A. Pandey, K. S. R. Satwik, S. Kumar, S. K. Singh, A. K. Singh, and A. Mohan, "Deep learning framework for recognition of cattle using muzzle point image pattern," Measurement, vol. 116, pp. 1 - 17, 2018. [Online]. Available: http://www.sciencedirect.com/science/article/pii/S0263224117306991 [5] S. Kumar, A. Pandey, K. S. R. Satwik, S. Kumar, S. K. Singh, A. K. Singh, and A. Mohan, "Deep learning framework for recognition of cattle using muzzle point image pattern," Measurement, vol. 116, p. 1 - 17, 2018. [Online]. Available: http://www.sciencedirect.com/science/article/pii/S0263224117306991

[6] A. Noviyanto and A. M. Arymurthy, "Beef cattle identification based on muzzle pattern using a matching refinement technique in the sift method," Computers and Electronics in Agriculture, vol. 99, pp. 77 - 84, 2013. [Online]. Available: http://www.sciencedirect.com/science/article/pii/S0168169913002093 [6] A. Noviyanto and A. M. Arymurthy, "Beef cattle identification based on muzzle pattern using a matching refinement technique in the sift method," Computers and Electronics in Agriculture, vol. 99, p. 77 - 84, 2013. [Online]. Available: http://www.sciencedirect.com/science/article/pii/S0168169913002093

[7] A. I. Awad, "From classical methods to animal biometrics: A review on cattle identification and tracking," Computers and Electronics in Agriculture, vol. 123, pp. 423 - 435, 2016. [Online]. Available: http://www.sciencedirect.com/science/article/pii/S0168169916300837 [7] A. I. Awad, "From classical methods to animal biometrics: A review on cattle identification and tracking," Computers and Electronics in Agriculture, vol. 123, p. 423 - 435, 2016. [Online]. Available: http://www.sciencedirect.com/science/article/pii/S0168169916300837

[8] T. Gaber, A. Tharwat, A. E. Hassanien, and V. Snasel, "Biometric cattle identification approach based on weber's local descriptor and adaboost classifier," Computers and Electronics in Agriculture, vol. 122, pp. 55 - 66, 2016. [Online]. Available: http://www.sciencedirect.com/science/article/pii/S016816991600003X[8] T. Gaber, A. Tharwat, A. E. Hassanien, and V. Snasel, "Biometric cattle identification approach based on weber's local descriptor and adaboost classifier," Computers and Electronics in Agriculture, vol. 122, p. 55 - 66, 2016. [Online]. Available: http://www.sciencedirect.com/science/article/pii/S016816991600003X

[9] A. Noviyanto and A. Arymurthy, "Automatic cattle identification based on muzzle photo using speed-up robust features approach," Proceedings of the 3rd European Conference of Computer Science, pp. 110-114, 01 2012. [9] A. Noviyanto and A. Arymurthy, "Automatic cattle identification based on muzzle photo using speed-up robust features approach," Proceedings of the 3rd European Conference of Computer Science, pp. 110-114, 01 2012.

[10] S. Kumar, S. Chandrakar, A. Panigrahi, and S. K. Singh, "Muzzle point pattern recognition system using image pre-processing techniques," in 2017 Fourth International Conference on Image Information Processing (ICIIP), Dec 2017, pp. 1-6. [10] S. Kumar, S. Chandrakar, A. Panigrahi, and S. K. Singh, "Muzzle point pattern recognition system using image pre-processing techniques," in 2017 Fourth International Conference on Image Information Processing (ICIIP), Dec 2017, pp. . 1-6.

[11] H. M. E. Hadad, H. A. Mahmoud, and F. A. Mousa, "Bovines muzzle classification based on machine learning techniques," Procedia Computer Science, vol. 65, pp. 864 - 871, 2015, international Conference on Communications, management, and Information technology (ICCMIT'2015). [Online]. Available: http://www.sciencedirect.com/science/article/pii/S1877050915028744 [11] H. M. E. Hadad, H. A. Mahmoud, and F. A. Mousa, "Bovines muzzle classification based on machine learning techniques," Procedia Computer Science, vol. 65, pp. 65; 864 - 871, 2015, international Conference on Communications, management, and Information technology (ICCMIT'2015). [Online]. Available: http://www.sciencedirect.com/science/article/pii/S1877050915028744

[12] "Muzzle classification using neural networks," The International Arab Journal of Information Technology, vol. 14, no. 4. [12] "Muzzle classification using neural networks," The International Arab Journal of Information Technology, vol. 14, no. 4.

[13] A. EDWIN and M. GEORGE, "A fuzzy mathematical approach to eigen muzzle print recognition," International J. of Math. Sci. and Engg. Appls. (IJMSEA), vol. 11, no. 1, pp. 57-65, April 2017. [13] A. EDWIN and M. GEORGE, "A fuzzy mathematical approach to eigen muzzle print recognition," International J. of Math. Sci. and Engg. Appls. (IJMSEA), vol. 11, no. 1, p. 57-65, April 2017.

[14] A. I. Awad, A. E. Hassanien, and H. M. Zawbaa, "A cattle identification approach using live captured muzzle print images," in Advances in Security of Information and Communication Networks, A. I. Awad, A. E. Hassanien, and K. Baba, Eds. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013, pp. 143-152. [14] A. I. Awad, A. E. Hassanien, and H. M. Zawbaa, "A cattle identification approach using live captured muzzle print images," in Advances in Security of Information and Communication Networks, A. I. Awad, A. E. Hassanien, and K. Baba, Eds. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013, pp. 143-152.

[15] A. Tharwat, T. Gaber, A. E. Hassanien, H. A. Hassanien, and M. F. Tolba, "Cattle identification using muzzle print images based on texture features approach," in Proceedings of the Fifth International Conference on Innovations in Bio-Inspired Computing and Applications IBICA 2014, P. Komer, A. Abraham, and V. Sn ¨ a´sel, Eds. Cham: ¡ Springer International Publishing, 2014, pp. 217-227. [15] A. Tharwat, T. Gaber, A. E. Hassanien, H. A. Hassanien, and M. F. Tolba, "Cattle identification using muzzle print images based on texture features approach," in Proceedings of the Fifth International Conference on Innovations in Bio-Inspired Computing and Applications IBICA 2014, P. Komer, A. Abraham, and V. Sn¨ a´sel, Eds. Cham: ¡Springer International Publishing, 2014, pp. 217-227.

[16] B. Barry, U. Gonzales-Barron, K. Mcdonnell, F. Butler, and S. Ward, "Using muzzle pattern recognition as a biometric approach for cattle identification," Transactions of the ASABE, vol. 50, pp. 1073- 1080, 05 2007. [16] B. Barry, U. Gonzales-Barron, K. Mcdonnell, F. Butler, and S. Ward, "Using muzzle pattern recognition as a biometric approach for cattle identification," Transactions of the ASABE, vol. 50, pp. 50; 1073- 1080, 05 2007.

[17] A. I. Awad, H. M. Zawbaa, H. A. Mahmoud, E. H. H. A. Nabi, R. H. Fayed, and A. E. Hassanien, "A robust cattle identification scheme using muzzle print images," in 2013 Federated Conference on Computer Science and Information Systems, Sep. 2013, pp. 529-534. [17] A. I. Awad, H. M. Zawbaa, H. A. Mahmoud, E. H. H. A. Nabi, R. H. Fayed, and A. E. Hassanien, "A robust cattle identification scheme using muzzle print images," in 2013 Federated Conference on Computer Science and Information Systems, Sep. 2013, p. 529-534.

[18] A. Tharwat, T. Gaber, and A. E. Hassanien, "Cattle identification based on muzzle images using gabor features and svm classifier," in Advanced Machine Learning Technologies and Applications, A. E. Hassanien, M. F. Tolba, and A. Taher Azar, Eds. Cham: Springer International Publishing, 2014, pp. 236-247. [18] A. Tharwat, T. Gaber, and A. E. Hassanien, "Cattle identification based on muzzle images using gabor features and svm classifier," in Advanced Machine Learning Technologies and Applications, A. E. Hassanien, M. F. Tolba, and A. Taher Azar, Eds. Cham: Springer International Publishing, 2014, pp. 236-247.

[19] T. G. Tharwat, Alaa and A. E. Hassanien, "Two biometric approaches for cattle identification based on features and classifiers fusion," International Journal of Image Mining, vol. 1, no. 4, pp. 342- 365, 2015. [19] T. G. Tharwat, Alaa and A. E. Hassanien, "Two biometric approaches for cattle identification based on features and classifiers fusion," International Journal of Image Mining, vol. 1, no. 4, p. 342-365, 2015.

[20] S. Kumar and S. Singh, "Biometric recognition for pet animal," Journal of Software Engineering and Applications, vol. 7, pp. 470-482, 2014. [20] S. Kumar and S. Singh, "Biometric recognition for pet animals," Journal of Software Engineering and Applications, vol. 7, p. 470-482, 2014.

[21] M. A. Fischler and R. C. Bolles, "Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography," Commun. ACM, vol. 24, no. 6, pp. 381-395, Jun. 1981. [Online]. Available: http://doi.acm.org/10.1145/358669.358692 [21] M. A. Fischler and R. C. Bolles, "Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography," Commun. ACM, vol. 24, no. 6, p. 381-395, Jun. 1981. [Online]. Available: http://doi.acm.org/10.1145/358669.358692

[22] C. Y. Han, S.-H. Kwon, H. I. Choi, H. P. Lee, Sung Jin Moon, and N.-S. Wee, "Distributed iris recognition system," 2019, IEEE Transactions on Information Forensic and Security (submitted).[22] C. Y. Han, S.-H. Kwon, H. I. Choi, H. P. Lee, Sung Jin Moon, and N.-S. Wee, "Distributed iris recognition system," 2019, IEEE Transactions on Information Forensic and Security (submitted).

Claims (9)

개체 인식 식별 방법에 있어서,
제1 개체 이미지(IA) 및 제2 개체 이미지(IB)에 대하여 서로 다른 사이즈를 갖는 복수의 ROI(Region of Interest) 중 가장 작은 사이즈를 갖는 제1 ROI(v1)로 RANSAC(Random Sample Consensus) 정렬 알고리즘을 수행하여 제1 ROI에 대한 아핀 변환(affine transformation)(Tf)을 찾는 단계 -제1 개체 이미지(IA)에 대해 제1 ROI(v1)을 적용한 ROI 이미지는 RA,1으로 나타내고, 제2 개체 이미지(IB)에 대해 제1 ROI(v1)을 적용한 ROI 이미지는 RB,1으로 나타냄-;
RANSAC 정렬 알고리즘을 수행하지 않고, 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾는 단계;
아핀 변환(Tf,2)과 제1 개체 이미지(IA)에 대해 제2 ROI(v2) 크기의 ROI 이미지(RA,2)의 네 개의 꼭짓점을 이용하여 제2 개체 이미지(IB)에 대해 제2 ROI(v2) 크기의 ROI 이미지(R* B,2)를 생성하는 단계; 및
제1 개체 이미지(IA)에 대한 ROI 이미지(RA,2)와 제2 개체 이미지(IB)에 대한 ROI 이미지(R* B,2)로부터 생성된 각각의 템플릿의 해밍 거리(hamming distance)를 계산하는 단계
를 포함하고,
RANSAC 정렬 알고리즘을 수행하지 않고, 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾는 단계는,
하기식을 이용하여 아핀 변환(Tf,2)을 계산하고,
Figure 112022141847968-pat00142
일 때,
Figure 112022141847968-pat00143
이고,
여기서
Figure 112022141847968-pat00144
는 제1 ROI 사이즈와 제2 ROI 사이즈의 가로,세로의 비율을 나타내는
개체 인식 식별 방법.
In the object recognition identification method,
RANSAC ( Random Sample Finding an affine transformation (T f ) for the first ROI by performing a Consensus alignment algorithm - The ROI image obtained by applying the first ROI (v 1 ) to the first object image (I A ) is R A ,1 , and an ROI image obtained by applying the first ROI (v 1 ) to the second object image (I B ) is represented by R B,1- ;
Corresponding to performing the RANSAC alignment algorithm with a second ROI (v 2 ) having a larger size than the first ROI among a plurality of ROIs using an affine transformation (T f ) for the first ROI without performing the RANSAC alignment algorithm Finding an affine transformation (T f,2 )
The second object image (I B ) is obtained by using four vertices of the ROI image (R A ,2 ) having the size of the second ROI (v 2 ) for the affine transformation (T f,2 ) and the first object image (I A ) . ) generating an ROI image (R * B,2 ) having a size of a second ROI (v 2 ); and
The hamming distance of each template generated from the ROI image (R A,2 ) for the first object image (I A ) and the ROI image (R * B,2 ) for the second object image (I B ). ) step of calculating
including,
Corresponding to performing the RANSAC alignment algorithm with a second ROI (v 2 ) having a larger size than the first ROI among a plurality of ROIs using an affine transformation (T f ) for the first ROI without performing the RANSAC alignment algorithm The step of finding an affine transformation (T f,2 ) that
Calculate the affine transformation (T f,2 ) using the following formula,
Figure 112022141847968-pat00142
when,
Figure 112022141847968-pat00143
ego,
here
Figure 112022141847968-pat00144
Represents the horizontal and vertical ratio of the first ROI size and the second ROI size
Object recognition identification method.
제1항에 있어서,
개체 이미지의 패턴을 이용한 인식에 걸리는 시간을 감소시키기 위해 RANSAC 정렬 알고리즘은 복수의 ROI 중 가장 작은 사이즈를 갖는 제1 ROI(v1)로 수행하여 제1 ROI에 대한 아핀 변환(Tf)을 획득하고, 개체 이미지의 패턴을 이용한 인식의 정확도를 증가 시키기 위해 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾아 생성된 템플릿으로 해밍 거리를 계산하며,
템플릿의 해밍 거리 계산의 정확도를 높이기 위해 RANSAC 정렬 알고리즘을 이용하여 최적의 아핀 변환을 찾고, 제1 개체 이미지(IA) 및 제2 개체 이미지(IB) 각각의 ROI의 좌표 정보의 변화 및 ROI 이미지의 잘못된 정렬을 제외하는 기법을 이용하는
개체 인식 식별 방법.
According to claim 1,
In order to reduce the time required for recognition using the pattern of the object image, the RANSAC alignment algorithm is performed with the first ROI (v 1 ) having the smallest size among the plurality of ROIs to obtain an affine transformation (T f ) for the first ROI and RANSAC with a second ROI (v 2 ) having a larger size than the first ROI among a plurality of ROIs by using an affine transformation (T f ) for the first ROI to increase the accuracy of recognition using the pattern of the object image. Calculate the Hamming distance with the generated template by finding an affine transformation (T f,2 ) corresponding to that performed by the sorting algorithm,
In order to increase the accuracy of the Hamming distance calculation of the template, the RANSAC alignment algorithm is used to find the optimal affine transformation, and the change in coordinate information of the ROI of each of the first object image (I A ) and the second object image (I B ) and the ROI Using techniques to exclude misalignment of images
Object recognition identification method.
개체 인식 식별 시스템에 있어서,
제1 개체 이미지(IA) 및 제2 개체 이미지(IB)에 대하여 서로 다른 사이즈를 갖는 복수의 ROI(Region of Interest) 중 가장 작은 사이즈를 갖는 제1 ROI(v1)로 RANSAC(Random Sample Consensus) 정렬 알고리즘을 수행하여 제1 ROI에 대한 아핀 변환(affine transformation)(Tf)을 찾는 RANSAC 정렬 알고리즘 수행부 -제1 개체 이미지(IA)에 대해 제1 ROI(v1)을 적용한 ROI 이미지는 RA,1으로 나타내고, 제2 개체 이미지(IB)에 대해 제1 ROI(v1)을 적용한 ROI 이미지는 RB,1으로 나타냄-;
RANSAC 정렬 알고리즘을 수행하지 않고, 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾는 아핀 변환 수행부;
아핀 변환(Tf,2)과 제1 개체 이미지(IA)에 대해 제2 ROI(v2) 크기의 ROI 이미지(RA,2)의 네 개의 꼭짓점을 이용하여 제2 개체 이미지(IB)에 대해 제2 ROI(v2) 크기의 ROI 이미지(R* B,2)를 생성하는 ROI 영역 생성부; 및
제1 개체 이미지(IA)에 대한 ROI 이미지(RA,2)와 제2 개체 이미지(IB)에 대한 ROI 이미지(R* B,2)로부터 생성된 각각의 템플릿의 해밍 거리(hamming distance)를 계산하는 해밍 거리 계산부
를 포함하고,
아핀 변환 수행부는,
하기식을 이용하여 아핀 변환(Tf,2)을 계산하고,
Figure 112022141847968-pat00145
일 때,
Figure 112022141847968-pat00146
이고,
여기서
Figure 112022141847968-pat00147
는 제1 ROI 사이즈와 제2 ROI 사이즈의 가로,세로의 비율을 나타내는
개체 인식 식별 시스템.
In the object recognition identification system,
RANSAC ( Random Sample Consensus) RANSAC alignment algorithm performer for finding an affine transformation (T f ) for the first ROI by performing the alignment algorithm -ROI to which the first ROI (v 1 ) is applied to the first object image (I A ) The image is denoted by R A,1 , and the ROI image obtained by applying the first ROI (v 1 ) to the second object image (I B ) is denoted by R B,1- ;
Corresponding to performing the RANSAC alignment algorithm with a second ROI (v 2 ) having a larger size than the first ROI among a plurality of ROIs using an affine transformation (T f ) for the first ROI without performing the RANSAC alignment algorithm an affine transformation performer to find an affine transformation (T f,2 ) to do;
The second object image (I B ) is obtained by using four vertices of the ROI image (R A ,2 ) having the size of the second ROI (v 2 ) for the affine transformation (T f,2 ) and the first object image (I A ) . ), an ROI area generator generating an ROI image (R * B,2 ) having a size of a second ROI (v 2 ); and
The hamming distance of each template generated from the ROI image (R A,2 ) for the first object image (I A ) and the ROI image (R * B,2 ) for the second object image (I B ). ) Hamming distance calculation unit that calculates
including,
Affine transformation performing unit,
Calculate the affine transformation (T f,2 ) using the following formula,
Figure 112022141847968-pat00145
when,
Figure 112022141847968-pat00146
ego,
here
Figure 112022141847968-pat00147
Represents the horizontal and vertical ratio of the first ROI size and the second ROI size
Object Recognition Identification System.
제3항에 있어서,
개체 이미지의 패턴을 이용한 인식에 걸리는 시간을 감소시키기 위해 RANSAC 정렬 알고리즘은 복수의 ROI 중 가장 작은 사이즈를 갖는 제1 ROI(v1)로 수행하여 제1 ROI에 대한 아핀 변환(Tf)을 획득하고, 개체 이미지의 패턴을 이용한 인식의 정확도를 증가 시키기 위해 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾아 생성된 템플릿으로 해밍 거리를 계산하며,
템플릿의 해밍 거리 계산의 정확도를 높이기 위해 RANSAC 정렬 알고리즘을 이용하여 최적의 아핀 변환을 찾고, 제1 개체 이미지(IA) 및 제2 개체 이미지(IB) 각각의 ROI의 좌표 정보의 변화 및 ROI 이미지의 잘못된 정렬을 제외하는 기법을 이용하는
개체 인식 식별 시스템.
According to claim 3,
In order to reduce the time required for recognition using the pattern of the object image, the RANSAC alignment algorithm is performed with the first ROI (v 1 ) having the smallest size among the plurality of ROIs to obtain an affine transformation (T f ) for the first ROI and RANSAC with a second ROI (v 2 ) having a larger size than the first ROI among a plurality of ROIs by using an affine transformation (T f ) for the first ROI to increase the accuracy of recognition using the pattern of the object image. Calculate the Hamming distance with the generated template by finding an affine transformation (T f,2 ) corresponding to that performed by the sorting algorithm,
In order to increase the accuracy of the Hamming distance calculation of the template, the RANSAC alignment algorithm is used to find the optimal affine transformation, and the change in coordinate information of the ROI of each of the first object image (I A ) and the second object image (I B ) and the ROI Using techniques to exclude misalignment of images
Object Recognition Identification System.
개체 인식 식별 시스템에 의해 수행되는 개체 인식 식별 방법을 실행시키기 위해 컴퓨터 판독 가능한 저장 매체에 저장된 프로그램에 있어서,
제1 개체 이미지(IA) 및 제2 개체 이미지(IB)에 대하여 서로 다른 사이즈를 갖는 복수의 ROI(Region of Interest) 중 가장 작은 사이즈를 갖는 제1 ROI(v1)로 RANSAC(Random Sample Consensus) 정렬 알고리즘을 수행하여 제1 ROI에 대한 아핀 변환(affine transformation)(Tf)을 찾는 단계 -제1 개체 이미지(IA)에 대해 제1 ROI(v1)을 적용한 ROI 이미지는 RA,1으로 나타내고, 제2 개체 이미지(IB)에 대해 제1 ROI(v1)을 적용한 ROI 이미지는 RB,1으로 나타냄-;
RANSAC 정렬 알고리즘을 수행하지 않고, 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾는 단계;
아핀 변환(Tf,2)과 제1 개체 이미지(IA)에 대해 제2 ROI(v2) 크기의 ROI 이미지(RA,2)의 네 개의 꼭짓점을 이용하여 제2 개체 이미지(IB)에 대해 제2 ROI(v2) 크기의 ROI 이미지(R* B,2)를 생성하는 단계; 및
제1 개체 이미지(IA)에 대한 ROI 이미지(RA,2)와 제2 개체 이미지(IB)에 대한 ROI 이미지(R* B,2)로부터 생성된 각각의 템플릿의 해밍 거리(hamming distance)를 계산하는 단계
를 포함하고,
RANSAC 정렬 알고리즘을 수행하지 않고, 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾는 단계는,
하기식을 이용하여 아핀 변환(Tf,2)을 계산하고,
Figure 112022141847968-pat00148
일 때,
Figure 112022141847968-pat00149
이고,
여기서
Figure 112022141847968-pat00150
는 제1 ROI 사이즈와 제2 ROI 사이즈의 가로,세로의 비율을 나타내고,
개체 이미지의 패턴을 이용한 인식에 걸리는 시간을 감소시키기 위해 RANSAC 정렬 알고리즘은 복수의 ROI 중 가장 작은 사이즈를 갖는 제1 ROI(v1)로 수행하여 제1 ROI에 대한 아핀 변환(Tf)을 획득하고, 개체 이미지의 패턴을 이용한 인식의 정확도를 증가 시키기 위해 제1 ROI에 대한 아핀 변환(Tf)을 이용하여 복수의 ROI 중 제1 ROI 보다 큰 사이즈를 갖는 제2 ROI(v2)로 RANSAC 정렬 알고리즘을 수행한 것과 상응하는 아핀 변환(Tf,2)을 찾아 생성된 템플릿으로 해밍 거리를 계산하며,
템플릿의 해밍 거리 계산의 정확도를 높이기 위해 RANSAC 정렬 알고리즘을 이용하여 최적의 아핀 변환을 찾고, 제1 개체 이미지(IA) 및 제2 개체 이미지(IB) 각각의 ROI의 좌표 정보의 변화 및 ROI 이미지의 잘못된 정렬을 제외하는 기법을 이용하는
컴퓨터 판독 가능한 저장 매체에 저장된 프로그램.
A program stored in a computer readable storage medium for executing an object recognition identification method performed by an object recognition identification system,
RANSAC ( Random Sample Finding an affine transformation (T f ) for the first ROI by performing a Consensus alignment algorithm - The ROI image obtained by applying the first ROI (v 1 ) to the first object image (I A ) is R A ,1 , and an ROI image obtained by applying the first ROI (v 1 ) to the second object image (I B ) is represented by R B,1- ;
Corresponding to performing the RANSAC alignment algorithm with a second ROI (v 2 ) having a larger size than the first ROI among a plurality of ROIs using an affine transformation (T f ) for the first ROI without performing the RANSAC alignment algorithm Finding an affine transformation (T f,2 )
The second object image (I B ) is obtained by using four vertices of the ROI image (R A ,2 ) having the size of the second ROI (v 2 ) for the affine transformation (T f,2 ) and the first object image (I A ) . ) generating an ROI image (R * B,2 ) having a size of a second ROI (v 2 ); and
The hamming distance of each template generated from the ROI image (R A,2 ) for the first object image (I A ) and the ROI image (R * B,2 ) for the second object image (I B ). ) step of calculating
including,
Corresponding to performing the RANSAC alignment algorithm with a second ROI (v 2 ) having a larger size than the first ROI among a plurality of ROIs using an affine transformation (T f ) for the first ROI without performing the RANSAC alignment algorithm The step of finding an affine transformation (T f,2 ) that
Calculate the affine transformation (T f,2 ) using the following formula,
Figure 112022141847968-pat00148
when,
Figure 112022141847968-pat00149
ego,
here
Figure 112022141847968-pat00150
Represents the horizontal and vertical ratio of the first ROI size and the second ROI size,
In order to reduce the time required for recognition using the pattern of the object image, the RANSAC alignment algorithm is performed with the first ROI (v 1 ) having the smallest size among the plurality of ROIs to obtain an affine transformation (T f ) for the first ROI and RANSAC with a second ROI (v 2 ) having a larger size than the first ROI among a plurality of ROIs by using an affine transformation (T f ) for the first ROI to increase the accuracy of recognition using the pattern of the object image. Calculate the Hamming distance with the generated template by finding an affine transformation (T f,2 ) corresponding to that performed by the sorting algorithm,
In order to increase the accuracy of the Hamming distance calculation of the template, the RANSAC alignment algorithm is used to find the optimal affine transformation, and the change in coordinate information of the ROI of each of the first object image (I A ) and the second object image (I B ) and the ROI Using techniques to exclude misalignment of images
A program stored on a computer readable storage medium.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020200177638A 2020-12-17 2020-12-17 Method and System for Object Identification by Patterns of Object Image KR102550864B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200177638A KR102550864B1 (en) 2020-12-17 2020-12-17 Method and System for Object Identification by Patterns of Object Image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200177638A KR102550864B1 (en) 2020-12-17 2020-12-17 Method and System for Object Identification by Patterns of Object Image

Publications (2)

Publication Number Publication Date
KR20220087180A KR20220087180A (en) 2022-06-24
KR102550864B1 true KR102550864B1 (en) 2023-07-04

Family

ID=82216039

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200177638A KR102550864B1 (en) 2020-12-17 2020-12-17 Method and System for Object Identification by Patterns of Object Image

Country Status (1)

Country Link
KR (1) KR102550864B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102486499B1 (en) 2022-07-21 2023-01-10 한국해양과학기술원 System for exploring tidal-flat burrows using image-based artificial intelligence object recognition and method for constructing tidal-flat ecological environment spatial information using therof
KR102486498B1 (en) 2022-07-21 2023-01-10 한국해양과학기술원 System and method for detecting tidal-flat burrows and constructing tidal-flat ecological environment spatial information using image-based artificial intelligence object recognition

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9390327B2 (en) * 2013-09-16 2016-07-12 Eyeverify, Llc Feature extraction and matching for biometric authentication
KR101539944B1 (en) 2014-02-25 2015-07-29 한국산업기술대학교산학협력단 Object identification method
KR101706345B1 (en) 2014-05-27 2017-02-15 (주)링크옵틱스 dog nose pattern recognition apparatus
KR101805883B1 (en) * 2016-03-04 2018-01-19 아이디어주식회사 Real time Lane Departure Warning Method and Warning System for Vehicle with Improving Processing Speed
KR102131007B1 (en) * 2018-09-11 2020-07-09 주식회사 아이싸이랩 Method for providing animal and pet registration and authentication services

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
한국 공개특허공보 제10-2016-0075509호(2016.06.29.) 1부.*
한국 공개특허공보 제10-2017-0104089호(2017.09.14.) 1부.*
한국 공개특허공보 제10-2020-0030139호(2020.03.20.) 1부.*

Also Published As

Publication number Publication date
KR20220087180A (en) 2022-06-24

Similar Documents

Publication Publication Date Title
Shao et al. Real-time and accurate UAV pedestrian detection for social distancing monitoring in COVID-19 pandemic
Paisitkriangkrai et al. Pedestrian detection with spatially pooled features and structured ensemble learning
US8175412B2 (en) Method and apparatus for matching portions of input images
Chen et al. An end-to-end system for unconstrained face verification with deep convolutional neural networks
Huang et al. Copy-move forgery detection for image forensics using the superpixel segmentation and the Helmert transformation
US9928443B2 (en) Image processing apparatus and method for fitting a deformable shape model to an image using random forest regression voting
US20080219516A1 (en) Image matching apparatus, image matching method, computer program and computer-readable storage medium
JP2018022360A (en) Image analysis device, image analysis method and program
US9256802B2 (en) Object or shape information representation method
Islam et al. A review of recent advances in 3D ear-and expression-invariant face biometrics
KR102550864B1 (en) Method and System for Object Identification by Patterns of Object Image
Sun et al. Guide to match: Multi-layer feature matching with a hybrid gaussian mixture model
JP4803214B2 (en) Image recognition system, recognition method thereof, and program
Mao et al. Face occlusion recognition with deep learning in security framework for the IoT
Yung et al. Efficient feature-based image registration by mapping sparsified surfaces
Alsawwaf et al. In your face: person identification through ratios and distances between facial features
Wu et al. Privacy leakage of sift features via deep generative model based image reconstruction
US20130129229A1 (en) Systems and methods for tracking with discrete texture traces
Lee et al. Learning semantic correspondence exploiting an object-level prior
Stathopoulou et al. Appearance-based face detection with artificial neural networks
Kang et al. Combining random forest with multi-block local binary pattern feature selection for multiclass head pose estimation
Pflug et al. Segmentation and normalization of human ears using cascaded pose regression
Zheng et al. Face detection in low-resolution color images
US20230075888A1 (en) Object re-identification using multiple cameras
JP2017207960A (en) Image analysis device, image analysis method, and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant