KR102125633B1 - System and method for detecting and specifiing animal - Google Patents

System and method for detecting and specifiing animal Download PDF

Info

Publication number
KR102125633B1
KR102125633B1 KR1020180169171A KR20180169171A KR102125633B1 KR 102125633 B1 KR102125633 B1 KR 102125633B1 KR 1020180169171 A KR1020180169171 A KR 1020180169171A KR 20180169171 A KR20180169171 A KR 20180169171A KR 102125633 B1 KR102125633 B1 KR 102125633B1
Authority
KR
South Korea
Prior art keywords
image
unit
feature
animal
nose
Prior art date
Application number
KR1020180169171A
Other languages
Korean (ko)
Inventor
김명호
임준석
임태환
Original Assignee
김명호
임준석
임태환
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김명호, 임준석, 임태환 filed Critical 김명호
Priority to KR1020180169171A priority Critical patent/KR102125633B1/en
Application granted granted Critical
Publication of KR102125633B1 publication Critical patent/KR102125633B1/en

Links

Images

Classifications

    • G06K9/00362
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06K9/481
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/403Edge-driven scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding

Abstract

The present invention relates to an animal individual identifying and specifying system and method thereof including: an image capturing unit acquiring a nose image of an animal; an input unit for information input on the animal; an image alignment unit aligning the size and angle of the nose image acquired by the image capturing unit focusing on the concave part of the upper lip and the nostril; a feature extraction unit extracting a species classification feature corresponding to the nostril and the nose outline from the image aligned by the image alignment unit and extracting an individual classification feature corresponding to dot and net patterns with respect to certain parts between the nostrils and above the gap; a registration/search unit causing the feature extracted by the feature extraction unit and the animal-related information to be transmitted to an external system and registered as data and causing the animal-related information to be searched for by comparing the feature extracted by the feature extraction unit with data registered in the external system; and a display unit displaying the searched animal-related information or the data registered by the registration/search unit. According to the present invention, dual extraction is performed with respect to the species classification feature and individual classification feature, and thus it is possible to identify an animal such as a pet dog and accurately specify the individual. In addition, the accuracy of animal individual recognition can be increased by image alignment and so on regardless of the recognition target animals′ postures.

Description

동물의 개체 식별 및 특정화 시스템 및 방법{SYSTEM AND METHOD FOR DETECTING AND SPECIFIING ANIMAL}System and method for identification and characterization of animals and individuals{SYSTEM AND METHOD FOR DETECTING AND SPECIFIING ANIMAL}

본 발명은 동물의 개체 식별 및 특정화 시스템 및 방법에 관한 것으로서, 보다 상세하게는 총구분특징과 개체구분특징에 대해서 2중으로 추출하도록 함으로써,반려견 등의 동물 개체를 정확하게 식별 및 특정하도록 하며, 이미지 정렬 등에 의해 피인식동물의 다양한 자세에서도 동물 개체 인식의 정확도를 향상시킬 수 있도록 하는 동물의 개체 식별 및 특정화 시스템 및 방법에 관한 것이다.The present invention relates to an animal identification and characterization system and method of an animal, and more specifically, by extracting the doubles for the total classification feature and the individual classification feature, to accurately identify and specify an animal entity such as a companion dog, and to align images The present invention relates to an animal identification and characterization system and method for improving the accuracy of animal recognition even in various postures of a recognized animal.

최근, 유기 및 유실되는 동물의 발생건수가 크게 늘어가고 있으며, 이에는 개가 많은 비율을 차지하고 있는데, 유기견은 광견병, 브루셀라병, 심장사상충 감염증과 같은 중요 질병의 매개체가 된다는 점에서 공중 보건학적으로 문제가 되고 있는 실정임에도, 이들의 보호 시설이 많이 부족한 실정이다. In recent years, the number of organic and lost animals has increased significantly, and dogs account for a large proportion of them, which is a public health problem in that it is a vehicle for important diseases such as rabies, brucellosis, and heartworm infections. In spite of the fact that they are becoming, many of these facilities are lacking.

이러한 문제점의 해결을 위하여, 현행 동물 보호법상 유기견을 포함한 유기 동물들은 동물 보호소에 열흘간 보호한 후, 주인이 나타나지 않으면 안락사시키고 있어, 생명 윤리학적으로 다른 문제점을 가지고 있었다. To solve this problem, in accordance with the current animal protection law, organic animals, including organic dogs, were protected in an animal shelter for 10 days and then euthanized if the owner did not appear, which had other problems in bioethics.

그러므로, 이러한 사회적 문제들을 해결하기 위하여, 정부에서는 유기 동물의 소유주를 쉽게 찾을 수 있도록 동물 등록제를 시행하고 있는데, 이러한 동물 등록제는 유기 동물을 최소화하기 위해 반려 동물의 소유주로 하여금, 반려 동물을 시, 군, 구청에 등록하도록 법제화한 것으로, 반려 동물의 몸에 무선 식별칩을 삽입하는 내장형과, 무선 식별칩이 부착된 인식표를 반려 동물의 목에 걸어주는 외장형으로 나뉜다. Therefore, in order to solve these social problems, the government has implemented an animal registration system so that it is easy to find the owner of the organic animal, and the animal registration system allows the owner of the pet to minimize the organic animal. It is legislated to register with the military and ward offices, and is divided into an internal type that inserts a wireless identification chip into the companion animal's body and an external type that hangs the identification tag attached with the wireless identification chip on the animal's neck.

그러나, 내장형의 경우 무선 식별칩을 반려 동물의 체내에 심는 시술이 필요하다는 점에서 외장형에 비해 상대적으로 안정성이 떨어지는 문제가 있고, 외장형의 경우 소유주가 반려 동물에 인식표를 착용시키는 것을 잊어버리거나, 반려 동물에 의해 인식표가 분실되는 등 관리의 편의성이 떨어지는 문제가 있다.However, in the case of the built-in type, there is a problem that stability is relatively low compared to the external type in that a procedure for planting the wireless identification chip in the animal's body is required, and in the case of the external type, the owner forgets to wear the identification tag on the companion animal or is not allowed. There is a problem in that the convenience of management is poor, such as the loss of the identification tag by animals.

상기한 종래 기술에 대한 문제점을 해결하기 위하여, 본 발명은 총구분특징과 개체구분특징에 대해서 2중으로 추출함으로써, 반려견 등의 동물을 식별하여 개체를 정확하게 특정할 수 있고, 이미지 정렬 등에 의해 피인식동물의 다양한 자세에서도 동물 개체 인식의 정확도를 향상시킬 수 있도록 하며, 이로 인해 길 잃은 반려견 등과 같은 동물의 주인을 정확하게 찾아줄 수 있도록 함으로써, 미아견 등의 주인 찾아주기가 쉬우면서 신속하게 이루어지도록 하며, 반려동물 등록제에 기반한 체계의 관리를 용이하면서도 정확하게 수행할 수 있도록 하는 데이터베이스 시스템의 구축이 가능하도록 하고, 반려동물의 체계적인 관리 및 동물 복지향상에도 기여하는데 목적이 있다.In order to solve the above-described problems in the prior art, the present invention can identify animals such as companion dogs by accurately extracting the total classification feature and the individual classification feature, and accurately identify the individual, and recognize the object by image alignment, etc. It is possible to improve the accuracy of recognition of individual animals even in various postures of animals, so that the owner of animals such as stray dogs can be found accurately, making it easy and quick to find owners of missing dogs, etc. In addition, it aims to contribute to the systematic management of companion animals and to improve the welfare of animals.

상기한 바와 같은 과제를 해결하기 위하여, 본 발명의 일 측면에 따르면, 동물의 코 이미지를 획득하는 이미지촬영부; 상기 동물에 대한 관련 정보를 입력하는 입력부; 상기 이미지촬영부에 의해 획득한 코 이미지를 코구멍과 윗입술의 오목패인부분을 중심으로 이미지의 크기와 각도를 정렬시키는 이미지정렬부; 상기 이미지정렬부에 의해 정렬된 이미지로부터 콧구멍과 코 외곽라인에 해당하는 종구분특징을 추출하고, 콧구멍 사이와 콧구멍 사이 윗부분의 정해진 부위를 대상으로 점무늬와 그물무늬에 해당하는 개체구분특징을 추출하는 특징추출부; 상기 특징추출부에 의해 추출된 특징을 상기 동물에 대한 관련 정보와 함께 외부 시스템에 전송하여 데이터로서 등록하도록 하고, 상기 특징추출부에 의해 추출된 특징을 외부 시스템에 등록된 데이터와 비교하여 해당하는 동물의 관련 정보를 검색하도록 하는 등록/검색부; 및 상기 등록/검색부에 의해 등록되는 데이터 또는 검색된 동물의 관련 정보를 디스플레이하도록 하는 디스플레이부;를 포함하는, 동물의 개체 식별 및 특정화 시스템이 제공된다.In order to solve the problems as described above, according to an aspect of the present invention, an image photographing unit for acquiring a nose image of an animal; An input unit for inputting related information about the animal; An image aligning unit that aligns the size and angle of the image around the nose hole and the concave portion of the upper lip of the nose image obtained by the image photographing unit; From the image aligned by the image alignment unit, a vertical classification feature corresponding to a nostril and an outline line of the nose is extracted, and an individual classification characteristic corresponding to a dot pattern and a mesh pattern is targeted to a predetermined region between the nostrils and the nostrils. Feature extraction unit for extracting; The feature extracted by the feature extracting unit is transmitted to an external system together with the related information about the animal to be registered as data, and the feature extracted by the feature extracting unit is compared with data registered in the external system. A registration/search unit to search related information of animals; And a display unit configured to display data registered by the registration/search unit or related information of the searched animal. An object identification and characterization system for animals is provided.

상기 특징추출부는, 상기 이미지정렬부에 의해 정렬된 이미지로부터 코영역을 포함하는 4각형의 영역을 따내고, 정해진 픽셀크기로 정규화하는 이미지정규화부; 상기 이미지정규화부에 의해 정규화된 코영역 이미지에 대하여 RGB 3채널로 입력하여 딥러닝기반의 객체 인식 기술을 사용한 인셉션(inception) V2 기반의 DNN을 적용하여 종구분특징 벡터를 추출하는 종구분특징벡터추출부; 상기 코영역 이미지를 오버랩된 정해진 픽셀크기의 국부정사각형블록들로 분할하는 이미지분할부; 상기 이미지분할부에 의해 분할된 국부정사각형블록 각각에 에지강화필터를 적용하여 단일채널이미지로 변환시키는 이미지변환부; 상기 국부정사각형블록 각각에 DNN 기반 오토엔코더(Autoencoder)를 적용하여 상기 국부정사각형블록 각각에 대해 개체구분특징에 해당하는 무늬특징코드 벡터를 추출하는 무늬특징코드벡터추출부; 및 상기 종구분특징벡터와 상기 국부정사각형블록 각각에 대해서 얻어진 무늬특징코드 벡터를 연결하여 전체 특징을 구성하는 특징벡터연결부;를 포함할 수 있다.The feature extracting unit may include: an image normalizing unit for extracting a quadrangular area including a nose region from the image aligned by the image aligning unit and normalizing to a predetermined pixel size; A vertical classification feature that extracts a vertical classification feature vector by applying an inception V2 based DNN using deep learning-based object recognition technology by inputting RGB image with 3 channels to the nose region image normalized by the image normalization unit. Vector extraction unit; An image dividing unit for dividing the nose region image into local square blocks of overlapping predetermined pixel sizes; An image conversion unit that converts a local channel into a single channel image by applying an edge enhancement filter to each of the local square blocks divided by the image division unit; A pattern feature code vector extracting unit that extracts a pattern feature code vector corresponding to an individual classification feature for each of the local square blocks by applying a DNN-based autoencoder to each of the local square blocks; And a feature vector connecting unit constituting the entire feature by connecting the vertical feature vector and the pattern feature code vector obtained for each of the local square blocks.

상기 특징추출부에 의한 특징 추출이 이루어지지 않는 경우, 상기 이미지에 대해서 이미지 손상 및 해상도가 부족한 것으로 판단되면, 상기 이미지촬영부에 의해 이미지를 새로이 획득하도록 안내하고, 상기 이미지의 정렬이 실패하면 상기 이미지정렬부에 의해 상기 이미지에 대한 정렬을 재시도하도록 제어하며, 전체적인 동작에 필요한 제어를 수행하는 마이컴을 더 포함할 수 있다.When the feature extraction is not performed by the feature extraction unit, if it is determined that the image is damaged and the resolution is insufficient, the image photographing unit guides a new image acquisition, and if the alignment of the image fails, the image extraction The image alignment unit may control to retry alignment of the image, and may further include a microcomputer that performs control necessary for the overall operation.

본 발명의 다른 측면에 따르면, 동물의 코 이미지를 이미지촬영부에 의해 획득 및 상기 동물에 대한 관련 정보를 입력부에 의해 입력하는 단계; 상기 이미지촬영부에 의해 획득한 코 이미지를 코구멍과 윗입술의 오목패인부분을 중심으로 이미지의 크기와 각도를 이미지정렬부에 의해 정렬시키는 단계; 상기 이미지정렬부에 의해 정렬된 이미지로부터 특징추출부에 의해, 콧구멍과 코 외곽라인에 해당하는 종구분특징을 추출하고, 콧구멍 사이와 콧구멍 사이 윗부분의 정해진 부위를 대상으로 점무늬와 그물무늬에 해당하는 개체구분특징을 추출하는 단계; 및 상기 특징추출부에 의해 추출된 특징을 등록/검색부에 의해 상기 동물에 대한 관련 정보와 함께 외부 시스템에 전송하여 데이터로서 등록하도록 하는 단계;를 포함하는, 동물의 개체 식별 및 특정화를 데이터 등록 방법이 제공된다.According to another aspect of the present invention, obtaining an image of an animal nose by an image capturing unit and inputting relevant information about the animal by an input unit; Aligning the size and angle of the image with the image alignment unit centering on the nose hole and the concave portion of the upper lip of the nose image obtained by the image photographing unit; From the image aligned by the image alignment unit, a feature classification unit extracts a vertical division feature corresponding to a nostril and an outline line of the nose, and a dot pattern and a net pattern are targeted to a defined portion of the upper portion between the nostrils and between the nostrils. Extracting an individual classification feature corresponding to; And registering the feature extracted by the feature extraction unit with external information related to the animal by registering/searching unit to register it as data. Methods are provided.

보 발명의 또 다른 측면에 따르면, 동물의 코 이미지를 이미지촬영부에 의해 획득 및 상기 동물에 대한 관련 정보를 입력부에 의해 입력하는 단계; 상기 이미지촬영부에 의해 획득한 코 이미지를 코구멍과 윗입술의 오목패인부분을 중심으로 이미지의 크기와 각도를 이미지정렬부에 의해 정렬시키는 단계; 상기 이미지정렬부에 의해 정렬된 이미지로부터 특징추출부에 의해, 콧구멍과 코 외곽라인에 해당하는 종구분특징을 추출하고, 콧구멍 사이와 콧구멍 사이 윗부분의 정해진 부위를 대상으로 점무늬와 그물무늬에 해당하는 개체구분특징을 추출하는 단계; 상기 특징추출부에 의해 추출된 특징을 등록/검색부에 의해 외부 시스템에 등록된 데이터와 비교하여 해당하는 동물의 관련 정보를 검색하도록 하는 단계; 및 상기 등록/검색부에 의해 검색된 동물의 관련 정보를 디스플레이부를 통해서 디스플레이하도록 하는 단계;를 포함하는, 동물의 개체 식별 및 특정화를 데이터 검색 방법이 제공된다.According to another aspect of the invention, obtaining an image of an animal nose by an image capturing unit and inputting relevant information about the animal by an input unit; Aligning the size and angle of the image with the image alignment unit centering on the nose hole and the concave portion of the upper lip of the nose image obtained by the image photographing unit; From the image aligned by the image alignment unit, a feature classification unit extracts a vertical division feature corresponding to a nostril and an outline line of the nose, and a dot pattern and a net pattern are targeted to a defined portion of the upper portion between the nostrils and between the nostrils. Extracting an individual classification feature corresponding to; Comparing the features extracted by the feature extraction unit with data registered in the external system by the registration/search unit to search for relevant information of the corresponding animal; And displaying related information of the animal searched by the registration/search unit through a display unit. A data search method for identifying and specifying an individual of an animal is provided.

상기 종구분특징과 상기 개체구분특징을 추출하는 단계는, 상기 이미지정렬부에 의해 정렬된 이미지로부터 이미지정규화부에 의해 코영역을 포함하는 4각형의 영역을 따내고, 정해진 픽셀크기로 정규화하는 단계; 상기 이미지정규화부에 의해 정규화된 코영역 이미지에 대하여, 종구분특징벡터출부에 의해 RGB 3채널로 입력하여 딥러닝기반의 객체 인식 기술을 사용한 인셉션(inception) V2 기반의 DNN을 적용하여 종구분특징 벡터를 추출하는 단계; 상기 코영역 이미지를 이미지분할부에 의해 오버랩된 정해진 픽셀크기의 국부정사각형블록들로 분할하는 단계; 상기 이미지분할부에 의해 분할된 국부정사각형블록 각각에 이미지변환부에 의해 에지강화필터를 적용하여 단일채널이미지로 변환시키는 단계; 상기 국부정사각형블록 각각에 무늬특징코드벡터추출부에 의해 DNN 기반 오토엔코더(Autoencoder)를 적용하여 상기 국부정사각형블록 각각에 대해 개체구분특징에 해당하는 무늬특징코드 벡터를 추출하는 단계; 및 상기 종구분특징벡터와 상기 국부정사각형블록 각각에 대해서 얻어진 무늬특징코드 벡터를 특징벡터연결부에 의해 연결하여 전체 특징을 구성하는 단계;를 포함할 수 있다.The step of extracting the vertical classification feature and the individual classification feature comprises: extracting a quadrangular area including a nose region from an image aligned by the image alignment unit and normalizing to a predetermined pixel size. ; The nose region image normalized by the image normalization unit is input into three channels of RGB by the vertical division feature vector extraction unit, and is subjected to vertical division by applying inception V2 based DNN using deep learning-based object recognition technology. Extracting a feature vector; Dividing the nose region image into local square blocks of a predetermined pixel size overlapped by the image segmentation unit; Converting a single square image by applying an edge enhancement filter by an image conversion unit to each of the local square blocks divided by the image division unit; Extracting a pattern feature code vector corresponding to an individual classification feature for each of the local square blocks by applying a DNN-based autoencoder to each of the local square blocks by a pattern feature code vector extractor; And constituting the overall feature by connecting the feature pattern vector obtained for each of the vertical feature vector and the local square block by a feature vector connecting unit.

상기 종구분특징과 상기 개체구분특징을 추출하는 단계에서, 추출이 이루어지지 않는 경우, 마이컴에 의해, 상기 이미지에 대해서 이미지 손상 및 해상도가 부족한 것으로 판단되면, 상기 이미지촬영부에 의해 이미지를 새로이 획득하도록 안내하고, 상기 이미지의 정렬이 실패하면 상기 이미지정렬부에 의해 상기 이미지에 대한 정렬을 재시도하도록 제어할 수 있다.In the step of extracting the longitudinal classification feature and the individual classification feature, if extraction is not performed, if it is determined by the microcomputer that image damage and resolution are insufficient for the image, a new image is acquired by the image photographing unit If the alignment of the image fails, the image alignment unit may be controlled to retry alignment of the image.

본 발명에 따른 동물의 개체 식별 및 특정화 시스템 및 방법에 의하면, 총구분특징과 개체구분특징에 대해서 2중으로 추출함으로써, 반려견 등의 동물을 식별하여 개체를 정확하게 특정할 수 있고, 이미지 정렬 등에 의해 피인식동물의 다양한 자세에서도 동물 개체 인식의 정확도를 향상시킬 수 있도록 하며, 이로 인해 길 잃은 반려견 등과 같은 동물의 주인을 정확하게 찾아줄 수 있도록 함으로써, 미아견 등의 주인 찾아주기가 쉬우면서 신속하게 이루어지도록 하며, 반려동물 등록제에 기반한 체계의 관리를 용이하면서도 정확하게 수행할 수 있도록 하는 데이터베이스 시스템의 구축이 가능하도록 하고, 반려동물의 체계적인 관리 및 동물 복지향상에도 기여할 수 있다.According to the animal identification and characterization system and method according to the present invention, by extracting in duplicate the total classification feature and the individual classification feature, it is possible to accurately identify the individual by identifying animals such as companion dogs, and avoid image alignment, etc. It is possible to improve the accuracy of recognition of individual animals even in various postures of the recognized animal, so that it is possible to accurately find the owner of the animal, such as a lost companion dog, so that it is easy and quick to find the owner of the missing dog. In addition, it is possible to construct a database system that enables easy and accurate management of the system based on the companion animal registration system, and can also contribute to the systematic management of the companion animal and to improve animal welfare.

도 1은 본 발명의 일 실시례에 따른 동물의 개체 식별 및 특정화 시스템을 도시한 구성도이다.
도 2는 본 발명의 다른 실시례에 따른 동물의 개체 식별 및 특정화를 데이터 등록 방법을 도시한 흐름도이다.
도 3은 본 발명의 또 다른 실시례에 따른 동물의 개체 식별 및 특정화를 데이터 검색 방법을 도시한 흐름도이다.
도 4는 본 발명의 실시례들에 따른 동물의 개체 식별 및 특정화를 데이터 등록 방법 및 동물의 개체 식별 및 특정화를 데이터 검색 방법에서 특징 추출 단계를 구체적으로 도시한 흐름도이다.
도 5는 본 발명의 실시례에 따른 동물의 개체 식별 및 특정화 시스템 및 방법에서 사용 이미지 영역을 나타낸 이미지이다.
도 6은 본 발명의 실시례에 따른 동물의 개체 식별 및 특정화 시스템 및 방법에서 이미지 블록화를 나타낸 이미지이다.
1 is a configuration diagram showing an animal identification and characterization system according to an embodiment of the present invention.
2 is a flowchart illustrating a method for registering data of individual identification and characterization of animals according to another embodiment of the present invention.
3 is a flowchart illustrating a data retrieval method for identification and characterization of an individual of an animal according to another embodiment of the present invention.
4 is a flowchart specifically illustrating a feature extraction step in a data registration method for an individual object identification and characterization of an animal and a data search method for an individual object identification and characterization for an animal according to embodiments of the present invention.
5 is an image showing an image area used in an animal identification and characterization system and method according to an embodiment of the present invention.
6 is an image showing image blocking in an animal identification and characterization system and method according to an embodiment of the present invention.

본 발명은 다양한 변경에 의하여 여러 가지의 실시례를 가질 수 있으므로, 특정 실시례를 예로서 도면에 나타내어 설명하고자 한다. 또한 본 발명은 이러한 특정 실시례로 한정하는 것이 아니고, 본 발명의 기술 사상에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Since the present invention may have various embodiments by various changes, specific embodiments will be described by way of example in the drawings. In addition, it should be understood that the present invention is not limited to these specific embodiments, and includes all modifications, equivalents, and substitutes included in the technical spirit of the present invention.

이하에서는 첨부된 도면을 참조하여 본 발명에 따른 실시례에 대해서 상세히 설명하기로 하며, 도면 부호에 관계없이 동일 내지 대응하는 구성요소에 대해서는 동일한 참조 번호를 부여하고, 이에 대하여 중복되는 설명을 생략하기로 한다.Hereinafter, exemplary embodiments according to the present invention will be described in detail with reference to the accompanying drawings, and the same reference numerals are assigned to the same or corresponding components regardless of reference numerals, and redundant descriptions are omitted. Shall be

도 1은 본 발명의 일 실시례에 따른 동물의 개체 식별 및 특정화 시스템을 도시한 구성도이다.1 is a configuration diagram showing an animal identification and characterization system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시례에 따른 동물의 개체 식별 및 특정화 시스템(100)은 이미지촬영부(110), 입력부(181), 이미지정렬부(120), 특징추출부(130), 등록/검색부(140) 및 디스플레이부(150)를 포함할 수 있다. Referring to FIG. 1, an animal identification and characterization system 100 according to an embodiment of the present invention includes an image photographing unit 110, an input unit 181, an image alignment unit 120, and a feature extraction unit 130. , A registration/search unit 140 and a display unit 150.

이미지촬영부(110)는 동물의 코 이미지를 획득하도록 하는데, 예컨대 이미지 획득을 위한 다양한 방식의 카메라 내지 카메라 모듈이 사용될 수 있다.The image photographing unit 110 allows the nose image of an animal to be acquired. For example, various types of cameras or camera modules for image acquisition may be used.

입력부(181)는 동물에 대한 관련 정보를 입력하도록 하는데, 키보드, 터치패널, 버튼, 스위치를 비롯하여 다양한 입력장치가 사용될 수 있다.The input unit 181 allows information related to animals to be input, and various input devices may be used, including a keyboard, a touch panel, buttons, and switches.

이미지정렬부(120)는 이미지촬영부(110)에 의해 획득한 코 이미지를 코구멍과 윗입술의 오목패인부분을 중심으로 이미지의 크기와 각도를 정렬시키도록 한다. The image alignment unit 120 aligns the size and angle of the image around the nose hole and the concave portion of the upper lip of the nose image obtained by the image photographing unit 110.

특징추출부(130)는 이미지정렬부(120)에 의해 정렬된 이미지로부터 콧구멍과 코 외곽라인에 해당하는 종구분특징을 추출하고, 콧구멍 사이와 콧구멍 사이 윗부분의 정해진 부위를 대상으로 점무늬와 그물무늬에 해당하는 개체구분특징을 추출한다. 특징추출부(130)는 예컨대 본 실시례에서처럼, 이미지정렬부(120)에 의해 정렬된 이미지로부터 코영역을 포함하는 4각형의 영역을 따내고, 정해진 픽셀크기로 정규화하는 이미지정규화부(131)와, 이미지정규화부(131)에 의해 정규화된 코영역 이미지에 대하여 RGB 3채널로 입력하여 딥러닝기반의 객체 인식 기술을 사용한 인셉션(inception) V2 기반의 DNN을 적용하여 종구분특징 벡터를 추출하는 종구분특징벡터추출부(132)와, 코영역 이미지를 오버랩된 정해진 픽셀크기의 국부정사각형블록들로 분할하는 이미지분할부(133)와, 이미지분할부(133)에 의해 분할된 국부정사각형블록 각각에 에지강화필터를 적용하여 단일채널이미지로 변환시키는 이미지변환부(134)와, 국부정사각형블록 각각에 DNN 기반 오토엔코더(Autoencoder)를 적용하여 국부정사각형블록 각각에 대해 개체구분특징에 해당하는 무늬특징코드 벡터를 추출하는 무늬특징코드벡터추출부(135)와, 종구분특징벡터와 국부정사각형블록 각각에 대해서 얻어진 무늬특징코드 벡터를 연결하여 전체 특징을 구성하는 특징벡터연결부(136)를 포함할 수 있다. The feature extraction unit 130 extracts the vertical segmentation features corresponding to the nostrils and the outlines of the nose from the image aligned by the image alignment unit 120, and the dot pattern is targeted to a predetermined region between the nostrils and the nostrils. Individual classification features corresponding to and net patterns are extracted. The feature extraction unit 130, for example, extracts a quadrangular area including a nose region from an image aligned by the image alignment unit 120, and normalizes it to a predetermined pixel size, as in the present embodiment. And, input the nose region image normalized by the image normalization unit 131 as three channels of RGB, and apply the inception V2-based DNN using deep learning-based object recognition technology to extract the longitudinal feature vector The subdivision feature vector extracting unit 132, the image dividing unit 133 for dividing the nose region image into local square blocks of overlapping predetermined pixel sizes, and the local square block divided by the image dividing unit 133. An image conversion unit 134 that converts to a single channel image by applying an edge enhancement filter to each, and a pattern corresponding to the individual classification feature for each local square block by applying a DNN-based autoencoder to each of the local square blocks. Includes a pattern feature code vector extracting unit (135) for extracting a feature code vector, and a feature vector connecting portion (136) for concatenating the overall features by connecting the pattern feature code vectors obtained for each of the vertical division feature vector and the local square block. Can be.

등록/검색부(140)는 특징추출부(130)에 의해 추출된 특징을 동물에 대한 관련 정보와 함께 외부 시스템(200)에 전송하여 데이터로서 등록하도록 하고, 특징추출부(130)에 의해 추출된 특징을 외부 시스템(200)에 등록된 데이터와 비교하여 해당하는 동물의 관련 정보를 검색하도록 한다. 여기서, 외부 시스템(200)은 통신에 의해 접속하되, 부여된 아이디 및 설정된 비밀번호의 입력 또는 그 밖의 다양한 방법에 의해 본인 인증을 마친 단말기에 대해서 동물의 개체식별 및 특정화에 대한 서비스를 제공받도록 하는 서비스서버(210)와, 서비스서버(210)에 접속되어 제공되는 추출된 특징 및 해당 동물의 관련 정보를 데이터로 저장하여, 필요에 따라 서비스서버(210)를 통해서 본 발명의 시스템(100) 내지 단말기에 제공하도록 하는 데이터베이스부(220)를 포함할 수 있으며, 이 밖에도 다양한 방식에 의해 추출된 특징과 해당 동물의 관련 정보를 저장하여 제공하는 시스템이 해당될 수 있다. The registration/search unit 140 transmits the features extracted by the feature extraction unit 130 together with the related information about the animal to the external system 200 to register as data, and extracts the features by the feature extraction unit 130 The compared features are compared with data registered in the external system 200 to search for relevant information of the corresponding animal. Here, the external system 200 is a service that allows access to the terminal through the communication, but is provided with a service for individual identification and characterization of animals to a terminal that has been authenticated by the user by inputting an assigned ID and a set password or other various methods. The server 210 and the extracted features provided by being connected to the service server 210 and related information of the corresponding animal are stored as data, and if necessary, through the service server 210, the systems 100 to terminals of the present invention It may include a database unit 220 to provide to, in addition to this, a system that stores and provides features extracted by various methods and related information of the animal.

디스플레이부(150)는 등록/검색부(140)에 의해 등록되는 데이터 또는 검색된 동물의 관련 정보를 디스플레이하도록 한다. The display unit 150 displays data registered by the registration/search unit 140 or related information of the searched animal.

본 발명의 일 실시례에 따른 동물의 개체 식별 및 특정화 시스템(100)은 상기한 바와 같은 구성 외에도, 외부 시스템(200)과 Wi-Fi, 3G, LTE, 5G 등을 비롯하여. 다양한 방식의 유선 또는 무선통신을 수행하도록 하는 통신모듈(160)과, 전체적인 동작에 필요한 제어를 수행하는 마이컴(170)과, 외부 전원로부터 공급되는 전원 또는 배터리 등의 내부 전원으로부터 공급되는 전원을 동작에 필요한 전원으로 공급되도록 하는 전원공급부(182)와, 동작에 필요한 데이터 및 프로그램이나 어플리케이션을 저장하는 메모리부(183)를 더 포함할 수 있다. Animal identification and characterization system 100 according to an embodiment of the present invention, in addition to the configuration as described above, including the external system 200 and Wi-Fi, 3G, LTE, 5G. The communication module 160 to perform various types of wired or wireless communication, the microcomputer 170 to perform control necessary for the overall operation, and the power supplied from external power or internal power such as a battery are operated. It may further include a power supply unit 182 to be supplied with power required for the operation, and a memory unit 183 for storing data and programs or applications required for operation.

마이컴(170)은 특징추출부(130)에 의한 특징 추출이 이루어지지 않는 경우, 이미지에 대해서 이미지 손상 및 해상도가 부족한 것으로 판단되면, 이미지촬영부(110)에 의해 이미지를 새로이 획득하도록 안내하고, 이미지의 정렬이 실패하면 이미지정렬부(120)에 의해 이미지에 대한 정렬을 재시도하도록 제어할 수 있다. When the feature extraction by the feature extraction unit 130 is not performed, the microcomputer 170 guides the image taking unit 110 to acquire a new image when it is determined that the image is damaged and the resolution is insufficient, If the alignment of the image fails, the image alignment unit 120 may control to retry alignment of the image.

본 발명의 일 실시례에 따른 동물의 개체 식별 및 특정화 시스템(100)은 본 발명의 목적을 달성하도록 구성된 어플리케이션이나 프로그램의 설치 및 구동에 의해 정해진 동작을 수행하도록 하는 스마트폰, 태블릿 PC, 노트북, PC 등을 비롯하여, 다양한 정보처리 및 통신기기가 적용될 수 있는데, 이에 포함되는 상기한 구성(110,120,130,10,150,160,170,181,182,183)들에 대해서는 중복 설명을 피하기 위하여, 후술하는 동물의 개체 식별 및 특정화를 데이터 등록 방법 등에서 보다 상세히 설명하기로 한다. Animal identification and characterization system 100 according to an embodiment of the present invention is a smart phone, a tablet PC, a notebook, to perform a predetermined operation by the installation and operation of an application or program configured to achieve the object of the present invention, Various information processing and communication devices, including PCs, may be applied, and in order to avoid overlapping descriptions of the above-described configurations (110, 120, 130, 10, 150, 160, 170, 181, 182, 183), the object identification and characterization of animals described later is more detailed in a data registration method, etc. It will be described in detail.

도 2는 본 발명의 다른 실시례에 따른 동물의 개체 식별 및 특정화를 데이터 등록 방법을 도시한 흐름도이다.2 is a flowchart illustrating a method for registering data of individual identification and characterization of animals according to another embodiment of the present invention.

도 2를 참조하면, 본 발명의 다른 실시례에 따른 동물의 개체 식별 및 특정화를 데이터 등록 방법은 먼저, 동물의 코 이미지를 이미지촬영부(110)에 의해 획득한다(S11) 이때, 동물에 대한 관련 정보를 입력부(181)에 의해 입력한다. 여기서, 동물에 대한 관련 정보는 그 목적에 따라 달라질 수 있는데, 예컨대, 개체번호, 반려견 이름, 품종, 출생연월일, 부(父) 개체번호, 모(母) 개체번호, 현재상태(정상/유기상태 등) 등과, 주인 관련 정보로서, 주인이름, 주소지, 연락처(전화번호, 이메일) 등과, 입력자 정보로서, 입력기관/입력자, 연락처, 등록일시 등일 수 있다.Referring to FIG. 2, a method for registering an individual object and identifying an animal according to another embodiment of the present invention, first, acquires the nose image of the animal by the image photographing unit 110 (S11). Related information is input by the input unit 181. Here, the related information on the animal may vary depending on the purpose, for example, individual number, dog name, breed, date of birth, sub-individual number, parent (母) individual number, current status (normal/organic status) Etc., etc., as the owner-related information, such as the owner's name, address, contact information (phone number, e-mail), etc., as input information, may be an input institution/inputtor, contact information, registration date and time.

이미지촬영부(110)에 의해 획득한 코 이미지를 코구멍과 윗입술의 오목패인부분을 중심으로 이미지의 크기와 각도를 이미지정렬부(120)에 의해 정렬시킨다(S12). 이를 위해, 촬영된 동물, 예컨대 반려견의 코 이미지를 코구멍과 윗입술의 오목패인부분(코의 아래중심부분)을 중심으로 이미지의 크기와 각도를 정렬시킨다. 이러한 정렬은 정면도에 해당하는 이미지로의 보정, 또는 특정 각도에서의 사시도에 해당하는 이미지로의 보정 등과 같은 다양한 보정 방식이 적용될 수도 있는데, 이는 코구멍과 웃입술의 오목패인부분을 기준점으로 반려견의 코이미지를 정렬하고, 전체적인 모양과 색특징을 추출할 수 있도록 한다. The nose image obtained by the image photographing unit 110 is aligned by the image alignment unit 120 with respect to the size and angle of the image centering on the nose hole and the concave portion of the upper lip (S12). To this end, the size and angle of the image are aligned with the nose image of the photographed animal, for example, a companion dog, around the nose hole and the concave portion of the upper lip (lower center portion of the nose). For the alignment, various correction methods such as correction to an image corresponding to a front view or correction to an image corresponding to a perspective view at a specific angle may be applied, which is based on the nose of the dog and the dog's nose as the reference point. Arrange images and extract the overall shape and color features.

이미지정렬부(120)에 의해 정렬된 이미지로부터 특징추출부(130)에 의해, 도 5에서와 같이, 콧구멍과 코 외곽라인에 해당하는 종구분특징(A)을 추출하고, 콧구멍 사이와 콧구멍 사이 윗부분의 정해진 부위를 대상으로 점무늬와 그물무늬에 해당하는 개체구분특징(B)을 추출한다(S13). From the image aligned by the image alignment unit 120, the feature extraction unit 130 extracts the vertical segment feature A corresponding to the nostril and the nose outline line, as shown in FIG. 5, and between the nostrils. An individual classification feature (B) corresponding to a dot pattern and a mesh pattern is extracted from a target portion of the upper part between nostrils (S13).

종구분특징과 개체구분특징을 추출하는 단계(S13)는 도 4에서와 같이, 먼저, 이미지정렬부(120)에 의해 정렬된 이미지로부터 이미지정규화부(131)에 의해 코영역을 포함하는 4각형의 영역을 따내고, 정해진 픽셀크기로 정규화한다(S31). 여기서, 정렬된 반려견의 코이미지로부터 코영역을 완전히 포함하는 4각형영역을 따내고 224x224 픽쎌크기로 정규화할 수 있다.The step (S13) of extracting the longitudinal classification feature and the individual classification feature, first, as shown in FIG. 4, first, a quadrangular shape including the nose region by the image normalization unit 131 from the image aligned by the image alignment unit 120 The area of is extracted and normalized to a predetermined pixel size (S31). Here, a quadrilateral area that completely includes the nose area can be extracted from the aligned nose image of the dog and normalized to a size of 224x224 pictures.

이미지정규화부(131)에 의해 정규화된 코영역 이미지에 대하여, 종구분특징벡터출부(132)에 의해 RGB 3채널의 코영역 이미지로 입력하여 딥러닝기반의 객체 인식 기술을 사용한 인셉션(inception) V2 기반의 DNN을 적용하여 종구분특징 벡터를 추출한다(S32). 인셉션 v2 기반 DNN은 인셉션 v2 Net의 고유한 속성을 이용하면서 개코의 색상 및 구조적 특징에 기반하여, 개의 종과 같은 거시적인 판별에 이용될 수 있는 효과적인 특징벡터를 생성할 수 있도록 인셉션 및 Res 모델기반의 CNN층들로 구성되어 있다. 한편, 본 발명에서 제시하는 딥러닝기반 기술은 이미 공지된 기술에 해당하며, 이를 그대로 따를 수 있음은 물론이며, 이는 이하에서 모두 적용된다.For the nose region image normalized by the image normalization unit 131, input into the nose region image of RGB 3 channels by the vertical feature vector extraction unit 132, and inception using deep learning-based object recognition technology. V2-based DNN is applied to extract the vector of feature classification (S32). DNN based on Inception v2 uses intrinsic properties of Inception v2 Net, based on the color and structural characteristics of Gaeko, to generate an effective feature vector that can be used for macroscopic discrimination such as dog species. It consists of CNN layers based on Res model. On the other hand, the deep learning-based technology presented in the present invention corresponds to a known technology, and of course, it can be followed as it is, and this is all applied below.

코영역 이미지를 이미지분할부(133)에 의해 오버랩된 정해진 픽셀크기의 국부정사각형블록들로 분할한다(S33). 여기서 코영역 이미지를 오버랩된 64x64 픽셀크기의 국부정사각형블록들로 분할할 수 있다.The nose region image is divided into local square blocks of a predetermined pixel size overlapped by the image division unit 133 (S33). Here, the nose region image can be divided into overlapping local square blocks of 64x64 pixels.

이미지분할부(133)에 의해 분할된 국부정사각형블록 각각에 이미지변환부(134)에 의해 에지강화필터를 적용하여 단일채널이미지로 변환시킨다(S34). 여기서 에지강화필터(Edge enhancement filter)는 공간 필터링의 한 종류로서, 이미지의 에지 세부 사항을 발견하고 강화하도록 하는 필터의 일종이다.An edge enhancement filter is applied by the image conversion unit 134 to each of the local square blocks divided by the image division unit 133 to convert it into a single channel image (S34). Here, an edge enhancement filter is a type of spatial filtering, which is a type of filter that enables to discover and enhance edge details of an image.

국부정사각형블록 각각에 무늬특징코드벡터추출부(135)에 의해 DNN 기반 오토엔코더(Autoencoder)를 적용하여 국부정사각형블록 각각에 대해 개체구분특징에 해당하는 무늬특징코드 벡터를 추출한다(S35). 여기서 이용되는 오토엔코더는 개코이미지영역에서 추출된 64x64 픽셀크기의 코무늬 패턴에 대해 미리 학습되어 있다.DNN-based autoencoder is applied to each of the local square blocks by the pattern feature code vector extractor 135 to extract the pattern feature code vector corresponding to the individual classification feature for each of the local square blocks (S35). The autoencoder used here is pre-trained on the nose pattern pattern of 64x64 pixel size extracted from the gaeko image area.

종구분특징벡터와 국부정사각형블록 각각에 대해서 얻어진 무늬특징코드 벡터를 특징벡터연결부(136)에 의해 연결하여 전체 특징을 구성한다(S36). 여기서, 이미 추출된 RGB 3채널 이미지로부터 얻어진 종구분특징벡터와 매 블록에서 얻어진 무늬특징코드벡터들을 연결하여 전체 특징을 구성하는데, 이 특징은 데이터베이스부(220)에서 데이터 비교시, 부분정합방식을 적용하여 몇 개의 부분특징벡터가 일치할 때에도 높은 유사도를 출력할 수 있도록 함으로써, 부분적인 가림이나 상처, 불순물 부착 등에도 강력한 성능을 보장할 수 있게 한다. 또한, 이 방법에서는 이미지 전체로부터 특징을 추출하기 위해 인셉션 Net형의 DNN을 이용하고 코영역에서의 각종 형태 주름무늬 해석을 위해 국부영역분할과, DNN기반 오토엔코더를 함께 이용하여 보다 높은 성능을 추구할 수 있다.The feature vector connecting unit 136 connects the vertical feature vector and the pattern feature code vector obtained for each of the local square blocks to form the entire feature (S36). Here, the entire feature is constructed by connecting the feature code vector obtained from every block with the feature vector obtained from the RGB 3-channel image that has been extracted, and this feature compares the data in the database unit 220 with partial matching. By applying it, high similarity can be output even when several partial feature vectors are matched, so that strong performance can be ensured even in partial occlusion, wounds, and impurities. In addition, in this method, in order to extract features from the entire image, induction net type DNN is used, and local area segmentation and DNN-based autoencoder are used together to analyze various types of wrinkles in the nasal region. Can pursue.

특징추출부(130)에 의해 추출된 특징을 등록/검색부(140)에 의해 동물에 대한 관련 정보와 함께 외부 시스템(200)에 전송하여 데이터로서 등록하도록 한다(S14). 이때 외부 시스템(200)에서는 동물, 예컨대 반려견에 대한 개체번호(ID) 부여 및 개체 등록이 이루어지도록 할 수 있고, 데이터베이스부(220)에 관련 사항들을 모두 데이터로서 저장하도록 한다. 이때, 추출된 특징정보와 함께, 입력된 정보(사진 이미지, 반려견 정보, 반려견 주인정보 등)를 데이터베이스부(220)에 등록하게 된다. The feature extracted by the feature extraction unit 130 is transmitted to the external system 200 together with the related information about the animal by the registration/search unit 140 to register as data (S14). At this time, in the external system 200, an object number (ID) may be assigned to an animal, for example, a companion dog, and object registration may be performed, and all related items are stored as data in the database unit 220. At this time, along with the extracted feature information, the input information (photo image, companion dog information, companion dog owner information, etc.) is registered in the database unit 220.

한편, 종구분특징과 개체구분특징을 추출하는 단계(S13)에서, 추출이 이루어지지 않는 경우, 마이컴(170)에 의해, 이미지에 대해서 이미지 손상 및 해상도가 부족한 것으로 판단되면, 이미지촬영부(110)에 의해 이미지를 새로이 획득하도록 디스플레이부(150)를 통해 텍스트 또는 부가적으로 마련되는 스피커(미도시)를 통해서 음성으로 안내하고, 이미지의 정렬이 실패하면 이미지정렬부(120)에 의해 소프트웨어적으로 이미지에 대한 정렬을 재시도하도록 제어할 수 있다(S15). On the other hand, in the step (S13) of extracting the longitudinal classification feature and the individual classification feature, if extraction is not made, if it is determined by the microcomputer 170 that the image is damaged and the resolution is insufficient, the image photographing unit 110 ) Through the display unit 150 to obtain a new image by text or through an additionally provided speaker (not shown) by voice, and if the alignment of the image fails, the software is imaged by the image alignment unit 120. It can be controlled to retry the alignment of the image (S15).

도 3은 본 발명의 또 다른 실시례에 따른 동물의 개체 식별 및 특정화를 데이터 검색 방법을 도시한 흐름도이다.3 is a flowchart illustrating a data retrieval method for identification and characterization of an individual of an animal according to another embodiment of the present invention.

도 3을 참조하면, 본 발명의 또 다른 실시례에 따른 동물의 개체 식별 및 특정화를 데이터 검색 방법은 동물의 코 이미지를 이미지촬영부(110)에 의해 획득 및 동물에 대한 관련 정보를 입력부(181)에 의해 입력하는 단계(S21)와, 이미지촬영부(110)에 의해 획득한 코 이미지를 코구멍과 윗입술의 오목패인부분을 중심으로 이미지의 크기와 각도를 이미지정렬부에 의해 정렬시키는 단계(S22)와, 이미지정렬부(120)에 의해 정렬된 이미지로부터 특징추출부(130)에 의해, 콧구멍과 코 외곽라인에 해당하는 종구분특징을 추출하고, 콧구멍 사이와 콧구멍 사이 윗부분의 정해진 부위를 대상으로 점무늬와 그물무늬에 해당하는 개체구분특징을 추출하는 단계(S23)와, 특징추출부(130)에 의해 추출된 특징을 등록/검색부(140)에 의해 외부 시스템(200)에 등록된 데이터와 비교하여 해당하는 동물의 관련 정보를 검색하도록 하는 단계(S24)와, 등록/검색부(140)에 의해 검색된 동물의 관련 정보를 디스플레이부(150)를 통해서 디스플레이하도록 하는 단계(S25)를 포함할 수 있다. 한편, 본 발명의 또 다른 실시례에 따른 동물의 개체 식별 및 특정화를 데이터 검색 방법은 이미지 획득 단계(S21)에서 특징을 추출하는 단계(S23) 까지는 본 발명의 다른 실시례에 따른 동물의 개체 식별 및 특정화를 데이터 등록 방법에서 동일한 단계(S11~S13)로서 설명하였으므로 중복되는 설명을 생략하기로 한다. 다만, 동물에 대한 관련 정보를 입력부(181)에 의해 입력하는 단계(S21)에서 동물에 대한 관련 정보는 검색정보로서, 품종, 현재상태 등일 수 있다.Referring to FIG. 3, in a data retrieval method for identifying and specifying an individual of an animal according to another embodiment of the present invention, an image of the nose of the animal is acquired by the image photographing unit 110 and input information related to the animal 181 ) (S21), and aligning the size and angle of the image with the image alignment unit around the nose hole and the concave portion of the upper lip of the nose image obtained by the image photographing unit 110 ( S22), and by the feature extraction unit 130 from the image aligned by the image alignment unit 120, extracts the nomenclature features corresponding to the nostrils and the outline of the nose, and the upper part between the nostrils and the nostrils The step of extracting the individual classification features corresponding to the dot pattern and the mesh pattern for the designated area (S23), and the feature extracted by the feature extraction unit 130, the registration/search unit 140 by the external system 200 Comparing with the data registered in the step of searching for relevant information of the corresponding animal (S24), and displaying the relevant information of the animal searched by the registration/search unit 140 through the display unit 150 ( S25). On the other hand, the method for retrieving and identifying an individual of an animal according to another embodiment of the present invention is a data retrieval method from the image acquisition step (S21) to the step of extracting the characteristic (S23), according to another embodiment of the present invention. And, since the specificization was described as the same steps (S11 to S13) in the data registration method, redundant description will be omitted. However, in the step S21 of inputting related information about the animal by the input unit 181, the related information about the animal is search information, and may be a breed, a current state, or the like.

동물의 관련 정보를 검색하도록 하는 단계(S24)는 반려견의 개체 데이터베이스부(220)로부터 입력된 이미지에서 추출된 특징 또는 검색어를 이용하여, 데이터베이스 검색과 매치되는 항목을 추출하는 과정을 거치게 된다.In step S24 of searching for related information of the animal, a feature matching the database search is extracted using a feature or a search word extracted from the image input from the dog's object database unit 220.

동물의 관련 정보를 디스플레이부(150)를 통해서 디스플레이하도록 하는 단계(S26)는 검색된 데이터를 스마트폰 등 단말기에 마련되는 디스플레이부(150)를 통해서 표출되도록 할 수 있다.In step S26 of displaying the relevant information of the animal through the display unit 150, the retrieved data may be displayed through the display unit 150 provided in a terminal such as a smartphone.

또한 본 실시례에서, 종구분특징과 개체구분특징을 추출하는 단계(S23)는, 이전 실시례의 동물의 개체 식별 및 특정화를 위한 데이터 등록 방법에서 해당하는 단계(S13)와 마찬가지로, 도 4를 참조하면, 이미지정렬부(120)에 의해 정렬된 이미지로부터 이미지정규화부(131)에 의해 코영역을 포함하는 4각형의 영역을 따내고, 정해진 픽셀크기로 정규화하는 단계(S31)와, 이미지정규화부(132)에 의해 정규화된 코영역 이미지에 대하여, 종구분특징벡터출부(132)에 의해 RGB 3채널로 입력하여 딥러닝기반의 객체 인식 기술을 사용한 인셉션(inception) V2 기반의 DNN을 적용하여 종구분특징 벡터를 추출하는 단계(S32)와, 코영역 이미지를 이미지분할부(133)에 의해 오버랩된 정해진 픽셀크기의 국부정사각형블록들로 분할하는 단계(S33)와, 이미지분할부(133)에 의해 분할된 국부정사각형블록 각각에 이미지변환부(134)에 의해 에지강화필터를 적용하여 단일채널이미지로 변환시키는 단계(S34)와, 국부정사각형블록 각각에 무늬특징코드벡터추출부(135)에 의해 DNN 기반 오토엔코더(Autoencoder)를 적용하여 국부정사각형블록 각각에 대해 개체구분특징에 해당하는 무늬특징코드 벡터를 추출하는 단계(S35)와, 종구분특징벡터와 국부정사각형블록 각각에 대해서 얻어진 무늬특징코드 벡터를 특징벡터연결부(136)에 의해 연결하여 전체 특징을 구성하는 단계(S36)를 포함할 수 있으며, 이들에 대해서 앞서 설명한 바와 같으므로 중복되는 설명을 생략하기로 한다.In addition, in this embodiment, the step (S23) of extracting the species classification feature and the individual classification feature, as in the step (S13) corresponding to the data registration method for individual identification and characterization of animals of the previous embodiment, FIG. Referring to the image alignment unit 120, the image normalization unit 131 extracts a quadrangular area including a nose region by the image normalization unit 131 and normalizes the image to a predetermined pixel size (S31). For the nose region image normalized by the unit 132, input into three channels of RGB by the vertical segmentation feature vector extraction unit 132 to apply inception V2-based DNN using deep learning-based object recognition technology Extracting the vertical classification feature vector (S32), dividing the nose region image into local square blocks of a predetermined pixel size overlapped by the image division unit 133 (S33), and an image division unit 133 Step S34 of applying the edge enhancement filter by the image conversion unit 134 to each of the local square blocks divided by) (S34), and pattern feature code vector extraction unit 135 of each of the local square blocks By applying a DNN-based autoencoder (Autoencoder) to extract the pattern feature code vector corresponding to the individual classification feature for each of the local square block (S35), and the vertical division feature vector and the pattern obtained for each of the local square block The feature code vector may be connected by the feature vector connecting unit 136 to configure the entire feature (S36), and the duplicate description will be omitted, as described above.

또한, 종구분특징과 개체구분특징을 추출하는 단계(S23)에서, 이전 실시례와 마찬가지로, 추출이 이루어지지 않는 경우, 마이컴(170)에 의해, 이미지에 대해서 이미지 손상 및 해상도가 부족한 것으로 판단되면, 이미지촬영부(110)에 의해 이미지를 새로이 획득하도록 안내하고, 이미지의 정렬이 실패하면 이미지정렬부(120)에 의해 이미지에 대한 정렬을 재시도하도록 제어할 수 있다.In addition, in the step (S23) of extracting the longitudinal classification feature and the individual classification feature, if extraction is not performed as in the previous embodiment, if it is determined by the microcomputer 170 that the image is damaged and the resolution is insufficient, , It is possible to guide the image acquisition unit 110 to acquire a new image, and if the alignment of the image fails, the image alignment unit 120 may be controlled to retry alignment of the image.

이와 같은 본 발명에 따른 동물의 개체 식별 및 특정화 시스템 및 방법에 따르면, 동물의 특정화에 동물의 코에 있는 무늬를 사용한다는 점과, 반려견 등 동물의 코 표면 이미지는 도 5에서와 같이, 코구멍과 웃입술의 오목패인부분을 중심으로 일정한 점무늬 혹은 그물무늬가 존재한다는 점을 이용한다. According to the animal identification and characterization system and method according to the present invention, the pattern of the animal's nose is used to characterize the animal, and the surface image of the animal's nose, such as a companion dog, is as shown in FIG. And the fact that there is a certain dot pattern or net pattern around the concave portion of the upper lip.

이를 위해, 우선 코구멍과 웃입술로부터 오목패인 부분을 이용하여 코화상을 정렬시킨다. 이때 생기는 코구멍사이 및 웃쪽의 삼각부분에는 모자이크무늬와 같은 그물형태의 무늬 혹은 돌출점들의 점모임형태의 무늬가 존재한다. 이 무늬로부터 해당 개체에 특정화할 수 있는 기하학적인 위상구조특징을 추출할 수 있다. 또한 반려견의 종 혹은 동물의 종에 따라 코의 전체적인 모양새와 색이 다르게 된다. 이러한 모양새 및 색을 이용하여 반려견을 종에 따라 그룹화하며, 매 그물형 및 점모임형태의 무늬에 대해 딥러닝기반의 대립적 무늬생성방법을 적용하여 기하학적인 위상구조특징을 추출 및 비교하면, 모든 개체별로 무늬특성이 상이하기 때문에 이를 이용하여 개체를 특정화 할 수 있게 된다.To this end, first, the nose image is aligned by using a concave portion from the nose hole and the upper lip. At this time, between the nasal cavity and the triangular part of the upper side, there is a net-like pattern such as a mosaic pattern or a dot-like pattern of protrusions. From this pattern, geometric topological features that can be specified for the individual can be extracted. In addition, the overall shape and color of the nose varies depending on the dog's species or animal species. Using these shapes and colors, the dogs are grouped according to species, and by applying deep learning-based confrontational pattern generation method to every net and dot-like patterns, geometric phase structure features are extracted and compared. Since the pattern characteristics are very different, it is possible to specify an object using it.

현재까지의 테스트 결과, 이 방법을 이용하여 개체를 특정하는 경우, 상이한 개체에 대하여 동일한 전체적 모양, 색, 무늬가 나타날 확률은 사람에 있어서 지문과 마찬가지로, 수천만분의 1에 해당될 것으로 확인되며, 현재까지 실현한 기술로 120여 마리의 반려견에 대해 자료를 구축 및 학습시키고, 인식대조의 성능에 대한 시험을 진행한 결과 1:1 비교에서 95 동물의 개체 식별 및 특정화를 데이터 검색 방법 이상의 성공율을 보이고 있다.As a result of testing to date, when an object is specified using this method, the probability that the same overall shape, color, and pattern will appear for different objects will be equal to one tenth of a million, like fingerprints in humans. With the technology realized so far, about 120 dogs were built and learned, and the test of the performance of cognitive control resulted in the success rate over the data retrieval method of identification and characterization of 95 animals in 1:1 comparison. Is showing.

이와 같이 첨부된 도면을 참조하여 본 발명을 설명하였으나, 본 발명의 기술 사상을 벗어나지 않는 범위 내에서 다양한 변형이 이루어질 수 있다. 따라서, 본 발명의 범위는 상기한 실시례에 국한되어 정해져서는 아니되며, 특허청구범위, 그리고 이러한 특허청구범위와 균등한 것들에 의해 정해져야 한다.Although the present invention has been described with reference to the accompanying drawings, various modifications may be made without departing from the technical spirit of the present invention. Therefore, the scope of the present invention should not be limited to the above-described embodiments, but should be defined by the claims, and equivalents to the claims.

110 : 이미지촬영부 120 : 이미지정렬부
130 : 특징추출부 131 : 이미지정규화부
132 : 종구분특징벡터추출부 133 : 이미지분할부
134 : 이미지변환부 135 : 무늬특징코드벡터추출부
136 : 특징벡터연결부 140 : 등록/검색부
150 : 디스플레이부 160 : 통신모듈
170 : 마이컴 181 : 입력부
182 : 전원공급부 183 : 메모리부
210 : 서비스서버 220 : 데이터베이스부
110: image photographing unit 120: image alignment unit
130: feature extraction unit 131: image normalization unit
132: vertical division feature vector extraction unit 133: image segmentation unit
134: image conversion unit 135: pattern feature code vector extraction unit
136: feature vector connection unit 140: registration / search unit
150: display unit 160: communication module
170: microcomputer 181: input unit
182: power supply 183: memory
210: service server 220: database

Claims (6)

동물의 코 이미지를 획득하는 이미지촬영부;
상기 동물에 대한 관련 정보를 입력하는 입력부;
상기 이미지촬영부에 의해 획득한 코 이미지를 코구멍과 윗입술의 오목패인부분을 중심으로 이미지의 크기와 각도를 정렬시키는 이미지정렬부;
상기 이미지정렬부에 의해 정렬된 이미지로부터 콧구멍과 코 외곽라인에 해당하는 종구분특징을 추출하고, 콧구멍 사이와 콧구멍 사이 윗부분의 정해진 부위를 대상으로 점무늬와 그물무늬에 해당하는 개체구분특징을 추출하고,
상기 이미지정렬부에 의해 정렬된 이미지로부터 코영역을 포함하는 4각형의 영역을 따내고, 정해진 픽셀크기로 정규화하는 이미지정규화부;
상기 이미지정규화부에 의해 정규화된 코영역 이미지에 대하여 RGB 3채널로 입력하여 딥러닝기반의 객체 인식 기술을 사용한 인셉션(inception) V2 기반의 DNN을 적용하여 종구분특징 벡터를 추출하는 종구분특징벡터추출부;
상기 코영역 이미지를 오버랩된 정해진 픽셀크기의 국부정사각형블록들로 분할하는 이미지분할부;
상기 이미지분할부에 의해 분할된 국부정사각형블록 각각에 에지강화필터를 적용하여 단일채널이미지로 변환시키는 이미지변환부;
상기 국부정사각형블록 각각에 DNN 기반 오토엔코더(Autoencoder)를 적용하여 상기 국부정사각형블록 각각에 대해 개체구분특징에 해당하는 무늬특징코드 벡터를 추출하는 무늬특징코드벡터추출부; 및
상기 종구분특징벡터와 상기 국부정사각형블록 각각에 대해서 얻어진 무늬특징코드 벡터를 연결하여 전체 특징을 구성하는 특징벡터연결부;를 포함하는 특징추출부;
상기 특징추출부에 의해 추출된 특징을 상기 동물에 대한 관련 정보와 함께 외부 시스템에 전송하여 데이터로서 등록하도록 하고, 상기 특징추출부에 의해 추출된 특징을 외부 시스템에 등록된 데이터와 비교하여 해당하는 동물의 관련 정보를 검색하도록 하는 등록/검색부; 및
상기 등록/검색부에 의해 등록되는 데이터 또는 검색된 동물의 관련 정보를 디스플레이하도록 하는 디스플레이부;
를 포함하는 것을 특징으로 하는 동물의 개체 식별 및 특정화하는 시스템.
An image photographing unit acquiring an animal nose image;
An input unit for inputting related information about the animal;
An image aligning unit that aligns the size and angle of the image around the nose hole and the concave portion of the upper lip of the nose image obtained by the image photographing unit;
From the image aligned by the image alignment unit, a vertical classification feature corresponding to a nostril and an outline line of the nose is extracted, and an individual classification feature corresponding to a dot pattern and a mesh pattern is targeted to a predetermined portion of the upper portion between the nostrils and between the nostrils. To extract,
An image normalization unit for extracting a quadrangular area including a nose region from the image aligned by the image alignment unit and normalizing to a predetermined pixel size;
A vertical classification feature that extracts a vertical classification feature vector by applying an inception V2 based DNN using deep learning-based object recognition technology by inputting RGB image with 3 channels to the nose region image normalized by the image normalization unit. Vector extraction unit;
An image dividing unit for dividing the nose region image into local square blocks of overlapping predetermined pixel sizes;
An image conversion unit that converts a local channel into a single channel image by applying an edge enhancement filter to each of the local square blocks divided by the image division unit;
A pattern feature code vector extraction unit for extracting a pattern feature code vector corresponding to an individual classification feature for each of the local square blocks by applying a DNN-based autoencoder to each of the local square blocks; And
A feature extracting unit comprising; a feature vector connecting unit constituting the entire feature by connecting the longitudinal feature vector and the pattern feature code vector obtained for each of the local square blocks;
The feature extracted by the feature extracting unit is transmitted to an external system together with the related information about the animal to be registered as data, and the feature extracted by the feature extracting unit is compared with data registered in the external system. A registration/search unit to search related information of animals; And
A display unit configured to display data registered by the registration/search unit or related information of the searched animal;
System comprising the identification and characterization of the individual of the animal comprising a.
청구항 1에 있어서,
상기 특징추출부에 의한 특징 추출이 이루어지지 않는 경우, 상기 이미지에 대해서 이미지 손상 및 해상도가 부족한 것으로 판단되면, 상기 이미지촬영부에 의해 이미지를 새로이 획득하도록 안내하고, 상기 이미지의 정렬이 실패하면 상기 이미지정렬부에 의해 상기 이미지에 대한 정렬을 재시도하도록 제어하며, 전체적인 동작에 필요한 제어를 수행하는 마이컴을 더 포함하는, 동물의 개체 식별 및 특정화하는 시스템.
The method according to claim 1,
When the feature extraction is not performed by the feature extraction unit, if it is determined that the image is damaged and the resolution is insufficient, the image photographing unit guides a new image acquisition, and if the alignment of the image fails, the image extraction A system for identifying and specifying an individual of an animal, further comprising a microcomputer that controls re-alignment of the image by the image alignment unit and performs control necessary for the overall operation.
동물의 코 이미지를 이미지촬영부에 의해 획득 및 상기 동물에 대한 관련 정보를 입력부에 의해 입력하는 단계;
상기 이미지촬영부에 의해 획득한 코 이미지를 코구멍과 윗입술의 오목패인부분을 중심으로 이미지의 크기와 각도를 이미지정렬부에 의해 정렬시키는 단계;
상기 이미지정렬부에 의해 정렬된 이미지로부터 특징추출부에 의해, 콧구멍과 코 외곽라인에 해당하는 종구분특징을 추출하고, 콧구멍 사이와 콧구멍 사이 윗부분의 정해진 부위를 대상으로 점무늬와 그물무늬에 해당하는 개체구분특징을 추출하고,
상기 종구분특징과 상기 개체구분특징을 추출하는 단계는,
상기 이미지정렬부에 의해 정렬된 이미지로부터 이미지정규화부에 의해 코영역을 포함하는 4각형의 영역을 따내고, 정해진 픽셀크기로 정규화하는 단계;
상기 이미지정규화부에 의해 정규화된 코영역 이미지에 대하여, 종구분특징벡터출부에 의해 RGB 3채널로 입력하여 딥러닝기반의 객체 인식 기술을 사용한 인셉션(inception) V2 기반의 DNN을 적용하여 종구분특징 벡터를 추출하는 단계;
상기 코영역 이미지를 이미지분할부에 의해 오버랩된 정해진 픽셀크기의 국부정사각형블록들로 분할하는 단계;
상기 이미지분할부에 의해 분할된 국부정사각형블록 각각에 이미지변환부에 의해 에지강화필터를 적용하여 단일채널이미지로 변환시키는 단계;
상기 국부정사각형블록 각각에 무늬특징코드벡터추출부에 의해 DNN 기반 오토엔코더(Autoencoder)를 적용하여 상기 국부정사각형블록 각각에 대해 개체구분특징에 해당하는 무늬특징코드 벡터를 추출하는 단계; 및
상기 종구분특징벡터와 상기 국부정사각형블록 각각에 대해서 얻어진 무늬특징코드 벡터를 특징벡터연결부에 의해 연결하여 전체 특징을 구성하는 단계;를 포함하는 단계; 및
상기 특징추출부에 의해 추출된 특징을 등록/검색부에 의해 상기 동물에 대한 관련 정보와 함께 외부 시스템에 전송하여 데이터로서 등록하도록 하는 단계;
를 포함하는 것을 특징으로 하는 동물의 개체 식별 및 특정화하기 위해 데이터를 등록하는 방법.
Obtaining an animal nose image by an image capturing unit and inputting related information about the animal by an input unit;
Aligning the size and angle of the image with the image alignment unit centering on the nose hole and the concave portion of the upper lip of the nose image obtained by the image photographing unit;
From the image aligned by the image alignment unit, a feature classification unit extracts a vertical division feature corresponding to a nostril and an outline line of the nose, and a dot pattern and a net pattern are targeted to a defined portion of the upper portion between the nostrils and between the nostrils. Extract the individual classification feature corresponding to,
The step of extracting the species classification feature and the individual classification feature,
Extracting a quadrangular area including a nose region from the image aligned by the image aligning unit by the image normalizing unit, and normalizing to a predetermined pixel size;
The nose region image normalized by the image normalization unit is input into three channels of RGB by the vertical division feature vector extraction unit, and is subjected to vertical division by applying inception V2 based DNN using deep learning-based object recognition technology. Extracting a feature vector;
Dividing the nose region image into local square blocks of a predetermined pixel size overlapped by the image segmentation unit;
Converting a single square image by applying an edge enhancement filter by an image conversion unit to each of the local square blocks divided by the image division unit;
Extracting a pattern feature code vector corresponding to an individual classification feature for each of the local square blocks by applying a DNN-based autoencoder to each of the local square blocks by a pattern feature code vector extractor; And
Comprising the steps of: constituting the overall feature by connecting the feature pattern vector obtained for each of the vertical feature vector and the local square block by a feature vector connecting unit; And
Transmitting a feature extracted by the feature extraction unit to an external system together with related information about the animal by a registration/search unit to register as data;
A method of registering data to identify and characterize an individual of an animal, comprising:
청구항 3에 있어서,
상기 종구분특징과 상기 개체구분특징을 추출하는 단계에서, 추출이 이루어지지 않는 경우, 마이컴에 의해, 상기 이미지에 대해서 이미지 손상 및 해상도가 부족한 것으로 판단되면, 상기 이미지촬영부에 의해 이미지를 새로이 획득하도록 안내하고, 상기 이미지의 정렬이 실패하면 상기 이미지정렬부에 의해 상기 이미지에 대한 정렬을 재시도하도록 제어하는, 동물의 개체 식별 및 특정화하기 위해 데이터를 등록하는 방법.
The method according to claim 3,
In the step of extracting the longitudinal classification feature and the individual classification feature, if extraction is not performed, if it is determined by the microcomputer that image damage and resolution are insufficient for the image, a new image is acquired by the image photographing unit And controlling to retry alignment of the image by the image alignment unit when alignment of the image fails.
동물의 코 이미지를 이미지촬영부에 의해 획득 및 상기 동물에 대한 관련 정보를 입력부에 의해 입력하는 단계;
상기 이미지촬영부에 의해 획득한 코 이미지를 코구멍과 윗입술의 오목패인부분을 중심으로 이미지의 크기와 각도를 이미지정렬부에 의해 정렬시키는 단계;
상기 이미지정렬부에 의해 정렬된 이미지로부터 특징추출부에 의해, 콧구멍과 코 외곽라인에 해당하는 종구분특징을 추출하고, 콧구멍 사이와 콧구멍 사이 윗부분의 정해진 부위를 대상으로 점무늬와 그물무늬에 해당하는 개체구분특징을 추출하고,
상기 종구분특징과 상기 개체구분특징을 추출하는 단계는,
상기 이미지정렬부에 의해 정렬된 이미지로부터 이미지정규화부에 의해 코영역을 포함하는 4각형의 영역을 따내고, 정해진 픽셀크기로 정규화하는 단계;
상기 이미지정규화부에 의해 정규화된 코영역 이미지에 대하여, 종구분특징벡터출부에 의해 RGB 3채널로 입력하여 딥러닝기반의 객체 인식 기술을 사용한 인셉션(inception) V2 기반의 DNN을 적용하여 종구분특징 벡터를 추출하는 단계;
상기 코영역 이미지를 이미지분할부에 의해 오버랩된 정해진 픽셀크기의 국부정사각형블록들로 분할하는 단계;
상기 이미지분할부에 의해 분할된 국부정사각형블록 각각에 이미지변환부에 의해 에지강화필터를 적용하여 단일채널이미지로 변환시키는 단계;
상기 국부정사각형블록 각각에 무늬특징코드벡터추출부에 의해 DNN 기반 오토엔코더(Autoencoder)를 적용하여 상기 국부정사각형블록 각각에 대해 개체구분특징에 해당하는 무늬특징코드 벡터를 추출하는 단계; 및
상기 종구분특징벡터와 상기 국부정사각형블록 각각에 대해서 얻어진 무늬특징코드 벡터를 특징벡터연결부에 의해 연결하여 전체 특징을 구성하는 단계;를 포함하는 단계;
상기 특징추출부에 의해 추출된 특징을 등록/검색부에 의해 외부 시스템에 등록된 데이터와 비교하여 해당하는 동물의 관련 정보를 검색하도록 하는 단계; 및
상기 등록/검색부에 의해 검색된 동물의 관련 정보를 디스플레이부를 통해서 디스플레이하도록 하는 단계;
를 포함하는 것을 특징으로 하는 동물의 개체 식별 및 특정화하기 위해 데이터를 검색하는 방법.
Obtaining an animal nose image by an image capturing unit and inputting related information about the animal by an input unit;
Aligning the size and angle of the image with the image alignment unit centering on the nose hole and the concave portion of the upper lip of the nose image obtained by the image photographing unit;
From the image aligned by the image alignment unit, a feature classification unit extracts a vertical division feature corresponding to a nostril and an outline line of the nose, and a dot pattern and a net pattern are targeted to a defined portion of the upper portion between the nostrils and between the nostrils. Extract the individual classification feature corresponding to,
The step of extracting the species classification feature and the individual classification feature,
Extracting a quadrangular area including a nose region from the image aligned by the image aligning unit by the image normalizing unit, and normalizing to a predetermined pixel size;
The nose region image normalized by the image normalization unit is input into three channels of RGB by the vertical division feature vector extraction unit, and is subjected to vertical division by applying inception V2 based DNN using deep learning-based object recognition technology. Extracting a feature vector;
Dividing the nose region image into local square blocks of a predetermined pixel size overlapped by the image segmentation unit;
Converting a single square image by applying an edge enhancement filter by an image conversion unit to each of the local square blocks divided by the image division unit;
Extracting a pattern feature code vector corresponding to an individual classification feature for each of the local square blocks by applying a DNN-based autoencoder to each of the local square blocks by a pattern feature code vector extractor; And
Comprising the steps of: constituting the overall feature by connecting the feature pattern vector obtained for each of the vertical feature vector and the local square block by a feature vector connecting unit;
Comparing the features extracted by the feature extraction unit with data registered in the external system by the registration/search unit to search for relevant information of the corresponding animal; And
Displaying related information of an animal searched by the registration/search unit through a display unit;
A method of retrieving data to identify and characterize an individual of an animal, comprising:
청구항 5에 있어서,
상기 종구분특징과 상기 개체구분특징을 추출하는 단계에서, 추출이 이루어지지 않는 경우, 마이컴에 의해, 상기 이미지에 대해서 이미지 손상 및 해상도가 부족한 것으로 판단되면, 상기 이미지촬영부에 의해 이미지를 새로이 획득하도록 안내하고, 상기 이미지의 정렬이 실패하면 상기 이미지정렬부에 의해 상기 이미지에 대한 정렬을 재시도하도록 제어하는, 동물의 개체 식별 및 특정화하기 위해 데이터를 검색하는 방법.
The method according to claim 5,
In the step of extracting the longitudinal classification feature and the individual classification feature, if extraction is not performed, if it is determined by the microcomputer that image damage and resolution are insufficient for the image, a new image is acquired by the image photographing unit And controlling to retry alignment of the image by the image alignment unit when alignment of the image fails.
KR1020180169171A 2018-12-26 2018-12-26 System and method for detecting and specifiing animal KR102125633B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180169171A KR102125633B1 (en) 2018-12-26 2018-12-26 System and method for detecting and specifiing animal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180169171A KR102125633B1 (en) 2018-12-26 2018-12-26 System and method for detecting and specifiing animal

Publications (1)

Publication Number Publication Date
KR102125633B1 true KR102125633B1 (en) 2020-06-22

Family

ID=71142331

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180169171A KR102125633B1 (en) 2018-12-26 2018-12-26 System and method for detecting and specifiing animal

Country Status (1)

Country Link
KR (1) KR102125633B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022133422A1 (en) * 2020-12-15 2022-06-23 Mars, Incorporated Systems and methods for nose-based pet identification
USD977521S1 (en) 2021-03-11 2023-02-07 Mars, Incorporated Display screen or portion thereof with a graphical user interface
USD977509S1 (en) 2021-03-11 2023-02-07 Mars, Incorporated Display screen or portion thereof with a graphical user interface

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140138103A (en) * 2014-10-31 2014-12-03 주식회사 아이싸이랩 Apparatus of Animal Recognition System using nose patterns
KR20180070057A (en) * 2016-12-16 2018-06-26 주식회사 아렌네 Method and system for matching lost companion animal and found companion animal and computer-readable recording medium having a program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140138103A (en) * 2014-10-31 2014-12-03 주식회사 아이싸이랩 Apparatus of Animal Recognition System using nose patterns
KR20180070057A (en) * 2016-12-16 2018-06-26 주식회사 아렌네 Method and system for matching lost companion animal and found companion animal and computer-readable recording medium having a program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022133422A1 (en) * 2020-12-15 2022-06-23 Mars, Incorporated Systems and methods for nose-based pet identification
USD977521S1 (en) 2021-03-11 2023-02-07 Mars, Incorporated Display screen or portion thereof with a graphical user interface
USD977509S1 (en) 2021-03-11 2023-02-07 Mars, Incorporated Display screen or portion thereof with a graphical user interface

Similar Documents

Publication Publication Date Title
US10719743B2 (en) License plate reader using optical character recognition on plural detected regions
KR101714350B1 (en) Image Recognition Apparatus and Data Registration Method for Image Recognition Apparatus
KR102125633B1 (en) System and method for detecting and specifiing animal
US11651229B2 (en) Methods and systems for face recognition
US10740636B2 (en) Method, system and terminal for identity authentication, and computer readable storage medium
US10691940B2 (en) Method and apparatus for detecting blink
WO2019071664A1 (en) Human face recognition method and apparatus combined with depth information, and storage medium
CN103313018A (en) Registration determination device, control method thereof, and electronic apparatus
CN111860147A (en) Pedestrian re-identification model optimization processing method and device and computer equipment
US11450130B2 (en) Animal identification based on unique nose patterns
JP2019109709A (en) Image processing apparatus, image processing method and program
US10650234B2 (en) Eyeball movement capturing method and device, and storage medium
US9565519B2 (en) Framework and method for tracking lost or stolen electronic device
KR20190093799A (en) Real-time missing person recognition system using cctv and method thereof
KR102325259B1 (en) companion animal life management system and method therefor
JP2010262601A (en) Pattern recognition system and pattern recognition method
CN106056083A (en) Information processing method and terminal
KR101732815B1 (en) Method and apparatus for extracting feature point of entity, system for identifying entity using the method and apparatus
CN110443181A (en) Face identification method and device
CN104217504A (en) Identity recognition self-service terminal and corresponding certificate of house property printing terminal
CN113642639A (en) Living body detection method, living body detection device, living body detection apparatus, and storage medium
CN110874588B (en) Method and device for dynamically optimizing light influence in face recognition
WO2023054782A1 (en) Pet identification authentication system and method
US11847849B2 (en) System and method for companion animal identification based on artificial intelligence
KR102325250B1 (en) companion animal identification system and method therefor

Legal Events

Date Code Title Description
GRNT Written decision to grant