KR102615698B1 - Device for analyzing pupil and iris for iris recognition in cat, analysis method thereof, program - Google Patents

Device for analyzing pupil and iris for iris recognition in cat, analysis method thereof, program Download PDF

Info

Publication number
KR102615698B1
KR102615698B1 KR1020230059121A KR20230059121A KR102615698B1 KR 102615698 B1 KR102615698 B1 KR 102615698B1 KR 1020230059121 A KR1020230059121 A KR 1020230059121A KR 20230059121 A KR20230059121 A KR 20230059121A KR 102615698 B1 KR102615698 B1 KR 102615698B1
Authority
KR
South Korea
Prior art keywords
iris
area
pupil
cat
boundary
Prior art date
Application number
KR1020230059121A
Other languages
Korean (ko)
Inventor
정진성
Original Assignee
주식회사 아이디랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이디랩 filed Critical 주식회사 아이디랩
Priority to KR1020230059121A priority Critical patent/KR102615698B1/en
Application granted granted Critical
Publication of KR102615698B1 publication Critical patent/KR102615698B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/005Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Abstract

본 개시는, 고양이의 동공 및 홍채의 이미지를 촬영하는 카메라와 통신을 수행하는 통신부; 및 고양이의 홍채 인식을 위한 동공 및 홍채의 분석과 관련된 동작을 제어하는 프로세서; 를 포함하고, 프로세서는 통신부를 통해 카메라로부터 촬영된 이미지의 수준이 기 설정된 기준 수준을 만족할 경우, 기준 수준에 만족하는 해당 이미지 내의 마스킹처리된 영역 중 평균 밝기가 가장 어두운 영역에서 에지 맵(Edge Map)을 이용하여 동공의 경계 영역을 판단하고, 경계 영역과 에지 맵을 이용하여 홍채 영역을 판단하며, 홍채 영역에 대한 홍채 데이터를 출력하는 것을 특징으로 할 수 있다.The present disclosure includes a communication unit that communicates with a camera that captures images of the cat's pupil and iris; and a processor that controls operations related to analysis of the pupil and iris for cat iris recognition; It includes, and if the level of the image taken from the camera through the communication unit satisfies the preset standard level, the processor creates an edge map in the area with the darkest average brightness among the masked areas in the image that satisfies the standard level. ) may be used to determine the boundary area of the pupil, the iris area may be determined using the boundary area and the edge map, and iris data for the iris area may be output.

Description

고양이의 홍채 인식을 위한 동공 및 홍채 분석 장치, 그 분석 방법 및 프로그램{DEVICE FOR ANALYZING PUPIL AND IRIS FOR IRIS RECOGNITION IN CAT, ANALYSIS METHOD THEREOF, PROGRAM}Pupil and iris analysis device for cat iris recognition, analysis method and program {DEVICE FOR ANALYZING PUPIL AND IRIS FOR IRIS RECOGNITION IN CAT, ANALYSIS METHOD THEREOF, PROGRAM}

본 개시는 고양이의 홍채 인식을 위한 동공 및 홍채 분석 장치, 그 분석 방법 및 프로그램에 관한 것이다.The present disclosure relates to a pupil and iris analysis device for cat iris recognition, an analysis method, and a program.

홍채는 납작한 도넛 모양의 막으로, 안구의‘각막’과 ‘수정체’ 사이에 위치하며, 홍채 중앙의 동공(Pupil) 사이즈를 조절하여 안구로 들어오는 빛의 양을 결정할 수 있다.The iris is a flat donut-shaped membrane that is located between the ‘cornea’ and the ‘lens’ of the eye. The amount of light entering the eye can be determined by adjusting the size of the pupil in the center of the iris.

홍채 인식은 신체 일부인 홍채에 내재된 본연의 고유한 무늬를 이용하여 각 동물 개체를 식별하는 기술로서, 체내에 이물질을 삽입하거나, 인식표를 착용하는 등의 불편함 없이, 등록된 개체의 신원을 확인할 수 있다. 게다가 홍채인식은 비문, 지문, 정맥 등 다른 생채 인식 기술보다 인식률이 높고, 홍채는 비문, 지문, 등 다른 신체 부위에 비해 손상될 확률도 낮아 생채 인식 기술 중 가장 각광받는 방식으로 꼽힌다.Iris recognition is a technology that identifies each animal by using the unique patterns inherent in the iris, which is a part of the body. You can. In addition, iris recognition has a higher recognition rate than other biometric recognition technologies such as inscriptions, fingerprints, and veins, and the iris is less likely to be damaged than other body parts such as inscriptions, fingerprints, etc., so it is considered the most popular method among biometric recognition technologies.

그러나, 고양이의 홍채 이미지를 획득하는 데에는 어려움이 따른다. 고양이는 사람과 달리 움직임이 많고, 더욱이 홍채를 촬영하는 과정에서 불안감을 느껴 이상 반응을 일으킬 가능성도 크기 때문이다. 특히, 사람이 카메라를 이용하여 수동으로 정확한 고양이의 홍채 이미지를 얻기란 거의 불가능에 가깝다. 따라서, 홍채인식 기술을 고양이에 적용하기 위해서는, 무엇보다도 식별 가능한 수준의 홍채 이미지를 손쉽게 얻을 수 있도록 하는 기술이 요구된다.However, there are difficulties in obtaining an iris image of a cat. This is because, unlike humans, cats move a lot, and there is a high possibility that they will feel anxious and cause abnormal reactions during the process of photographing their iris. In particular, it is nearly impossible for a person to manually obtain an accurate image of a cat's iris using a camera. Therefore, in order to apply iris recognition technology to cats, above all, technology that allows easily obtaining iris images at an identifiable level is required.

대한민국 공개특허공보 10-2019-0088973(2019.07.29.공고)Republic of Korea Patent Publication No. 10-2019-0088973 (announced on July 29, 2019)

본 개시에 개시된 실시예는, 개체 고유의 특징을 식별할 수 있는 수준의 고양이 홍채 이미지를 손쉽게 얻을 수 있도록 함으로써, 고양이의 움직임과 신체 특성에 따른 홍채 인식의 어려움을 극복하고, 정확성 높은 홍채 인식 기술을 고양이 개체 식별에 활용할 수 있다.The embodiment disclosed in the present disclosure overcomes the difficulties of iris recognition according to the cat's movements and body characteristics by easily obtaining a cat iris image at a level that can identify the unique characteristics of the individual, and provides a high-accuracy iris recognition technology. can be used to identify individual cats.

본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present disclosure are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below.

상술한 기술적 과제를 달성하기 위한 본 개시의 일 측면에 따른 고양이의 홍채 인식을 위한 동공 및 홍채 분석 장치는, 고양이의 동공 및 홍채의 이미지를 촬영하는 카메라와 통신을 수행하는 통신부; 및 상기 고양이의 홍채 인식을 위한 동공 및 홍채의 분석과 관련된 동작을 제어하는 프로세서; 를 포함하고, 상기 프로세서는, 상기 통신부를 통해 상기 카메라로부터 촬영된 이미지의 수준이 기 설정된 기준 수준을 만족할 경우, 상기 기준 수준에 만족하는 해당 이미지 내의 마스킹처리된 영역 중 평균 밝기가 가장 어두운 영역에서 에지 맵(Edge Map)을 이용하여 동공의 경계 영역을 판단하고, 상기 경계 영역과 상기 에지 맵을 이용하여 홍채 영역을 판단하며, 상기 홍채 영역에 대한 홍채 데이터를 출력하는 것을 특징으로 할 수 있다.A pupil and iris analysis device for iris recognition of a cat according to an aspect of the present disclosure for achieving the above-described technical problem includes: a communication unit that communicates with a camera that captures images of the cat's pupil and iris; and a processor that controls operations related to analysis of the pupil and iris for iris recognition of the cat. It includes, and the processor, when the level of the image captured from the camera through the communication unit satisfies a preset standard level, in the area with the darkest average brightness among the masked areas in the image that satisfies the standard level. It may be characterized by determining the boundary area of the pupil using an edge map, determining the iris area using the boundary area and the edge map, and outputting iris data for the iris area.

또한, 상기 프로세서는, 상기 경계 영역을 일정 크기로 자른 후에, 상기 경계 영역 내의 글린트(Glint)를 더 제거하는 것을 특징으로 할 수 있다.Additionally, the processor may further remove glint within the border area after cutting the border area to a certain size.

또한, 상기 프로세서는, 상기 가장 어두운 영역의 가장 어두운 픽셀을 중심으로 1도씩 회전하면서, 360도 전체 회전하는 동안, 상기 경계 영역을 판단하기 위한 경계 에지(edge)의 수준이 기 설정된 강한 경계 에지의 수준을 만족할 경우, 상기 강한 경계 에지의 수준에 만족하는 해당 동공의 경계의 점들을 연결하여 상기 경계 영역을 판단하는 것을 특징으로 할 수 있다.In addition, the processor rotates by 1 degree around the darkest pixel of the darkest area, and while rotating the entire 360 degrees, the level of the border edge for determining the border area is a preset strong border edge. When the level is satisfied, the boundary area may be determined by connecting the boundary points of the pupil that satisfies the level of the strong boundary edge.

또한, 상기 프로세서는, 상기 경계 영역의 무게 중심 좌표를 기반으로 상기 동공의 중심 좌표를 더 산출하는 것을 특징으로 할 수 있다.Additionally, the processor may further calculate the center coordinates of the pupil based on the center of gravity coordinates of the boundary area.

또한, 상기 프로세서는, 상기 동공의 중심 좌표와 상기 에지 맵을 이용하여 홍채 영역을 판단할 때에, 상기 홍채 영역을 판단하기 위한 홍채 에지(edge)의 수준이 기 설정된 강한 홍채 에지의 수준을 만족하는지를 판단하는 것을 특징으로 할 수 있다.In addition, when determining the iris area using the pupil center coordinates and the edge map, the processor determines whether the level of the iris edge for determining the iris area satisfies a preset strong iris edge level. It can be characterized by judgment.

또한, 본 개시의 다른 측면에 따른 분석 장치에 의해 수행되는 고양이의 홍채 인식을 위한 동공 및 홍채 분석 방법은, 상기 분석 장치의 통신부를 통해, 카메라로부터 촬영된 고양이의 동공 및 홍채의 이미지의 수준이 기 설정된 기준 수준을 만족할 경우, 상기 기준 수준에 만족하는 해당 이미지를 수신받는 단계; 상기 분석 장치의 프로세서를 통해, 상기 해당 이미지 내의 마스킹처리된 영역 중 평균 밝기가 가장 어두운 영역에서 에지 맵(Edge Map)을 이용하여 동공의 경계 영역을 판단하는 단계; 상기 프로세서를 통해, 상기 경계 영역과 상기 에지 맵을 이용하여 홍채 영역을 판단하는 단계; 및 상기 프로세서를 통해, 상기 홍채 영역에 대한 홍채 데이터를 출력하는 단계; 를 포함할 수 있다.In addition, the pupil and iris analysis method for iris recognition of a cat performed by an analysis device according to another aspect of the present disclosure includes the level of the image of the cat's pupil and iris captured from a camera through a communication unit of the analysis device. If a preset standard level is satisfied, receiving a corresponding image that satisfies the standard level; determining, through the processor of the analysis device, a boundary area of the pupil using an edge map in an area with the darkest average brightness among the masked areas in the corresponding image; determining, through the processor, an iris area using the border area and the edge map; and outputting iris data for the iris area through the processor. may include.

또한, 상기 경계 영역을 판단하는 단계는, 상기 프로세서를 통해, 상기 경계 영역을 일정 크기로 자른 후에, 상기 경계 영역 내의 글린트(Glint)를 제거하는 것을 특징으로 할 수 있다.Additionally, the step of determining the border area may be characterized by cutting the border area to a certain size through the processor and then removing glint within the border area.

또한, 상기 경계 영역을 판단하는 단계는, 상기 프로세서를 통해, 상기 가장 어두운 영역의 가장 어두운 픽셀을 중심으로 1도씩 회전하면서, 360도 전체 회전하는 동안, 상기 경계 영역을 판단하기 위한 경계 에지(edge)의 수준이 기 설정된 강한 경계 에지의 수준을 만족할 경우, 상기 강한 경계 에지의 수준에 만족하는 해당 동공의 경계의 점들을 연결하여 상기 경계 영역을 판단하는 것을 특징으로 할 수 있다.In addition, the step of determining the border area includes rotating the darkest pixel of the darkest area by 1 degree through the processor, while rotating the entire 360 degrees, using a border edge for determining the border area. ), the boundary area may be determined by connecting the boundary points of the pupil that satisfy the level of the strong boundary edge.

또한, 상기 경계 영역을 판단하는 단계는, 상기 프로세서를 통해, 상기 경계 영역의 무게 중심 좌표를 기반으로 상기 동공의 중심 좌표를 더 산출하는 것을 특징으로 할 수 있다.Additionally, the step of determining the boundary area may further include calculating the center coordinates of the pupil based on the center of gravity coordinates of the boundary area through the processor.

또한, 상기 홍채 영역을 판단하는 단계는, 상기 프로세서를 통해, 상기 동공의 중심 좌표와 상기 에지 맵을 이용하여 홍채 영역을 판단할 때에, 상기 홍채 영역을 판단하기 위한 홍채 에지(edge)의 수준이 기 설정된 강한 홍채 에지의 수준을 만족하는지를 판단하는 것을 특징으로 할 수 있다.In addition, the step of determining the iris area includes, when determining the iris area using the center coordinates of the pupil and the edge map through the processor, the level of the iris edge for determining the iris area is It may be characterized by determining whether a preset level of strong iris edge is satisfied.

이 외에도, 하드웨어인 컴퓨터와 결합되어, 고양이의 홍채 인식을 위한 동공 및 홍채 분석 방법을 수행하기 위해, 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 더 제공될 수 있다.In addition, a computer program stored in a computer-readable recording medium may be further provided in combination with a hardware computer to perform a pupil and iris analysis method for iris recognition of a cat.

이 외에도, 본 개시를 구현하기 위한 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition, a computer-readable recording medium recording a computer program for executing a method for implementing the present disclosure may be further provided.

본 개시의 전술한 과제 해결 수단에 의하면, 개체 고유의 특징을 식별할 수 있는 수준의 고양이 홍채 이미지를 손쉽게 얻을 수 있도록 함으로써, 고양이의 움직임과 신체 특성에 따른 홍채 인식의 어려움을 극복하고, 정확성 높은 홍채 인식 기술을 고양이 개체 식별에 활용할 수 있는 효과를 제공한다.According to the means for solving the above-described problem of the present disclosure, it is possible to easily obtain a cat iris image at a level that can identify the unique characteristics of the individual, thereby overcoming the difficulties of iris recognition according to the cat's movement and body characteristics and providing high accuracy. It provides the effect of using iris recognition technology to identify individual cats.

본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the description below.

도 1은 본 개시에 따른 고양이의 홍채 인식을 위한 동공 및 홍채 분석 시스템을 일 예로 나타낸 도면이다.
도 2는 도 1의 분석 장치의 구성을 도시한다.
도 3은 본 개시에 따른 고양이의 홍채 인식을 위한 동공 및 홍채 분석 방법을 나타낸 순서도이다.
도 4는 도 3의 동공의 경계 영역 판단 단계를 세부적으로 나타낸 순서도이다.
도 5 내지 도 9는 도 4의 동공의 경계 영역 판단 단계를 통해 동공의 경계 영역을 판단하는 세부적인 과정을 일 예로 나타낸 도면들이다.
도 10은 도 3의 홍채 영역 판단 단계를 세부적으로 나타낸 순서도이다.
도 11 내지 도 13은 도 3의 홍채 영역 판단 단계를 통해 홍채 영역을 판단하는 세부적인 과정을 일 예로 나타낸 도면들이다.
도 14는 도 3의 홍채 데이터 출력 단계를 세부적으로 나타낸 순서도이다.
1 is a diagram illustrating an example of a pupil and iris analysis system for iris recognition of a cat according to the present disclosure.
Figure 2 shows the configuration of the analysis device of Figure 1.
Figure 3 is a flowchart showing a pupil and iris analysis method for cat iris recognition according to the present disclosure.
Figure 4 is a flowchart showing in detail the step of determining the boundary area of the pupil in Figure 3.
FIGS. 5 to 9 are diagrams illustrating a detailed process of determining the boundary area of a pupil through the boundary area determination step of the pupil in FIG. 4 as an example.
FIG. 10 is a flowchart showing the iris area determination step of FIG. 3 in detail.
FIGS. 11 to 13 are diagrams illustrating a detailed process of determining the iris area through the iris area determination step of FIG. 3 as an example.
FIG. 14 is a flowchart showing the iris data output step of FIG. 3 in detail.

본 개시 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 개시가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 개시가 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는'부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.Like reference numerals refer to like elements throughout this disclosure. The present disclosure does not describe all elements of the embodiments, and general content or overlapping content between the embodiments in the technical field to which the present disclosure pertains is omitted. The term 'part, module, member, block' used in the specification may be implemented as software or hardware, and depending on the embodiment, a plurality of 'part, module, member, block' may be implemented as a single component, or It is also possible for one 'part, module, member, or block' to include multiple components.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout the specification, when a part is said to be “connected” to another part, this includes not only direct connection but also indirect connection, and indirect connection includes connection through a wireless communication network. do.

또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Additionally, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.

명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the specification, when a member is said to be located “on” another member, this includes not only cases where a member is in contact with another member, but also cases where another member exists between the two members.

제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.Terms such as first and second are used to distinguish one component from another component, and the components are not limited by the above-mentioned terms.

단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly makes an exception.

각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.The identification code for each step is used for convenience of explanation. The identification code does not explain the order of each step, and each step may be performed differently from the specified order unless a specific order is clearly stated in the context. there is.

이하 첨부된 도면들을 참고하여 본 개시의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the operating principle and embodiments of the present disclosure will be described with reference to the attached drawings.

본 명세서에서 본 개시에 따른 분석 장치는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 본 개시에 따른 분석 장치는, 컴퓨터, 서버 장치 및 휴대용 단말기를 모두 포함하거나, 또는 어느 하나의 형태가 될 수 있다.In this specification, the analysis device according to the present disclosure includes all various devices that can perform computational processing and provide results to the user. For example, the analysis device according to the present disclosure may include all of a computer, a server device, and a portable terminal, or may take the form of any one.

여기에서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함할 수 있다.Here, the computer may include, for example, a laptop equipped with a web browser, a desktop, a laptop, a tablet PC, a slate PC, etc.

서버 장치는 외부 장치와 통신을 수행하여 정보를 처리하는 서버로써, 애플리케이션 서버, 컴퓨팅 서버, 데이터베이스 서버, 파일 서버, 메일 서버, 프록시 서버 및 웹 서버 등을 포함할 수 있다.A server device is a server that processes information by communicating with external devices and may include an application server, computing server, database server, file server, mail server, proxy server, and web server.

휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치를 포함할 수 있다.Portable terminals are, for example, wireless communication devices that ensure portability and mobility, such as PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), and PDA ( Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), WiBro (Wireless Broadband Internet) terminal, smart phone All types of handheld wireless communication devices, such as watches, rings, bracelets, anklets, necklaces, glasses, contact lenses, or head-mounted-device (HMD), etc. It can be included.

본 개시에 따른 고양이의 홍채 인식을 위한 동공 및 홍채 분석 시스템은, 카메라로부터 촬영된 이미지의 수준이 기 설정된 기준 수준을 만족할 경우, 기준 수준에 만족하는 해당 이미지 내의 마스킹처리된 영역 중 평균 밝기가 가장 어두운 영역에서 에지 맵(Edge Map)을 이용하여 동공의 경계 영역을 판단하고, 경계 영역과 에지 맵을 이용하여 홍채 영역을 판단하며, 홍채 영역에 대한 홍채 데이터를 출력하도록 제공될 수 있다.In the pupil and iris analysis system for cat iris recognition according to the present disclosure, when the level of the image captured from the camera satisfies a preset standard level, the average brightness is the highest among the masked areas in the image that satisfies the standard level. In a dark area, the boundary area of the pupil may be determined using an edge map, the iris area may be determined using the boundary area and the edge map, and iris data for the iris area may be output.

이러한, 본 개시에 따른 고양이의 홍채 인식을 위한 동공 및 홍채 분석 시스템은, 개체 고유의 특징을 식별할 수 있는 수준의 고양이 홍채 이미지를 손쉽게 얻을 수 있도록 함으로써, 고양이의 움직임과 신체 특성에 따른 홍채 인식의 어려움을 극복하고, 정확성 높은 홍채 인식 기술을 고양이 개체 식별에 활용할 수 있도록 제공해줄 수 있다.The pupil and iris analysis system for cat iris recognition according to the present disclosure enables easy acquisition of cat iris images at a level that can identify unique characteristics of the individual, thereby recognizing the iris according to the cat's movements and body characteristics. It can overcome the difficulties and provide highly accurate iris recognition technology that can be used to identify individual cats.

이하에서는, 본 개시에 따른 고양이의 홍채 인식을 위한 동공 및 홍채 분석 시스템을 자세하게 살펴보기로 한다.Below, we will look in detail at the pupil and iris analysis system for cat iris recognition according to the present disclosure.

도 1은 본 개시에 따른 고양이의 홍채 인식을 위한 동공 및 홍채 분석 시스템을 일 예로 나타낸 도면이다. 도 2는 도 1의 분석 장치의 구성을 도시한다.1 is a diagram illustrating an example of a pupil and iris analysis system for iris recognition of a cat according to the present disclosure. Figure 2 shows the configuration of the analysis device of Figure 1.

도 1 및 도 2를 참조하면, 시스템(1000)은 카메라(100)와 분석 장치(200)를 포함할 수 있다.Referring to FIGS. 1 and 2 , system 1000 may include a camera 100 and an analysis device 200.

카메라(100)는 고양이의 동공 및 홍채의 선명한 이미지를 획득하여 분석 장치(200)로 전송할 수 있다. 여기에서, 카메라(100)는 획득된 이미지의 수준이 기 설정된 기준 수준을 만족하면, 기준 수준에 만족하는 해당 이미지를 선명한 이미지로 판단할 수 있다. 이때, 카메라(100)는 적외선 카메라일 수 있다.The camera 100 may obtain a clear image of the cat's pupil and iris and transmit it to the analysis device 200. Here, if the level of the acquired image satisfies a preset standard level, the camera 100 may determine that the image satisfying the standard level is a clear image. At this time, the camera 100 may be an infrared camera.

분석 장치(200)는 고양이의 홍채 인식을 위한 동공 및 홍채를 분석할 수 있다. 여기에서, 분석 장치(200)는 홍채 영역에 대한 홍채 데이터를 출력할 수 있다. 이때, 분석 장치(200)는 통신부(210) 및 제어부(220)를 포함할 수 있다.The analysis device 200 can analyze the pupil and iris for iris recognition of a cat. Here, the analysis device 200 may output iris data for the iris area. At this time, the analysis device 200 may include a communication unit 210 and a control unit 220.

통신부(210)는 고양이의 동공 및 홍채의 이미지를 촬영하는 카메라(100)와 통신을 수행할 수 있다. 통신부(210)는 카메라(100)로부터 획득된 고양이의 동공 및 홍채의 선명한 이미지의 영상을 수신받을 수 있다. 통신부(210)는 유선 통신 모듈과 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.The communication unit 210 may communicate with the camera 100 that captures images of the cat's pupil and iris. The communication unit 210 may receive a clear image of the cat's pupil and iris obtained from the camera 100. The communication unit 210 may include at least one of a wired communication module and a wireless communication module.

유선 통신 모듈은 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다.Wired communication modules include various wired communication modules such as Local Area Network (LAN) modules, Wide Area Network (WAN) modules, or Value Added Network (VAN) modules, as well as USB (Universal Serial Bus) modules. , may include various cable communication modules such as High Definition Multimedia Interface (HDMI), Digital Visual Interface (DVI), recommended standard 232 (RS-232), power line communication, or plain old telephone service (POTS).

무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution), 4G, 5G, 6G 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.In addition to Wi-Fi modules and WiBro (Wireless broadband) modules, wireless communication modules include GSM (global System for Mobile Communication), CDMA (Code Division Multiple Access), WCDMA (Wideband Code Division Multiple Access), and UMTS (universal mobile telecommunications system). ), TDMA (Time Division Multiple Access), LTE (Long Term Evolution), 4G, 5G, 6G, etc. may include a wireless communication module that supports various wireless communication methods.

제어부(220)는 메모리(221)와 프로세서(222)를 포함할 수 있다.The control unit 220 may include a memory 221 and a processor 222.

메모리(221)는 본 장치 내의 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장할 수 있다. 프로세서(222)는 메모리(221)에 저장된 데이터를 이용하여 전술한 동작을 수행할 수 있다. 여기에서, 메모리(221)와 프로세서(222)는 각각 별개의 칩으로 구현될 수 있다. 또한, 메모리(221)와 프로세서(222)는 단일 칩으로 구현될 수도 있다.The memory 221 may store data about an algorithm for controlling the operation of components within the device or a program that reproduces the algorithm. The processor 222 may perform the above-described operations using data stored in the memory 221. Here, the memory 221 and the processor 222 may each be implemented as separate chips. Additionally, the memory 221 and processor 222 may be implemented as a single chip.

메모리(221)는 본 장치의 다양한 기능을 지원하는 데이터와, 본 장치 내의 구성요소들의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들을 저장할 있고, 본 장치에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 본 장치의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다.The memory 221 can store data supporting various functions of the device, programs for operating components within the device, can store input/output data, and can store a plurality of application programs running on the device ( application program or application), data for operation of the device, and commands can be stored. At least some of these applications may be downloaded from an external server via wireless communication.

이러한, 메모리(221)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 221 may be a flash memory type, a hard disk type, a solid state disk type, an SDD type (Silicon Disk Drive type), or a multimedia card micro type. micro type), card type memory (e.g. SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), EEPROM (electrically erasable) It may include at least one type of storage medium among programmable read-only memory (PROM), programmable read-only memory (PROM), magnetic memory, magnetic disk, and optical disk.

메모리(221)는 고양이의 동공 및 홍채의 이미지(P1, P2, P3, …)을 저장할 수 있다. 메모리(221)는 고양이의 홍채 인식을 위한 동공 및 홍채의 분석과 관련된 데이터를 저장할 수 있다.The memory 221 may store images (P1, P2, P3, ...) of the cat's pupil and iris. The memory 221 may store data related to analysis of the pupil and iris for cat iris recognition.

프로세서(222)는 고양이의 홍채 인식을 위한 동공 및 홍채의 분석과 관련된 동작을 제어할 수 있다. 프로세서(222)는 통신부(210)를 통해 카메라(100)로부터 고양이의 동공 및 홍채의 이미지(P1, P2, P3, …)를 수신받을 수 있다.The processor 222 may control operations related to analysis of the pupil and iris for cat iris recognition. The processor 222 may receive images (P1, P2, P3, ...) of the cat's pupil and iris from the camera 100 through the communication unit 210.

프로세서(222)는 카메라(100)로부터 촬영된 고양이의 동공 및 홍채의 이미지의 수준이 기 설정된 선명한 이미지에 해당하는 기준 수준을 만족할 경우, 기준 수준에 만족하는 고양이의 동공 및 홍채의 선명한 이미지 내의 마스킹처리된 영역 중 평균 밝기가 가장 어두운 영역에서 에지 맵(Edge Map)을 이용하여 동공의 경계 영역을 판단할 수 있다. 여기에서, 프로세서(222)는 경계 영역을 일정 크기로 자른 후에, 경계 영역 내의 글린트(Glint)를 더 제거할 수도 있다. 또한, 프로세서(222)는 가장 어두운 영역의 가장 어두운 픽셀을 중심으로 1도씩 회전하면서, 360도 전체 회전하는 동안, 경계 영역을 판단하기 위한 경계 에지(edge)의 수준이 기 설정된 강한 경계 에지의 수준을 만족할 경우, 강한 경계 에지의 수준에 만족하는 해당 동공의 경계의 점들을 연결하여 경계 영역을 판단할 수도 있다. 또한, 프로세서(222)는 경계 영역의 무게 중심 좌표를 기반으로 동공의 중심 좌표를 더 산출할 수도 있다.If the level of the image of the cat's pupil and iris captured by the camera 100 satisfies the standard level corresponding to a preset clear image, the processor 222 performs masking within the clear image of the cat's pupil and iris that satisfies the standard level. The boundary area of the pupil can be determined using an edge map in the area with the darkest average brightness among the processed areas. Here, the processor 222 may cut the border area to a certain size and then further remove glint within the border area. In addition, the processor 222 rotates by 1 degree around the darkest pixel of the darkest area, and while rotating 360 degrees, the level of the border edge for determining the border area is set to the level of the preset strong border edge. If is satisfied, the border area can be determined by connecting the border points of the pupil that satisfies the level of a strong border edge. Additionally, the processor 222 may further calculate the center coordinates of the pupil based on the center of gravity coordinates of the border area.

프로세서(222)는 경계 영역과 에지 맵을 이용하여 홍채 영역을 판단하며, 홍채 영역에 대한 홍채 데이터를 출력할 수 있다. 여기에서, 프로세서(222)는 동공의 중심 좌표와 에지 맵을 이용하여 홍채 영역을 판단할 때에, 홍채 영역을 판단하기 위한 홍채 에지(edge)의 수준이 기 설정된 강한 홍채 에지의 수준을 만족하는지를 판단할 수도 있다.The processor 222 may determine the iris area using the boundary area and the edge map and output iris data for the iris area. Here, when the processor 222 determines the iris area using the pupil's center coordinates and the edge map, it determines whether the level of the iris edge for determining the iris area satisfies the preset strong iris edge level. You may.

도 3은 본 개시에 따른 고양이의 홍채 인식을 위한 동공 및 홍채 분석 방법을 나타낸 순서도이다. Figure 3 is a flowchart showing a pupil and iris analysis method for cat iris recognition according to the present disclosure.

도 3을 참조하면, 고양이의 홍채 인식을 위한 동공 및 홍채 분석 방법은, 수신 단계(S320), 경계 영역 판단 단계(S340), 홍채 영역 판단 단계(S360), 홍채 데이터 출력 단계(S380)를 포함할 수 있다.Referring to Figure 3, the pupil and iris analysis method for cat iris recognition includes a reception step (S320), a border area determination step (S340), an iris area determination step (S360), and an iris data output step (S380). can do.

수신 단계는, 통신부(210)를 통해, 카메라(100)로부터 촬영된 고양이의 동공 및 홍채의 이미지의 수준이 기 설정된 선명한 이미지에 해당하는 기준 수준을 만족할 경우, 기준 수준에 만족하는 해당 고양이의 동공 및 홍채의 선명한 이미지를 수신받을 수 있다(S320).In the receiving step, when the level of the image of the cat's pupil and iris captured from the camera 100 through the communication unit 210 satisfies the standard level corresponding to a preset clear image, the cat's pupil satisfying the standard level And a clear image of the iris can be received (S320).

이때, 프로세서(222)는 해당 고양이의 동공 및 홍채의 선명한 이미지인지를 라플라시안 방식 기반의 이미지 품질 알고리즘을 이용하여 판단할 수도 있고, 해당 고양이의 동공 및 홍채의 선명한 이미지를 GrayScale로 변환할 수도 있다. 또한, 프로세서(222)는 하기 [수학식 1]의 Gaussian Blur를 기반으로, GrayScale로 변환된 이미지 내의 노이즈를 제거할 수도 있다.At this time, the processor 222 may determine whether the cat's pupil and iris are a clear image using an image quality algorithm based on the Laplacian method, and may convert the clear image of the cat's pupil and iris into GrayScale. Additionally, the processor 222 may remove noise in an image converted to GrayScale based on the Gaussian Blur of Equation 1 below.

[수학식 1][Equation 1]

경계 영역 판단 단계는, 프로세서(222)를 통해, 해당 고양이의 동공 및 홍채의 이미지 내에 마스킹처리된 영역 중 평균 밝기가 가장 어두운 영역에서 에지 맵(Edge Map)을 이용하여 동공의 경계 영역을 판단할 수 있다(S340). In the boundary area determination step, the processor 222 determines the boundary area of the pupil using an edge map in the area with the darkest average brightness among the masked areas in the image of the cat's pupil and iris. (S340).

도 4는 도 3의 동공의 경계 영역 판단 단계를 세부적으로 나타낸 순서도이다. 도 5 내지 도 9는 도 4의 동공의 경계 영역 판단 단계를 통해 동공의 경계 영역을 판단하는 세부적인 과정을 일 예로 나타낸 도면들이다.Figure 4 is a flowchart showing in detail the step of determining the boundary area of the pupil in Figure 3. FIGS. 5 to 9 are diagrams illustrating a detailed process of determining the boundary area of a pupil through the boundary area determination step of the pupil in FIG. 4 as an example.

도 4 내지 도 9를 참조하면, 경계 영역 판단 단계(S340)는 제1 단계(S341), 제2 단계(S343), 제3 단계(S345), 제4 단계(S347), 제5 단계(S349)를 포함할 수 있다.4 to 9, the boundary area determination step (S340) includes the first step (S341), the second step (S343), the third step (S345), the fourth step (S347), and the fifth step (S349). ) may include.

제1 단계는, 프로세서(222)를 통해, 도 5에 도시된 바와 같이 해당 고양이의 동공 및 홍채의 이미지(I) 내에 마스킹처리된 영역(D) 중 마스크의 평균 밝기가 가장 어두운 영역(D1)을 찾을 수 있다(S341). 예를 들어, 프로세서(222)는 K사이즈의 마스크를 이용하여 마스크의 평균 밝기가 가장 어두운 영역(D1)을 찾을 수 있다. 이는 동공의 일부분이다.In the first step, the processor 222 selects a region (D1) with the darkest average brightness of the mask among the masked regions (D) in the image (I) of the cat's pupil and iris, as shown in FIG. 5. can be found (S341). For example, the processor 222 can use a K-sized mask to find the area D1 with the darkest average brightness of the mask. This is part of the pupil.

제2 단계는, 프로세서(222)를 통해, 도 6에 도시된 바와 같이 해당 고양이의 동공 및 홍채의 이미지(I)에 대해 Histogram Equalization을 이용하여 이미지(I)의 밝기를 0 ~ 255 영역에 골고루 분포하도록 조정할 수 있다(S343).In the second step, the processor 222 uses Histogram Equalization for the image (I) of the pupil and iris of the cat to evenly distribute the brightness of the image (I) in the range of 0 to 255, as shown in FIG. It can be adjusted to be distributed (S343).

제3 단계는, 프로세서(222)를 통해, 도 7에 도시된 바와 같이 경계 영역(D2)을 일정 크기로 자른 후에, 경계 영역(D2) 내의 글린트(Glint, G)를 제거할 수 있다(S345). 예를 들어, 프로세서(222)는 글린트 제거 알고리즘을 이용하여 Glint(동공에 반사된 LED 그림자)를 제거할 수 있다. 이는 동공의 경계를 가린다.In the third step, the border area D2 is cut to a certain size as shown in FIG. 7 through the processor 222, and then the glint (G) in the border area D2 can be removed ( S345). For example, the processor 222 may remove glint (LED shadow reflected in the pupil) using a glint removal algorithm. This obscures the border of the pupil.

제4 단계는, 프로세서(222)를 통해, 도 8에 도시된 바와 같이 가장 어두운 영역의 가장 어두운 픽셀(DP)을 중심으로 1도씩 회전하면서, 360도 전체 회전하는 동안, 경계 영역을 판단하기 위한 경계 에지(edge)의 수준이 기 설정된 강한 경계 에지의 수준을 만족할 경우, 강한 경계 에지의 수준에 만족하는 해당 동공의 경계의 점들(BP1, BP2, BP3, …, BPn)을 연결하여 동공의 경계를 생성할 수 있다(S347). 여기에서, 프로세서(222)는 Sobel operator를 이용하여 에지 맵(Edge map) 기반의 하기 [행렬식 1]을 생성할 수 있다. 이때, 프로세서(222)는 하기 [행렬식 1]을 기반으로 경계 영역을 판단할 수 있다.In the fourth step, the processor 222 rotates the darkest pixel (DP) of the darkest area by 1 degree, as shown in FIG. 8, to determine the boundary area while rotating the entire 360 degrees. If the level of the boundary edge satisfies the preset level of a strong boundary edge, the boundary points of the pupil (BP1, BP2, BP3, ..., BPn) that satisfy the level of the strong boundary edge are connected to establish the boundary of the pupil. can be created (S347). Here, the processor 222 can generate the following [Determinant 1] based on an edge map using the Sobel operator. At this time, the processor 222 may determine the boundary area based on [Determinant 1] below.

[행렬식 1][Determinant 1]

제5 단계는, 프로세서(222)를 통해, 도 9에 도시된 바와 같이 경계 영역(D2)의 무게 중심 좌표(G1, G2)를 기반으로 동공의 중심 좌표(G3)를 더 산출할 수 있다(S349). 예를 들어, 동공의 중심 좌표(G3)는 제1 무게 중심 좌표(G1) 및 제2 무게 중심 좌표(G2)와 서로 절반이 되는 거리에서의 위치 좌표일 수 있다.In the fifth step, the center coordinates (G3) of the pupil may be further calculated through the processor 222 based on the center of gravity coordinates (G1, G2) of the border area (D2) as shown in FIG. 9 ( S349). For example, the center coordinate of the pupil (G3) may be a position coordinate at a distance that is half of the first center of gravity coordinate (G1) and the second center of gravity coordinate (G2).

홍채 영역 판단 단계는, 프로세서(222)를 통해, 경계 영역(D2)과 에지 맵을 이용하여 홍채 영역을 판단할 수 있다(S360). In the iris area determination step, the processor 222 may determine the iris area using the border area D2 and the edge map (S360).

도 10은 도 3의 홍채 영역 판단 단계를 세부적으로 나타낸 순서도이다. 도 11 내지 도 13은 도 3의 홍채 영역 판단 단계를 통해 홍채 영역을 판단하는 세부적인 과정을 일 예로 나타낸 도면들이다.FIG. 10 is a flowchart showing the iris area determination step of FIG. 3 in detail. FIGS. 11 to 13 are diagrams illustrating a detailed process of determining the iris area through the iris area determination step of FIG. 3 as an example.

도 10 내지 도 13을 참조하면, 홍채 영역 판단 단계(S360)는 제6 단계(S361)와 제7 단계(S363)를 포함할 수 있다.Referring to FIGS. 10 to 13 , the iris area determination step (S360) may include a sixth step (S361) and a seventh step (S363).

제6 단계는, 프로세서(222)를 통해, 도 11에 도시된 바와 같이 동공의 중심 좌표(G3)와 에지 맵(M)을 이용하여 홍채 영역(D3)을 판단할 때에, 홍채 영역(D3)을 판단하기 위한 홍채 에지(edge)의 수준이 기 설정된 강한 홍채 에지의 수준을 만족하는지를 판단할 수 있다(S361). 이때, 프로세서(222)는 홍채 에지(edge)의 수준이 기 설정된 강한 홍채 에지의 수준을 만족하면, 동공의 중심 좌표(G3)를 기준으로 에지 맵(M)에서 가장 강한 홍채 에지를 찾을 수 있다. 여기에서, 가장 강한 홍채 에지는 눈꺼풀의 영역(D4)을 포함할 수 있다. 이때, 프로세서(222)는 고양이가 공막이 없기 때문에 눈꺼풀의 영역(D4)을 검출할 수 있다.In the sixth step, when the processor 222 determines the iris area D3 using the pupil center coordinates G3 and the edge map M as shown in FIG. 11, the iris area D3 It can be determined whether the level of the iris edge for determining satisfies the preset level of a strong iris edge (S361). At this time, if the level of the iris edge satisfies the preset level of the strong iris edge, the processor 222 can find the strongest iris edge in the edge map (M) based on the coordinates of the center of the pupil (G3). . Here, the strongest iris edge may include the area of the eyelid (D4). At this time, the processor 222 can detect the eyelid area D4 because the cat does not have a sclera.

또한, 도 12에 도시된 바와 같이, 프로세서(222)는 홍채 영역(D3) 내의 홍채 양끝 길이(L)의 절반(L /2)을 반지름(R)으로 결정할 수 있다. 이때, 프로세서(222)는 절반(L /2)에 상응하는 지점을 홍채의 중심 좌표(C2)로 결정할 수 있다.Additionally, as shown in FIG. 12 , the processor 222 may determine half (L /2) of the length (L) of both ends of the iris within the iris area (D3) as the radius (R). At this time, the processor 222 may determine the point corresponding to half (L /2) as the center coordinate (C2) of the iris.

여기에서, 프로세서(222)는 동공의 중심 좌표(C1)에서 홍채의 중심 좌표(C2)로 시프팅된 지점과 반지름(R)을 기반으로, 원(circle)을 생성할 수 있다. 이때, 프로세서(222)는 생성된 원의 영역(CA) 내의 홍채의 영역(D3)과 눈꺼풀의 영역(D4)을 기반으로, 경계(B)를 찾을 수 있다. 예를 들어, 프로세서(222)는 홍채의 중심 좌표(C2)와 동공의 중심 좌표(C1)간의 거리값이 기 설정된 기준 거리값이고, 원의 영역(CA) 범위 내에 홍채의 영역(D3)과 눈꺼풀의 영역(D4)이 위치할 경우, 경계(B)로 판단할 수 있다. 다른 예를 들어, 프로세서(222)는 홍채의 영역(D3)과 눈꺼풀의 영역(D4)간의 밝기의 차이값이 기 설정된 기준 차이값 이상일 경우, 경계(B)로 판단할 수 있다. 이러한, 프로세서(222)는 움직임이 많은 고양이의 홍채를 정확하게 인식하기 위해, 홍채의 영역(D3), 눈꺼풀의 영역(D4), 경계(B)를 더욱 효율적으로 구분할 수 있다.Here, the processor 222 may generate a circle based on the point and radius (R) shifted from the pupil's center coordinates (C1) to the iris's center coordinates (C2). At this time, the processor 222 may find the boundary B based on the iris area D3 and the eyelid area D4 within the generated circular area CA. For example, the processor 222 determines that the distance value between the center coordinates of the iris (C2) and the center coordinates of the pupil (C1) is a preset reference distance value, and the iris area (D3) within the range of the circle area (CA). When the eyelid area (D4) is located, it can be judged as the border (B). For another example, the processor 222 may determine the brightness difference between the iris area D3 and the eyelid area D4 to be boundary B if it is greater than or equal to a preset reference difference value. In order to accurately recognize the iris of a cat that moves a lot, the processor 222 can more efficiently distinguish between the iris area (D3), the eyelid area (D4), and the border (B).

제7 단계는, 프로세서(222)를 통해, 도 13에 도시된 바와 같이 linearPolar를 이용하여 홍채 영역(D3)을 직사각형 형태(T)로 펼칠 수 있다(S363). 이때, D4는 눈꺼풀의 영역일 수 있고, RD는 홍채 영역(D3)에 대한 홍채 데이터일 수 있다.In the seventh step, the processor 222 can expand the iris area D3 into a rectangular shape T using linearPolar as shown in FIG. 13 (S363). At this time, D4 may be the eyelid area, and RD may be iris data for the iris area (D3).

홍채 데이터 출력 단계는, 프로세서(222)를 통해, 홍채 영역(D3)에 대한 홍채 데이터(RD)를 출력할 수 있다(S380).In the iris data output step, iris data RD for the iris region D3 may be output through the processor 222 (S380).

도 14는 도 3의 홍채 데이터 출력 단계를 세부적으로 나타낸 순서도이다.FIG. 14 is a flowchart showing the iris data output step of FIG. 3 in detail.

도 14를 참조하면, 홍채 데이터 출력 단계(S380)는 제8 단계(S381)와 제9 단계(S383)를 포함할 수 있다.Referring to FIG. 14, the iris data output step (S380) may include an eighth step (S381) and a ninth step (S383).

제8 단계(S381)는 프로세서(222)를 통해, 홍채 영역(D3)을 필터링하여 특징을 추출할 수 있다. 제9 단계(S383)는 프로세서(222)를 통해, 추출된 홍채 영역(D3)의 특징을 이진수로 변환하여 홍채 데이터(RD)를 출력할 수 있다.In the eighth step (S381), the processor 222 may filter the iris area D3 to extract features. In the ninth step (S383), the processor 222 converts the extracted features of the iris region D3 into binary numbers and outputs iris data RD.

한편, 본 개시는, 홍채 데이터 출력 단계(S380)에서, 다양한 고양이의 홍채 데이터를 더욱 정확하게 인식하기 위해, 인공지능 모델을 기반으로 학습하여 추천된 고양이의 홍채 데이터의 결과값을 출력할 수도 있다.Meanwhile, in the present disclosure, in the iris data output step (S380), in order to more accurately recognize the iris data of various cats, the result of the iris data of the recommended cat by learning based on an artificial intelligence model may be output.

예를 들어, 분석 장치(200)는 고양이의 품종에 따라 홍채 데이터를 더욱 정확하게 인식하기 위해, 인공지능 모델에 메타 데이터 중 고양이의 품종 별 눈꺼풀 영역 데이터, 고양이의 품종 별 동공 영역 데이터, 고양이의 품종 별 동공의 경계 영역 데이터, 고양이의 품종 별 홍채 영역 데이터를 입력값으로 입력하고, 인공지능 모델을 기반으로 학습하여 추천된 고양이의 홍채 데이터를 결과값으로 출력할 수 있다. 여기에서, 인공지능 모델은 고양이의 품종 별 눈꺼풀 영역 데이터, 고양이의 품종 별 동공 영역 데이터, 고양이의 품종 별 동공의 경계 영역 데이터, 고양이의 품종 별 홍채 영역 데이터를 CNN 알고리즘 또는 RNN 알고리즘을 이용하여 학습데이터 셋으로 구축 및 강화 학습시킬 수 있다. 이때, 분석 장치(200)는 인공지능 모델을 기반으로 학습하여 분석한 추천된 고양이의 홍채 데이터를 저장할 수 있다.For example, in order to more accurately recognize iris data according to the breed of the cat, the analysis device 200 includes metadata in the artificial intelligence model such as eyelid area data by cat breed, pupil area data by cat breed, and cat breed. By inputting the boundary area data of each pupil and the iris area data by cat breed, you can learn it based on an artificial intelligence model and output the recommended cat's iris data as the result. Here, the artificial intelligence model learns eyelid area data by cat breed, pupil area data by cat breed, pupil boundary area data by cat breed, and iris area data by cat breed using a CNN algorithm or RNN algorithm. It can be constructed and reinforced with data sets. At this time, the analysis device 200 may store the iris data of the recommended cat that has been learned and analyzed based on the artificial intelligence model.

다른 예를 들어, 분석 장치(200)는 고양이의 연령대에 따라 홍채의 노화 속도 및 손상 속도가 다르므로, 고양이의 연령대에 따라 홍채 데이터를 더욱 정확하게 인식하기 위해, 인공지능 모델에 메타 데이터 중 고양이의 연령대 별 눈꺼풀 영역 데이터, 고양이의 연령대 별 동공 영역 데이터, 고양이의 연령대 별 동공의 경계 영역 데이터, 고양이의 연령대 별 홍채 영역 데이터를 입력값으로 입력하고, 인공지능 모델을 기반으로 학습하여 추천된 고양이의 홍채 데이터를 결과값으로 출력할 수 있다. 여기에서, 인공지능 모델은 고양이의 연령대 별 눈꺼풀 영역 데이터, 고양이의 연령대 별 동공 영역 데이터, 고양이의 연령대 별 동공의 경계 영역 데이터, 고양이의 연령대 별 홍채 영역 데이터를 CNN 알고리즘 또는 RNN 알고리즘을 이용하여 학습데이터 셋으로 구축 및 강화 학습시킬 수 있다. 이때, 분석 장치(200)는 인공지능 모델을 기반으로 학습하여 분석한 추천된 고양이의 홍채 데이터를 저장할 수 있다.For another example, since the aging rate and damage rate of the iris are different depending on the age of the cat, the analysis device 200 provides the cat's metadata to the artificial intelligence model in order to more accurately recognize iris data depending on the cat's age. Eyelid area data by age group, pupil area data by cat age group, pupil boundary area data by cat age group, and iris area data by cat age group are entered as input values, and the recommended cat data is learned based on an artificial intelligence model. Iris data can be output as a result. Here, the artificial intelligence model learns the cat's eyelid area data by age group, the cat's pupil area data by age group, the cat's pupil boundary area data by age group, and the cat's iris area data by age group using a CNN algorithm or RNN algorithm. It can be constructed and reinforced with data sets. At this time, the analysis device 200 may store the iris data of the recommended cat that has been learned and analyzed based on the artificial intelligence model.

또 다른 예를 들어, 분석 장치(200)는 고양이의 품종 및 연령대에 따라 홍채의 노화 속도 및 손상 속도가 다르므로, 고양이의 품종 및 연령대에 따라 홍채 데이터를 더욱 정확하게 인식하기 위해, 인공지능 모델에 메타 데이터 중 고양이의 품종 및 연령대 별 눈꺼풀 영역 데이터, 고양이의 품종 및 연령대 별 동공 영역 데이터, 고양이의 품종 및 연령대 별 동공의 경계 영역 데이터, 고양이의 품종 및 연령대 별 홍채 영역 데이터를 입력값으로 입력하고, 인공지능 모델을 기반으로 학습하여 추천된 고양이의 홍채 데이터를 결과값으로 출력할 수 있다. 여기에서, 인공지능 모델은 고양이의 품종 및 연령대 별 눈꺼풀 영역 데이터, 고양이의 품종 및 연령대 별 동공 영역 데이터, 고양이의 품종 및 연령대 별 동공의 경계 영역 데이터, 고양이의 품종 및 연령대 별 홍채 영역 데이터를 CNN 알고리즘 또는 RNN 알고리즘을 이용하여 학습데이터 셋으로 구축 및 강화 학습시킬 수 있다. 이때, 분석 장치(200)는 인공지능 모델을 기반으로 학습하여 분석한 추천된 고양이의 홍채 데이터를 저장할 수 있다.As another example, the analysis device 200 uses an artificial intelligence model to more accurately recognize iris data depending on the breed and age of the cat, since the aging rate and damage rate of the iris are different depending on the breed and age of the cat. Among the metadata, enter eyelid area data by cat breed and age group, pupil area data by cat breed and age group, pupil border area data by cat breed and age group, and iris area data by cat breed and age group as input values. , Based on the artificial intelligence model, the iris data of the recommended cat can be output as a result. Here, the artificial intelligence model combines eyelid area data by cat breed and age group, pupil area data by cat breed and age group, pupil border area data by cat breed and age group, and iris area data by cat breed and age group using CNN. It can be constructed and reinforced as a learning data set using an algorithm or RNN algorithm. At this time, the analysis device 200 may store the iris data of the recommended cat that has been learned and analyzed based on the artificial intelligence model.

이와 같이, 본 개시는 개체 고유의 특징을 식별할 수 있는 수준의 고양이 홍채 이미지를 손쉽게 얻을 수 있도록 함으로써, 고양이의 움직임과 신체 특성에 따른 홍채 인식의 어려움을 극복하고, 정확성 높은 홍채 인식 기술을 고양이 개체 식별에 활용할 수 있도록 제공해줄 수 있다.In this way, the present disclosure overcomes the difficulties of iris recognition according to the movement and body characteristics of the cat by enabling easy acquisition of cat iris images at a level that can identify the unique characteristics of the individual, and provides highly accurate iris recognition technology for cats. It can be provided for use in object identification.

도 1 및 도 2에 도시된 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.At least one component may be added or deleted in response to the performance of the components shown in FIGS. 1 and 2. Additionally, it will be easily understood by those skilled in the art that the mutual positions of the components may be changed in response to the performance or structure of the system.

도 3, 도 4, 도 10, 도 13은 복수의 단계를 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 3, 도 4, 도 10, 도 13에 기재된 순서를 변경하여 실행하거나 복수의 단계 중 하나 이상의 단계를 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 3, 도 4, 도 10, 도 13은 시계열적인 순서로 한정되는 것은 아니다.3, 4, 10, and 13 depict a plurality of steps being sequentially executed, but this is merely an illustrative explanation of the technical idea of this embodiment and is based on common knowledge in the technical field to which this embodiment belongs. Anyone who has a can change the order shown in FIGS. 3, 4, 10, and 13 without departing from the essential characteristics of this embodiment, or modify it in various ways by executing one or more of the plurality of steps in parallel. and may be applied with modification, so FIGS. 3, 4, 10, and 13 are not limited to the chronological order.

한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium that stores instructions executable by a computer. Instructions may be stored in the form of program code, and when executed by a processor, may create program modules to perform operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.

컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.Computer-readable recording media include all types of recording media storing instructions that can be decoded by a computer. For example, there may be read only memory (ROM), random access memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage device, etc.

이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 개시가 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As described above, the disclosed embodiments have been described with reference to the attached drawings. A person skilled in the art to which this disclosure pertains will understand that the present disclosure may be practiced in forms different from the disclosed embodiments without changing the technical idea or essential features of the present disclosure. The disclosed embodiments are illustrative and should not be construed as limiting.

1000: 시스템 100: 카메라
200: 분석 장치 210: 통신부
220: 제어부 221: 메모리
222: 프로세서
1000: System 100: Camera
200: analysis device 210: communication department
220: Control unit 221: Memory
222: processor

Claims (10)

고양이의 동공 및 홍채의 이미지를 촬영하는 카메라와 통신을 수행하는 통신부; 및
상기 통신부를 통해 상기 카메라가 촬영한 고양이의 동공 및 홍채의 이미지를 수신받아 상기 고양이의 홍채 인식을 위한 동공 및 홍채의 분석과 관련된 동작을 제어하는 프로세서; 를 포함하고,
상기 프로세서는,
상기 동공의 경계 영역을 판단할 때에,
상기 동공 및 홍채의 이미지의 수준이 기 설정된 식별 가능한 기준 수준을 만족할 경우, 상기 기준 수준에 만족하는 동공 및 홍채의 이미지를 마스킹처리하고,
상기 마스킹처리된 동공 및 홍채의 이미지를 포함하는 영역 중 평균 밝기가 가장 어두운 영역을 에지 맵(Edge Map)을 이용하여 찾고,
상기 가장 어두운 영역을 일정 크기로 자른 후에, 상기 가장 어두운 영역 내의 글린트(Glint)를 제거하고,
상기 가장 어두운 영역의 가장 어두운 픽셀을 중심으로 1도씩 회전하면서, 360도 전체 회전하는 동안, 상기 동공의 경계 영역을 판단하기 위한 경계 에지(edge)의 수준이 기 설정된 밝기가 급격하게 변하는 강한 경계 에지의 수준을 만족할 경우, 상기 강한 경계 에지의 수준에 만족하는 동공의 경계의 점들을 연결하고,
상기 연결된 동공의 경계의 점들을 기반으로, 상기 동공의 경계 영역으로 판단하며,
상기 홍채를 분석할 때에,
상기 홍채의 영역을 판단하기 위한 홍채 에지(edge)의 수준이 기 설정된 밝기가 급격하게 변하는 강한 홍채 에지의 수준을 만족할 경우, 상기 동공의 경계 영역의 무게 중심 좌표를 기반으로 상기 동공의 중심 좌표를 산출하고,
상기 동공의 중심 좌표에서 상기 홍채의 중심 좌표로 시프팅된 지점, 상기 홍채의 양끝 길이의 절반에 해당하는 반지름을 기반으로, 원을 생성하고,
상기 홍채의 중심 좌표와 상기 동공의 중심 좌표간의 거리값이 기 설정된 기준 거리값이고, 상기 원의 영역 범위 내의 홍채의 영역과 눈꺼풀의 영역이 위치할 경우, 상기 홍채의 영역과 상기 눈꺼풀의 영역간의 경계 영역을 찾고,
상기 홍채의 영역, 상기 눈꺼풀의 영역, 및 상기 홍채의 영역과 상기 눈꺼풀의 영역간의 경계 영역을 구분하는 것을 특징으로 하는, 고양이의 홍채 인식을 위한 동공 및 홍채 분석 장치.
a communication unit that communicates with a camera that takes images of the cat's pupil and iris; and
a processor that receives images of the cat's pupil and iris captured by the camera through the communication unit and controls operations related to analysis of the pupil and iris for iris recognition of the cat; Including,
The processor,
When determining the boundary area of the pupil,
If the level of the image of the pupil and iris satisfies a preset identifiable standard level, the image of the pupil and iris that satisfies the standard level is masked,
Finding the area with the darkest average brightness among the areas containing the masked images of the pupil and iris using an edge map,
After cutting the darkest area to a certain size, the glint in the darkest area is removed,
A strong boundary edge whose brightness is rapidly changed at a preset level for determining the boundary area of the pupil while rotating 1 degree around the darkest pixel of the darkest area and rotating a full 360 degrees. If the level of is satisfied, connect the points of the boundary of the pupil that satisfy the level of the strong boundary edge,
Based on the boundary points of the connected pupil, it is determined to be the boundary area of the pupil,
When analyzing the iris,
If the level of the iris edge for determining the area of the iris satisfies the level of a strong iris edge where the preset brightness changes rapidly, the coordinates of the center of the pupil are determined based on the coordinates of the center of gravity of the boundary area of the pupil. Calculate,
Creating a circle based on a point shifted from the center coordinates of the pupil to the center coordinates of the iris and a radius corresponding to half the length of both ends of the iris,
When the distance value between the center coordinates of the iris and the center coordinates of the pupil is a preset reference distance value, and the iris area and the eyelid area are located within the area range of the circle, the distance between the iris area and the eyelid area is Find the border area,
A pupil and iris analysis device for iris recognition in a cat, characterized in that the iris area, the eyelid area, and a boundary area between the iris area and the eyelid area are distinguished.
삭제delete 삭제delete 삭제delete 삭제delete 분석 장치에 의해 수행되는 고양이의 홍채 인식을 위한 동공 및 홍채 분석 방법에 있어서,
상기 분석 장치의 통신부를 통해, 카메라가 촬영한 고양이의 동공 및 홍채의 이미지를 수신받는 단계;
상기 분석 장치의 프로세서를 통해, 상기 동공의 경계 영역을 판단하는 단계; 및
상기 프로세서를 통해, 상기 홍채를 분석하는 단계를 포함하되,
상기 동공의 경계 영역을 판단하는 단계는,
상기 동공 및 홍채의 이미지의 수준이 기 설정된 식별 가능한 기준 수준을 만족할 경우, 상기 기준 수준에 만족하는 동공 및 홍채의 이미지를 마스킹처리하고,
상기 마스킹처리된 동공 및 홍채의 이미지를 포함하는 영역 중 평균 밝기가 가장 어두운 영역을 에지 맵(Edge Map)을 이용하여 찾고,
상기 가장 어두운 영역을 일정 크기로 자른 후에, 상기 가장 어두운 영역 내의 글린트(Glint)를 제거하고,
상기 가장 어두운 영역의 가장 어두운 픽셀을 중심으로 1도씩 회전하면서, 360도 전체 회전하는 동안, 상기 동공의 경계 영역을 판단하기 위한 경계 에지(edge)의 수준이 기 설정된 밝기가 급격하게 변하는 강한 경계 에지의 수준을 만족할 경우, 상기 강한 경계 에지의 수준에 만족하는 동공의 경계의 점들을 연결하고,
상기 연결된 동공의 경계의 점들을 기반으로, 상기 동공의 경계 영역으로 판단하며,
상기 홍채를 분석하는 단계는,
상기 홍채의 영역을 판단하기 위한 홍채 에지(edge)의 수준이 기 설정된 밝기가 급격하게 변하는 강한 홍채 에지의 수준을 만족할 경우, 상기 동공의 경계 영역의 무게 중심 좌표를 기반으로 상기 동공의 중심 좌표를 산출하고,
상기 동공의 중심 좌표에서 상기 홍채의 중심 좌표로 시프팅된 지점, 상기 홍채의 양끝 길이의 절반에 해당하는 반지름을 기반으로, 원을 생성하고,
상기 홍채의 중심 좌표와 상기 동공의 중심 좌표간의 거리값이 기 설정된 기준 거리값이고, 상기 원의 영역 범위 내의 홍채의 영역과 눈꺼풀의 영역이 위치할 경우, 상기 홍채의 영역과 상기 눈꺼풀의 영역간의 경계 영역을 찾고,
상기 홍채의 영역, 상기 눈꺼풀의 영역, 및 상기 홍채의 영역과 상기 눈꺼풀의 영역간의 경계 영역을 구분하는 것을 특징으로 하는, 방법.
In the pupil and iris analysis method for cat iris recognition performed by an analysis device,
Receiving images of the cat's pupil and iris captured by a camera through the communication unit of the analysis device;
determining a boundary area of the pupil through a processor of the analysis device; and
Analyzing the iris using the processor,
The step of determining the boundary area of the pupil is,
If the level of the image of the pupil and iris satisfies a preset identifiable standard level, the image of the pupil and iris that satisfies the standard level is masked,
Finding the area with the darkest average brightness among the areas containing the masked images of the pupil and iris using an edge map,
After cutting the darkest area to a certain size, the glint in the darkest area is removed,
A strong boundary edge whose brightness is rapidly changed at a preset level for determining the boundary area of the pupil while rotating 1 degree around the darkest pixel of the darkest area and rotating a full 360 degrees. If the level of is satisfied, connect the points of the boundary of the pupil that satisfy the level of the strong boundary edge,
Based on the boundary points of the connected pupil, it is determined to be the boundary area of the pupil,
The step of analyzing the iris is,
If the level of the iris edge for determining the area of the iris satisfies the level of a strong iris edge where the preset brightness changes rapidly, the coordinates of the center of the pupil are determined based on the coordinates of the center of gravity of the boundary area of the pupil. Calculate,
Creating a circle based on a point shifted from the center coordinates of the pupil to the center coordinates of the iris and a radius corresponding to half the length of both ends of the iris,
When the distance value between the center coordinates of the iris and the center coordinates of the pupil is a preset reference distance value, and the iris area and the eyelid area are located within the area range of the circle, the distance between the iris area and the eyelid area is Find the border area,
A method, characterized in that distinguishing an area of the iris, an area of the eyelid, and a border area between the area of the iris and the area of the eyelid.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020230059121A 2023-05-08 2023-05-08 Device for analyzing pupil and iris for iris recognition in cat, analysis method thereof, program KR102615698B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230059121A KR102615698B1 (en) 2023-05-08 2023-05-08 Device for analyzing pupil and iris for iris recognition in cat, analysis method thereof, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230059121A KR102615698B1 (en) 2023-05-08 2023-05-08 Device for analyzing pupil and iris for iris recognition in cat, analysis method thereof, program

Publications (1)

Publication Number Publication Date
KR102615698B1 true KR102615698B1 (en) 2023-12-19

Family

ID=89385335

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230059121A KR102615698B1 (en) 2023-05-08 2023-05-08 Device for analyzing pupil and iris for iris recognition in cat, analysis method thereof, program

Country Status (1)

Country Link
KR (1) KR102615698B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015536519A (en) * 2012-12-10 2015-12-21 エスアールアイ インターナショナルSRI International Biometric iris matching system
KR20190088973A (en) 2016-10-12 2019-07-29 티젤 레인하르트 Method and apparatus for changing the perceptual color appearance of an iris of a human or animal eye
KR20200095728A (en) * 2019-02-01 2020-08-11 정진성 Animal Iris Image Acquiring Apparatus, Method Thereof, and Animal Iris Recognition System Comprising The Same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015536519A (en) * 2012-12-10 2015-12-21 エスアールアイ インターナショナルSRI International Biometric iris matching system
KR20190088973A (en) 2016-10-12 2019-07-29 티젤 레인하르트 Method and apparatus for changing the perceptual color appearance of an iris of a human or animal eye
KR20200095728A (en) * 2019-02-01 2020-08-11 정진성 Animal Iris Image Acquiring Apparatus, Method Thereof, and Animal Iris Recognition System Comprising The Same

Similar Documents

Publication Publication Date Title
US11042785B2 (en) Systems and methods for machine learning enhanced by human measurements
WO2020119420A1 (en) Front-end page generation method and apparatus, computer device, and storage medium
US9939893B2 (en) Eye gaze tracking
CN110148121B (en) Skin image processing method and device, electronic equipment and medium
CN111428581A (en) Face shielding detection method and system
US20190087647A1 (en) Method and apparatus for facial recognition
US10318797B2 (en) Image processing apparatus and image processing method
US20230237841A1 (en) Occlusion Detection
KR20180109665A (en) A method and apparatus of image processing for object detection
RU2630742C1 (en) Method, system and device for biometric iris recognition
US20150294148A1 (en) Eye gaze detection apparatus, computer-readable recording medium storing eye gaze detection program and eye gaze detection method
CN110648289B (en) Image noise adding processing method and device
CN110555875A (en) Pupil radius detection method and device, computer equipment and storage medium
CN110807427A (en) Sight tracking method and device, computer equipment and storage medium
US11475572B2 (en) Systems and methods for object detection and recognition
CN109740553B (en) Image semantic segmentation data screening method and system based on recognition
CN113919443A (en) Tobacco maturity state probability calculation method based on image analysis
TWI776176B (en) Device and method for scoring hand work motion and storage medium
CN111899247A (en) Method, device, equipment and medium for identifying lumen region of choroidal blood vessel
CN111353429A (en) Interest degree method and system based on eyeball turning
KR102615698B1 (en) Device for analyzing pupil and iris for iris recognition in cat, analysis method thereof, program
CN111291761B (en) Method and device for recognizing text
CN112560718A (en) Method and device for acquiring material information, storage medium and electronic device
CN113468925B (en) Occlusion face recognition method, intelligent terminal and storage medium
CN112084984A (en) Escalator action detection method based on improved Mask RCNN

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant