KR20200094840A - Animal Recognition Apparatus And Animal Recognition Method - Google Patents

Animal Recognition Apparatus And Animal Recognition Method Download PDF

Info

Publication number
KR20200094840A
KR20200094840A KR1020190008680A KR20190008680A KR20200094840A KR 20200094840 A KR20200094840 A KR 20200094840A KR 1020190008680 A KR1020190008680 A KR 1020190008680A KR 20190008680 A KR20190008680 A KR 20190008680A KR 20200094840 A KR20200094840 A KR 20200094840A
Authority
KR
South Korea
Prior art keywords
image
eye
animal
iris
animal recognition
Prior art date
Application number
KR1020190008680A
Other languages
Korean (ko)
Other versions
KR102161265B1 (en
Inventor
김태헌
백주헌
하유진
박시형
강현덕
Original Assignee
주식회사 파이리코
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 파이리코 filed Critical 주식회사 파이리코
Priority to KR1020190008680A priority Critical patent/KR102161265B1/en
Publication of KR20200094840A publication Critical patent/KR20200094840A/en
Application granted granted Critical
Publication of KR102161265B1 publication Critical patent/KR102161265B1/en

Links

Images

Classifications

    • G06K9/00362
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06K9/00597
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

The present invention relates to an animal recognition device and to an animal recognition method. The animal recognition device comprises: a first imaging unit photographing a first image; a second imaging unit photographing a second image; and a control unit receiving images photographed by the first imaging unit and the second imaging unit, extracting an eye area image and an area around the eye from each image, and recognizing a specific animal by comparing the extracted images with pre-stored images.

Description

동물 인식 장치 및 동물 인식 방법{Animal Recognition Apparatus And Animal Recognition Method}Animal Recognition Apparatus And Animal Recognition Method {Animal Recognition Apparatus And Animal Recognition Method}

본 발명은 동물 인식 장치 및 동물 인식 방법에 관한 것으로, 더욱 상세하게는 두 개의 촬영 장치를 이용하여 영상을 촬영하고, 촬영된 영상에서 추출한 영상의 비교를 통해 특정 동물을 인식하는 동물 인식 장치 및 동물 인식 방법에 관한 것이다.The present invention relates to an animal recognition device and an animal recognition method, and more particularly, to an animal recognition device and an animal that captures an image using two photographing devices and recognizes a specific animal through comparison of images extracted from the captured image. It's about how to recognize.

동물 등록제 의무시행이 시행된 후 동물 유기 발생률이 오히려 증가하였으며, 반려동물 연계사업도 동물 등록률이 저조하여 활성화 되지 못하고 있다. 현재 동물 등록제의 등록방식은 생체이식 칩, 외장형 목걸이, 인식표 등을 이용하여 등록이 이루어지고 있다.After the mandatory enforcement of the animal registration system, the incidence of animal abandonment has rather increased, and the companion animal linkage project is also not active due to the low animal registration rate. Currently, the registration method of the animal registration system is performed using a biograft chip, an external necklace, and an identification tag.

생체이식 칩의 사용은 이용에 많은 장점이 있다. 그럼에도 생체이식 칩 사용에 여러 부작용이 있어서 양육인들이 사용에 주저하고 있다.The use of a biotransplantation chip has many advantages in its use. Nevertheless, there are several side effects to the use of the biotransplantation chip, so caregivers are hesitant to use it.

따라서 동물에 해를 가하지 않으면서도 동물 등록 방식이 보다 효율적이고 간편하게 개선될 필요가 있다. Therefore, there is a need to improve the animal registration method more efficiently and simply without harming the animals.

[특허문헌 1] 한국등록특허 제10-1862639호. 2018.05.24. 등록.[Patent Document 1] Korean Patent Registration No. 10-1862639. 2018.05.24. Enrollment.

본 발명은 전술한 문제점을 해결하기 위하여 창출된 것으로, 동물 인식 장치 및 동물 인식 방법을 제공하는 것을 그 목적으로 한다.The present invention has been created to solve the above-described problems, and an object thereof is to provide an animal recognition apparatus and an animal recognition method.

본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood from the following description.

상기한 목적들을 달성하기 위하여, 본 발명의 일 실시예에 따른 동물 인식 장치 및 동물 인식 방법을 개시한다. 상기 장치는 제1 영상을 촬영하는 제1 촬상부, 제2 영상을 촬영하는 제2 촬상부 및 제1 촬상부와 제2 촬상부에서 촬영된 영상을 입력받아, 각각의 영상에서 각각 눈부분 영상 및 눈주변부분 영상을 추출하고, 추출된 영상들과 기저장된 영상들을 비교하여 특정 동물을 인식하는 제어부를 포함할 수 있다. In order to achieve the above objects, an animal recognition apparatus and an animal recognition method according to an embodiment of the present invention are disclosed. The device receives a first image pickup unit for capturing a first image, a second image capturing unit for capturing a second image, and an image captured by the first and second image capturing units, and the eye part image from each image. And a control unit that extracts an image around the eye and compares the extracted images with pre-stored images to recognize a specific animal.

또한, 본 개시의 일 실시예에 따르면, 피촬영물인 동물의 시선과 동작을 고정하는, 학습된 소리를 생성하여 출력하는 소리 출력부 및 제어부에서 인식한 결과를 출력하는 영상 출력부를 더 포함할 수 있다. In addition, according to an embodiment of the present disclosure, a sound output unit for generating and outputting learned sound to fix the gaze and motion of an animal to be photographed and an image output unit for outputting a result recognized by the control unit may be further included. have.

또한, 본 개시의 일 실시예에 따르면, 상기 학습된 소리는, 클릭커 소리 또는 녹음된 음성 중 적어도 하나일 수 있다. In addition, according to an embodiment of the present disclosure, the learned sound may be at least one of a clicker sound or a recorded sound.

또한, 본 개시의 일 실시예에 따르면, 제1 촬상부는 적외선 촬영장치일 수 있으며, 제2 촬상부는 가시광선 촬영장치일 수 있다. In addition, according to an embodiment of the present disclosure, the first imaging unit may be an infrared imaging device, and the second imaging unit may be a visible light imaging device.

또한, 본 개시의 일 실시예에 따르면, 제어부는, 제1 영상 및 제2 영상을 다중층 인식망(Multilayer Perceptron) 모델에 입력하여, 상기 눈부분 영상 및 상기 눈주변부분 영상을 추출할 수 있다. In addition, according to an embodiment of the present disclosure, the controller may extract the eye portion image and the eye peripheral portion image by inputting the first image and the second image into a multilayer perceptron model. .

또한, 본 개시의 일 실시예에 따르면, 제어부는, 추출된 눈부분 영상 및 눈주변부분 영상을 딥러닝 기반의 나선 신경망 모델(Convolutional Neural Network)에 입력하여, 각각 홍채 영상 및 눈주변 특징 부분 영상을 하나 이상 생성하고, 생성한 홍채 영상과 눈주변 특징 부분 영상의 크기를 정규화 시키고, 정규화된 홍채 영상 및 눈주변 특징 부분 영상을 부호화 시키는 영상 전처리부 및 부호화된 홍채 영상 및 눈주변 특징 부분 영상을 기저장된 영상들을 비교하여 특정 동물을 인식하는 동물 인식부를 포함하할 수 있다. In addition, according to an embodiment of the present disclosure, the controller inputs the extracted eye portion image and the eye peripheral portion image into a deep learning-based convolutional neural network, and the iris image and the eye peripheral feature portion image, respectively. An image preprocessor and an image preprocessor that generates one or more, normalizes the size of the generated iris image and peripheral feature partial image, and encodes the normalized iris image and peripheral feature partial image, and the encoded iris image and peripheral feature partial image. It may include an animal recognition unit for recognizing a specific animal by comparing pre-stored images.

또한, 본 개시의 일 실시예에 따르면, 홍채 영상은, 홍채의 모양 또는 홍채의 색 중 어느 하나를 특징으로 하는 영상일 수 있으며, 눈주변 특징 부분 영상은, 눈꺼풀의 모양, 눈주변 털의 모양 또는 눈주변 털의 색 중 어느 하나를 특징으로 하는 영상일 수 있다. In addition, according to an embodiment of the present disclosure, the iris image may be an image characterized by either a shape of an iris or a color of an iris, and the characteristic partial image around the eye may include a shape of an eyelid and a shape of hair around the eye. Alternatively, it may be an image characterized by any one of the colors of the hair around the eyes.

추가적으로, 본 개시의 일 실시예에 따르면, 상기 동물 인식 방법은 피촬영물인 동물의 시선과 동작을 고정하는, 학습된 소리를 생성하여 출력하는 소리 출력 단계, 소리 출력단계에서, 학습된 소리의 출력이 완료되면, 제1 촬상부와 제2 촬상부에서 각각 촬영된 제1 영상 및 제2 영상이 입력되는 영상 입력 단계, 영상 입력단계를 통해 입력된 제1 영상 및 제2 영상에서 각각 눈부분 영상 및 눈주변부분 영상을 추출하는 영상 추출 단계, 추출된 영상들과 기저장된 영상들을 비교하여 특정 동물을 인식하는 영상 비교인식 단계 및 영상 비교인식 단계에서 인식한 결과를 출력하는 영상 출력 단계를 포함할 수 있다. Additionally, according to an embodiment of the present disclosure, the animal recognition method includes a sound output step of generating and outputting a learned sound to fix the gaze and motion of an animal to be photographed, and output of the learned sound in the sound output step. When this is completed, the first image and the second image respectively captured by the first and second imaging units are input, the first image and the second image input through the image input step, respectively. And an image extraction step of extracting an image around the eye, an image comparison and recognition step of recognizing a specific animal by comparing the extracted images with pre-stored images, and an image output step of outputting a result of recognition in the image comparison and recognition step. I can.

또한, 본 개시의 일 실시예에 따르면, 학습된 소리는, 클릭커 소리 또는 녹음된 음성 중 적어도 하나일 수 있다. In addition, according to an embodiment of the present disclosure, the learned sound may be at least one of a clicker sound or a recorded sound.

또한, 본 개시의 일 실시예에 따르면, 제1 촬상부는 적외선 촬영장치일 수 있으며, 제2 촬상부는 가시광선 촬영장치일 수 있다. In addition, according to an embodiment of the present disclosure, the first imaging unit may be an infrared imaging device, and the second imaging unit may be a visible light imaging device.

또한, 본 개시의 일 실시예에 따르면, 영상 추출 단계는, 제1 영상 및 제2 영상을 다중층 인식망(Multilayer Perceptron) 모델에 입력하여, 상기 눈부분 영상 및 상기 눈주변부분 영상을 추출하는 단계일 수 있다. In addition, according to an embodiment of the present disclosure, in the step of extracting an image, the first image and the second image are input to a multilayer perceptron model to extract the eye part image and the eye area image. It can be a step.

또한, 본 개시의 일 실시예에 따르면, 영상 비교인식 단계는, 추출된 눈부분 영상 및 눈주변부분 영상을 딥러닝 기반의 나선 신경망 모델(Convolutional Neural Network)에 입력하여, 각각 홍채 영상 및 눈주변 특징 부분 영상을 하나 이상 생성하고, 생성한 홍채 영상과 눈주변 특징 부분 영상의 크기를 정규화 시키고, 정규화된 홍채 영상 및 눈주변 특징 부분 영상을 부호화 시키는 영상 전처리 단계 및 부호화된 홍채 영상 및 눈주변 특징 부분 영상을 기저장된 영상들을 비교하여 특정 동물을 인식하는 동물 인식 단계를 포함할 수 있다. In addition, according to an embodiment of the present disclosure, in the image comparison and recognition step, the extracted eye portion image and the eye peripheral portion image are input to a deep learning-based convolutional neural network, respectively, and An image pre-processing step of generating one or more feature partial images, normalizing the size of the generated iris image and eye peripheral feature partial image, and encoding the normalized iris image and eye peripheral feature partial image, and the encoded iris image and eye peripheral features It may include an animal recognition step of recognizing a specific animal by comparing the partial images with pre-stored images.

또한, 본 개시의 일 실시예에 따르면, 홍채 영상은, 홍채의 모양 또는 홍채의 색 중 어느 하나를 특징으로 하는 영상일 수 있으며, 눈주변 특징 부분 영상은, 눈꺼풀의 모양, 눈주변 털의 모양 또는 눈주변 털의 색 중 어느 하나를 특징으로 하는 영상일 수 있다. In addition, according to an embodiment of the present disclosure, the iris image may be an image characterized by either a shape of an iris or a color of an iris, and the characteristic partial image around the eye may include a shape of an eyelid and a shape of hair around the eye. Alternatively, it may be an image characterized by any one of the colors of the hair around the eyes.

상기한 목적들을 달성하기 위한 구체적인 사항들은 첨부된 도면과 함께 상세하게 후술될 실시예들을 참조하면 명확해질 것이다.Specific details for achieving the above objects will be clarified with reference to embodiments to be described later in detail with the accompanying drawings.

그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라, 서로 다른 다양한 형태로 구성될 수 있으며, 본 발명의 개시가 완전하도록 하고 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자(이하, "통상의 기술자")에게 발명의 범주를 완전하게 알려주기 위해서 제공되는 것이다.However, the present invention is not limited to the embodiments disclosed below, and may be configured in various different forms, to make the disclosure of the present invention complete, and to those skilled in the art to which the present invention pertains ( Hereinafter, it is provided to completely inform the scope of the invention to "normal engineer").

본 발명은 두 개의 촬영 장치를 이용하여 영상을 촬영하고, 촬영된 영상을 통해 특정 동물을 인식하는 동물 인식 장치 및 동물 인식 방법에 관한 것이다.The present invention relates to an animal recognition apparatus and an animal recognition method for capturing an image using two photographing devices and recognizing a specific animal through the captured image.

본 발명은 두 개의 촬영 장치를 이용하여 영상을 촬영하고, 그 촬영 영상을 분석함으로써 홍채 패턴을 정확히 획득할 수 있다. In the present invention, an image is captured using two photographing devices, and an iris pattern can be accurately obtained by analyzing the photographed image.

또한, 본 발명은 딥러닝 기반의 나선 신경망 모델(Convolutional Neural Network)을 적용하여 홍채 인식률을 개선할 수 있다. In addition, the present invention can improve the iris recognition rate by applying a deep learning-based convolutional neural network.

또한, 본 발명은 학습된 소리를 이용하여 동물의 시선 및 동작을 고정하여, 카메라를 두려워하는 동물들의 공포감을 완화 시킬 수 있다. In addition, the present invention can fix the animal's gaze and movement using the learned sound, thereby alleviating the fear of animals that fear the camera.

따라서 본 발명에 개시된 동물 인식 장치에 따르면, 동물의 홍채를 이용하여 동물을 인식함으로써 동물의 등록률을 높일 수 있다. Therefore, according to the animal recognition apparatus disclosed in the present invention, it is possible to increase the registration rate of the animal by recognizing the animal using the iris of the animal.

본 발명의 효과들은 상술된 효과들로 제한되지 않으며, 본 발명의 기술적 특징들에 의하여 기대되는 잠정적인 효과들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-described effects, and the potential effects expected by the technical features of the present invention will be clearly understood from the following description.

상기 언급된 본 발명 내용의 특징들이 상세하게, 보다 구체화된 설명으로, 이하의 실시예들을 참조하여 이해될 수 있도록, 실시예들 중 일부는 첨부되는 도면에서 도시된다. 또한, 도면과의 유사한 참조번호는 여려 측면에 걸쳐서 동일하거나 유사한 기능을 지칭하는 것으로 의도된다. 그러나 첨부된 도면들은 단지 본 발명 내용의 특정한 전형적인 실시예들만을 도시하는 것일 뿐, 본 발명의 범위를 한정하는 것으로 고려되지는 않으며, 동일한 효과를 갖는 다른 실시예들이 충분히 인식될 수 있다는 점을 유의하도록 한다.
도 1은 본 발명의 일 실시예에 따른 동물 인식 장치의 구성요소를 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 동물 인식 방법에 관한 순서도이다.
Some of the embodiments are shown in the accompanying drawings so that the above-mentioned features of the present invention can be understood in detail, with a more specific description, with reference to the following embodiments. In addition, similar reference numerals with the drawings are intended to refer to the same or similar functions across various aspects. It should be noted, however, that the accompanying drawings show only specific exemplary embodiments of the present invention, and are not considered to limit the scope of the present invention, and other embodiments having the same effect can be sufficiently recognized. Do it.
1 is a view showing the components of an animal recognition apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating a method for recognizing an animal according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고, 여러 가지 실시예들을 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. The present invention can be applied to various changes, and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail.

청구범위에 개시된 발명의 다양한 특징들은 도면 및 상세한 설명을 고려하여 더 잘 이해될 수 있을 것이다. 명세서에 개시된 장치, 방법, 제법 및 다양한 실시예들은 예시를 위해서 제공되는 것이다. 개시된 구조 및 기능상의 특징들은 통상의 기술자로 하여금 다양한 실시예들을 구체적으로 실시할 수 있도록 하기 위한 것이고, 발명의 범위를 제한하기 위한 것이 아니다. 개시된 용어 및 문장들은 개시된 발명의 다양한 특징들을 이해하기 쉽게 설명하기 위한 것이고, 발명의 범위를 제한하기 위한 것이 아니다.Various features of the invention disclosed in the claims may be better understood in consideration of the drawings and detailed description. The devices, methods, manufacturing methods, and various embodiments disclosed in the specification are provided for illustrative purposes. The disclosed structural and functional features are intended to enable those skilled in the art to implement various embodiments in detail, and not to limit the scope of the invention. The terminology and sentences disclosed are intended to facilitate understanding of the various features of the disclosed invention and are not intended to limit the scope of the invention.

본 발명을 설명함에 있어서, 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.In describing the present invention, when it is determined that detailed descriptions of related known technologies may unnecessarily obscure the subject matter of the present invention, detailed descriptions thereof will be omitted.

이하, 본 발명의 일 실시예에 따른 동물 인식 장치 및 동물 인식 방법을 설명한다.Hereinafter, an animal recognition apparatus and an animal recognition method according to an embodiment of the present invention will be described.

도 1은 본 발명의 일 실시예에 따른 동물 인식 장치의 구성요소를 도시한 도면이다.1 is a view showing the components of an animal recognition apparatus according to an embodiment of the present invention.

도 1을 참고하면, 본 발명의 동물 인식 장치(100)는 소리 출력부(110), 영상 촬상부(130), 제어부(150) 및 영상 출력부(170)를 포함할 수 있다. Referring to FIG. 1, the animal recognition apparatus 100 of the present invention may include a sound output unit 110, an image capture unit 130, a control unit 150, and an image output unit 170.

일 실시예에서, 소리 출력부(110)는 동물 인식 장치(100)에 구비되어 피촬영물인 동물의 시선과 동작을 고정하는, 학습된 소리를 생성하여 출력할 수 있다. 예를 들어, 동물은 사람과 달리 의식적으로 시선을 고정하기 어렵다. 그래서 동물의 시선 및 동작 고정을 유도하기 위하여 학습된 소리를 사용할 수 있다. 학습된 소리는 클릭커 소리 또는 녹음된 음성 중 적어도 하나를 포함할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.In an embodiment, the sound output unit 110 may be provided in the animal recognition apparatus 100 to generate and output a learned sound that fixes the gaze and motion of an animal to be photographed. For example, animals, unlike humans, have difficulty consciously fixing their gaze. So, the learned sound can be used to induce the animal's gaze and motion fixation. The learned sound may include at least one of a clicker sound or a recorded sound. The above example is only an example for explaining the present disclosure, and the present disclosure is not limited thereto.

일 실시예에서, 영상 촬상부(130)는 제1 영상을 촬영하는 제1 촬상부와 제2 영상을 촬영하는 제2 촬상부, 즉 두 개의 영상 촬영 장치를 통해 눈 영상 및 눈 주변 영상이 포함된 영상을 촬영할 수 있다. 보다 구체적으로, 영상 촬상부(130)는 제1 촬상부는 적외선 촬영장치일 수 있으며, 제2 촬상부는 가시광선 촬영장치일 수 있다. 제1 촬상부인 적외선 촬영 장치는 눈의 동공 및 홍채 위치가 포함된 영상을 촬영할 수 있다. 제2 촬상부인 가시광선 촬영 장치는 눈 주변 영상이 포함된 영상을 촬영할 수 있다. In one embodiment, the image pickup unit 130 includes an eye image and an image around the eye through a first image pickup unit for capturing a first image and a second image capturing unit for capturing a second image, that is, two image capturing devices. You can shoot a video More specifically, in the image capture unit 130, the first imaging unit may be an infrared imaging device, and the second imaging unit may be a visible light imaging device. The infrared imaging device, which is the first imaging unit, may capture an image including the pupil and iris locations of the eye. The visible ray photographing apparatus, which is the second imaging unit, may photograph an image including an image around the eyes.

홍채는 개체마다 고유의 특징을 내포하여 생체정보 중 가장 뛰어난 식별력을 보인다. 또한, 비접촉식으로 등록 및 인식이 가능하여 홍채를 이용하여 개체 식별하는 방법은 효과적인 방법일 수 있다. The iris shows the best discrimination power among biometric information because each individual has its own characteristics. In addition, since registration and recognition are possible in a non-contact manner, a method of identifying an individual using an iris may be an effective method.

본 발명은 개체마다 고유의 특징을 내포하는 홍채 및 안구 주변 특징을 종합하여 개체 식별에 사용함으로써 개체 식별에 보다 완성도를 높일 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.According to the present invention, the iris and eyeball periphery features, which have unique features for each individual, are synthesized and used for individual identification, thereby increasing the completeness of individual identification. The above example is only an example for explaining the present disclosure, and the present disclosure is not limited thereto.

일 실시예에서, 제어부(150)는 영상 촬상부(130)를 통해 촬영된 제1 영상 및 제2 영상을 입력받아, 각각의 영상에서 각각 눈부분 영상 및 눈주변부분 영상을 추출하고, 추출된 영상들과 기저장된 영상들을 비교하여 특정 동물을 인식할 수 있다. 제어부(150)는 제1 영상 및 제2 영상을 다중층 인식망(Multilayer Perceptron) 모델에 입력하여, 눈부분 영상 및 눈주변부분 영상을 추출할 수 있다. In one embodiment, the control unit 150 receives the first image and the second image captured through the image pickup unit 130, extracts the eye part image and the eye area image from each image, and extracts A specific animal can be recognized by comparing images and previously stored images. The controller 150 may input the first image and the second image to a multilayer perceptron model to extract an eye portion image and an eye peripheral portion image.

보다 구체적으로, 제어부(150)는 영상 전처리부 및 동물 인식부를 포함할 수 있다. 영상 전처리부는 다중층 인식망(Multilayer Perceptron) 모델을 통해 추출된 눈부분 영상 및 눈주변부분 영상을 딥러닝 기반의 나선 신경망 모델(Convolutional Neural Network)에 입력하여, 각각 홍채 영상 및 눈주변 특징 부분 영상을 하나 이상 생성하고, 상기 생성한 홍채 영상과 눈주변 특징 부분 영상의 크기를 정규화 시키고, 상기 정규화된 홍채 영상 및 눈주변 특징 부분 영상을 부호화 시킬 수 있다. 동물 인식부는 부호화된 홍채 영상 및 눈주변 특징 부분 영상을 기저장된 영상들을 비교하여 특정 동물을 인식할 수 있다. More specifically, the control unit 150 may include an image preprocessor and an animal recognition unit. The image preprocessor inputs the eye part image and the eye part image extracted through the multilayer perceptron model into a deep learning-based convolutional neural network, and the iris image and the feature part image around the eye, respectively. One or more can be generated, the sizes of the generated iris image and the feature partial image around the eye can be normalized, and the normalized iris image and the feature partial image around the eye can be encoded. The animal recognition unit may recognize a specific animal by comparing the encoded iris image and the feature portion image around the eye with pre-stored images.

홍채 영상은 홍채의 모양 또는 홍채의 색 중 어느 하나를 특징으로 하는 영상일 수 있으며, 눈주변 특징 부분 영상은 눈꺼풀의 모양, 눈주변 털의 모양 또는 눈주변 털의 색 중 어느 하나를 특징으로 하는 영상일 수 있다. 정규화는 입력된 영상의 크기를 일정하게 하고, 중복 정보 포함을 최소화하기 위해 사용할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.The iris image may be an image characterized by either the shape of the iris or the color of the iris, and the partial image of features around the eye is characterized by any one of the shape of the eyelid, the shape of the hair around the eye, or the color of the hair around the eye. It can be an image. Normalization can be used to make the size of the input image constant and to minimize the inclusion of redundant information. The above example is only an example for explaining the present disclosure, and the present disclosure is not limited thereto.

또한, 인공지능은 인간의 지능으로 할 수 있는 사고, 학습, 자기 개발 등을 컴퓨터가 할 수 있도록 하는 방법을 연구하는 컴퓨터 공학 및 정보기술의 한 분야로서, 컴퓨터가 인간의 지능적인 행동을 모방할 수 있도록 하는 것을 의미한다. In addition, artificial intelligence is a field of computer engineering and information technology that studies how computers can do the thinking, learning, and self-development that can be done with human intelligence. Means to be able to.

본 발명의 제어부(150)는 다중층 인식망(Multilayer Perceptron: MLP)모델을 통해 촬영 영상으로부터 눈부분 영상 및 눈주변부분 영상을 추출할 수 있다. 본 발명의 일 실시예에 따른 인공 신경망은 컨볼루션 신경망(convolution neural network: CNN), 오토 인코더(auto encoder), 피드포워드 신경망(feedforward neural network), 방사 신경망(radial basis function network), 코헨 자기조직 신경망(kohonen self-organizing network), 순환 신경망(RNN: recurrent neural network) 다중층 인식망(Multilayer Perceptron: MLP) 등으로 구성될 수 있으며 본 발명은 이에 제한되지 않고 임의의 신경망을 포함할 수 있다.The controller 150 of the present invention may extract an eye portion image and an eye peripheral portion image from a captured image through a multilayer perceptron (MLP) model. The artificial neural network according to an embodiment of the present invention includes a convolution neural network (CNN), an auto encoder, a feedforward neural network, a radial basis function network, and a Cohen self-organization. A neural network (kohonen self-organizing network), a recurrent neural network (RNN) and a multilayer perception network (Multilayer Perceptron: MLP) may be used, and the present invention is not limited thereto and may include any neural network.

상기 사전 결정된 인식 알고리즘은 인공지능의 딥러닝을 이용하여 홍채 영상 및 눈 주변 영상을 추출하도록 사전 훈련된 것을 말한다. 보다 구체적으로, 컨피던스 맵을 이용하여 홍채 영상 및 눈 주변 영상을 인식하고, PAF(Part Affinity Fields)를 이용하여 각각의 홍채 영상 및 눈 주변 영상을 연관 지으며, Greedy 알고리즘을 이용하여 홍채 영상 및 눈 주변 영상을 분석할 수 있다. 상기 컨피던스 맵은 조직의 탄성도 데이터를 신뢰도에 따라 구분해 표시하는 기능을 말한다. 상기 PAF(Part Affinity Fields)는 비 매개 변수를 사용하여 신체 부위를 이미지의 개인과 연관시키는 방법을 말한다. 상기 Greedy 알고리즘은 전체 문제를 해결해 나갈 때 매순간 탐욕적인 선택을 해나가면서 전체 문제를 해결하는 알고리즘을 말한다. 따라서 본 발명은 인공지능 딥러닝 기술을 이용해 수만장의 이미지를 학습하여 사용자의 홍채 영상 및 눈 주변 영상들을 전술한 방법을 활용하여 분석하여 키넥트와 같은 별도의 부가장치 없이 홍채 영상 및 눈 주변 영상을 분석해 피드백을 줄 수 있다. The pre-determined recognition algorithm refers to pre-trained to extract an iris image and an image around the eye using deep learning of artificial intelligence. More specifically, the iris image and the image around the eye are recognized using a confidence map, each iris image and the image around the eye are correlated using PAF (Part Affinity Fields), and the iris image and the eye area around the eye using the Greedy algorithm. You can analyze the video. The confidence map refers to a function of dividing and displaying organizational elasticity data according to reliability. The PAF (Part Affinity Fields) refers to a method of associating body parts with individuals in an image using a non-parameter. The Greedy algorithm refers to an algorithm that solves the entire problem while making greedy choices every moment when solving the entire problem. Therefore, the present invention learns tens of thousands of images using artificial intelligence deep learning technology and analyzes the user's iris image and images around the eyes using the above-described method, and thus the iris image and the image around the eyes without additional additional devices such as Kinect. Analyze and give feedback.

예를 들어, 강아지 얼굴을 제1 촬상부 및 제2 촬상부를 통해 촬영하면, 상기 촬영된 제1 영상 및 제2 영상을 다중층 인식망(Multilayer Perceptron: MLP)에 입력하여 강아지 눈과 눈 주변부 영상을 추출할 수 있다. 또한, 추출된 눈과 눈 주변부 영상을 나선 신경망 모델(Convolutional Neural Network)에 입력하여 홍채 영상 및 눈 주변부 특징부분 영상을 추출할 수 있다. 추출된 홍채 영상 및 눈 주변부 특징부분 영상을 정규화 시키고, 부호화 시킨다. 그런 다음, 부호화된 홍채 영상 및 눈 주변부 특징부분 영상과 기저장된 영상들을 비교하여 특정 동물임을 인식할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.For example, when a dog's face is photographed through a first image pickup unit and a second image pickup unit, the photographed first image and the second image are input to a multilayer recognition network (MLP) to provide an image of the dog's eyes and around the eyes. Can be extracted. In addition, an iris image and a feature portion image of the eye area may be extracted by inputting the extracted eye and eye peripheral image into a convolutional neural network model. The extracted iris image and eye peripheral feature image are normalized and encoded. Then, it is possible to recognize that the animal is a specific animal by comparing the encoded iris image and the feature portion image around the eye with the previously stored images. The above example is only an example for explaining the present disclosure, and the present disclosure is not limited thereto.

일 실시예에서, 영상 출력부(170)는 제어부(150)에서 인식한 결과를 출력할 수 있다. 예를 들어, 인식한 결과는 촬영한 사진, 동물의 이름, 개체번호, 홍채 코드, 품종, 생년월일, 등록 지역 및 양육인 정보를 포함할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.In an embodiment, the image output unit 170 may output a result recognized by the control unit 150. For example, the recognition result may include the photographed picture, the name of the animal, the individual number, the iris code, the breed, the date of birth, the registration area, and the caregiver information. The above example is only an example for explaining the present disclosure, and the present disclosure is not limited thereto.

도 2는 본 발명의 일 실시예에 따른 동물 인식 방법에 관한 순서도이다.2 is a flowchart illustrating a method for recognizing an animal according to an embodiment of the present invention.

도 2을 참고하면, 본 발명의 동물 인식 방법(S200)은 피촬영물인 동물의 시선과 동작을 고정하는, 학습된 소리를 생성하여 출력하는 소리 출력 단계(S210), 소리 출력단계에서, 학습된 소리의 출력이 완료되면, 제1 촬상부와 제2 촬상부에서 각각 촬영된 제1 영상 및 제2 영상이 입력되는 영상 입력 단계(S230), 영상 입력단계를 통해 입력된 제1 영상 및 제2 영상에서 각각 눈부분 영상 및 눈주변부분 영상을 추출하는 영상 추출 단계(S250), 추출된 영상들과 기저장된 영상들을 비교하여 특정 동물을 인식하는 영상 비교인식 단계(S270) 및 영상 비교인식 단계에서 인식한 결과를 출력하는 영상 출력 단계(S290)를 포함할 수 있다. Referring to Figure 2, the animal recognition method (S200) of the present invention is a sound output step (S210) of generating and outputting a learned sound to fix the gaze and motion of an animal to be photographed, in the sound output step, the learned When the output of the sound is completed, the first image and the second image captured by the first and second imaging units are respectively input (S230), the first image and the second image input through the image input step. In the image extraction step (S250) of extracting the eye part image and the eye area image from the image, the image comparison and recognition step (S270) of recognizing a specific animal by comparing the extracted images with pre-stored images, and the image comparison and recognition step An image output step S290 of outputting the recognized result may be included.

일 실시예에서, 동물 인식 방법(S200)은 피촬영물인 동물의 시선과 동작을 고정하는, 학습된 소리를 생성하여 출력하는 소리 출력 단계(S210)를 포함할 수 있다. 예를 들어, 동물은 사람과 달리 의식적으로 시선을 고정하기 어렵다. 그래서 동물의 시선 및 동작 고정을 유도하기 위하여 학습된 소리를 사용할 수 있다. 학습된 소리는 클릭커 소리 또는 녹음된 음성 중 적어도 어느 하나를 포함할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.In an embodiment, the animal recognition method S200 may include a sound output step S210 of generating and outputting a learned sound to fix the gaze and motion of an animal to be photographed. For example, animals, unlike humans, have difficulty consciously fixing their gaze. So, the learned sound can be used to induce the animal's gaze and motion fixation. The learned sound may include at least one of a clicker sound or a recorded voice. The above example is only an example for explaining the present disclosure, and the present disclosure is not limited thereto.

일 실시예에서, 동물 인식 방법(S200)은 소리 출력단계에서, 학습된 소리의 출력이 완료되면, 제1 촬상부와 제2 촬상부에서 각각 촬영된 제1 영상 및 제2 영상이 입력되는 영상 입력 단계(S230)를 포함할 수 있다. 제1 촬상부에서 촬영한 제1 영상은 눈부분 영상이 포함된 영상일 수 있으며, 제2 촬상부에서 촬영한 제2 영상은 눈주변부분 영상이 포함된 영상일 수 있다. In one embodiment, the animal recognition method (S200) is, in the sound output step, when the output of the learned sound is completed, the first image and the second image respectively captured by the first and second imaging units are inputted. It may include an input step (S230). The first image captured by the first imaging unit may be an image including an eye area image, and the second image captured by the second imaging unit may be an image including an eye area image.

보다 구체적으로, 영상 입력 단계(S230)는 제1 촬상부인 적외선 촬영 장치 및 제2 촬상부인 가시광선 촬영 장치를 이용하여 각각 제1 영상 및 제2 영상을 촬영하는 단계를 포함할 수 있다. 제1 촬상부인 적외선 촬영 장치는 눈의 동공 및 홍채 위치가 포함된 영상을 촬영할 수 있다. 제2 촬상부인 가시광선 촬영 장치는 눈 주변 영상이 포함된 영상을 촬영할 수 있다. More specifically, the image input step S230 may include capturing a first image and a second image, respectively, using an infrared imaging device as a first imager and a visible light imager as a second imager. The infrared imaging device, which is the first imaging unit, may capture an image including the pupil and iris locations of the eye. The visible ray photographing apparatus, which is the second imaging unit, may photograph an image including an image around the eyes.

홍채는 개체마다 고유의 특징을 내포하여 생체정보 중 가장 뛰어난 식별력을 보이며, 비접촉식으로 등록 및 인식이 가능하여 보다 효과적인 사용이 가능할 수 있다. The iris shows the most outstanding identification among biometric information because each individual has its own characteristics, and it can be registered and recognized in a non-contact manner, thereby enabling more effective use.

홍채 영상은 홍채의 모양 또는 홍채의 색 중 어느 하나를 특징으로 하는 영상일 수 있으며, 눈주변 특징 부분 영상은 눈꺼풀의 모양, 눈주변 털의 모양 또는 눈주변 털의 색 중 어느 하나를 특징으로 하는 영상일 수 있다. 본 발명은 개체마다 고유의 특징을 내포하는 홍채 및 안구 주변 특징을 종합하여 개체 식별에 사용함으로써 개체 식별에 보다 완성도를 높일 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.The iris image may be an image characterized by either the shape of the iris or the color of the iris, and the partial image of features around the eye is characterized by any one of the shape of the eyelid, the shape of the hair around the eye, or the color of the hair around the eye. It can be an image. According to the present invention, the iris and eyeball periphery features, which have unique features for each individual, are synthesized and used for individual identification, thereby increasing the completeness of individual identification. The above example is only an example for explaining the present disclosure, and the present disclosure is not limited thereto.

일 실시예에서, 동물 인식 방법(S200)은 영상 입력 단계(S230)를 통해 입력된 제1 영상 및 제2 영상에서 각각 눈부분 영상 및 눈주변부분 영상을 추출하는 영상 추출 단계(S250)를 포함할 수 있다. In one embodiment, the animal recognition method (S200) includes an image extraction step (S250) of extracting an eye part image and a peripheral part image from the first image and the second image input through the image input step (S230), respectively. can do.

또한, 영상 추출 단계(S250)는 제1 영상 및 제2 영상을 다중층 인식망(Multilayer Perceptron) 모델에 입력하여, 눈부분 영상 및 눈주변부분 영상을 추출하는 단계일 수 있다. In addition, the image extraction step S250 may be a step of extracting an eye portion image and an eye peripheral portion image by inputting the first image and the second image into a multilayer perceptron model.

보다 구체적으로, 영상 추출 단계(S250)는 다중층 인식망(Multilayer Perceptron) 모델을 통해 촬영된 영상으로부터 눈부분 영상 및 눈주변부분 영상을 추출할 수 있다. 본 발명의 일 실시예에 따른 인공 신경망은 컨볼루션 신경망(convolution neural network: CNN), 오토 인코더(auto encoder), 피드포워드 신경망(feedforward neural network), 방사 신경망(radial basis function network), 코헨 자기조직 신경망(kohonen self-organizing network), 순환 신경망(RNN: recurrent neural network), 다중층 인식망(Multilayer Perceptron) 등으로 구성될 수 있으며 본 발명은 이에 제한되지 않고 임의의 신경망을 포함할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.More specifically, the image extraction step S250 may extract an eye portion image and an eye peripheral portion image from an image photographed through a multilayer perceptron model. The artificial neural network according to an embodiment of the present invention includes a convolution neural network (CNN), an auto encoder, a feedforward neural network, a radial basis function network, and a Cohen self-organization. A neural network (kohonen self-organizing network), a recurrent neural network (RNN), a multilayer perception network (Multilayer Perceptron), etc. may be configured, and the present invention is not limited thereto, and may include any neural network. The above example is only an example for explaining the present disclosure, and the present disclosure is not limited thereto.

일 실시예에서, 동물 인식 방법(S200)은 추출된 영상들과 기저장된 영상들을 비교하여 특정 동물을 인식하는 영상 비교인식 단계(S270)를 포함할 수 있다. In one embodiment, the animal recognition method S200 may include an image comparison and recognition step S270 of recognizing a specific animal by comparing extracted images and pre-stored images.

보다 구체적으로, 영상 비교인식 단계(S270)는 영상 전처리 단계 및 동물 인식 단계를 포함할 수 있다. 영상 전처리 단계는 다중층 인식망(Multilayer Perceptron) 모델을 통해 추출된 눈부분 영상 및 눈주변부분 영상을 딥러닝 기반의 나선 신경망 모델(Convolutional Neural Network)에 입력하여, 각각 홍채 영상 및 눈주변 특징 부분 영상을 하나 이상 생성하고, 생성한 홍채 영상과 눈주변 특징 부분 영상의 크기를 정규화 시키고, 정규화된 홍채 영상 및 눈주변 특징 부분 영상을 부호화 시키는 단계일 수 있다. 동물 인식 단계는 부호화된 홍채 영상 및 눈주변 특징 부분 영상을 기저장된 영상들을 비교하여 특정 동물을 인식하는 단계일 수 있다. More specifically, the image comparison and recognition step S270 may include an image preprocessing step and an animal recognition step. In the image pre-processing step, the eye part image and the eye part image extracted through the multilayer perceptron model are input into a deep learning-based convolutional neural network, and the iris image and the peripheral feature part are respectively. It may be a step of generating one or more images, normalizing the size of the generated iris image and the feature partial image around the eye, and encoding the normalized iris image and the feature partial image around the eye. The animal recognition step may be a step of recognizing a specific animal by comparing pre-stored images with an encoded iris image and an eye area feature partial image.

홍채 영상은 홍채의 모양 또는 홍채의 색 중 어느 하나를 특징으로 하는 영상일 수 있고, 눈주변 특징 부분 영상은 눈꺼풀의 모양, 눈주변 털의 모양 또는 눈주변 털의 색 중 어느 하나를 특징으로 하는 영상일 수 있다. 정규화는 입력된 영상의 크기를 일정하게 하고, 중복 정보 포함을 최소화하기 위해 사용할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.The iris image may be an image characterized by either the shape of the iris or the color of the iris, and the partial image of features around the eye is characterized by any one of the shape of the eyelid, the shape of the hair around the eye, or the color of the hair around the eye. It can be an image. Normalization can be used to make the size of the input image constant and to minimize the inclusion of redundant information. The above example is only an example for explaining the present disclosure, and the present disclosure is not limited thereto.

일 실시예에서, 동물 인식 방법(S200)은 영상 비교인식 단계(S270)에서 인식한 결과를 출력하는 영상 출력 단계(S290)를 포함할 수 있다. 예를 들어, 분석한 결과는 촬영한 사진, 동물의 이름, 개체번호, 홍채 코드, 품종, 생년월일, 등록 지역 및 양육인 정보를 포함할 수 있다. 상기 예시는 본 개시를 설명하기 위한 예시일 뿐, 본 개시는 이에 제한되지 않는다.In an embodiment, the animal recognition method S200 may include an image output step S290 of outputting a result recognized in the image comparison and recognition step S270. For example, the analysis result may include a photographed picture, an animal's name, an individual number, an iris code, a breed, a date of birth, registration area, and caregiver information. The above example is only an example for explaining the present disclosure, and the present disclosure is not limited thereto.

이상의 설명은 본 발명의 기술적 사상을 예시적으로 설명한 것에 불과한 것으로, 통상의 기술자라면 본 발명의 본질적인 특성이 벗어나지 않는 범위에서 다양한 변경 및 수정이 가능할 것이다.The above description is merely illustrative of the technical spirit of the present invention, and those skilled in the art will be able to make various changes and modifications without departing from the essential characteristics of the present invention.

따라서, 본 명세서에 개시된 실시예들은 본 발명의 기술적 사상을 한정하기 위한 것이 아니라, 설명하기 위한 것이고, 이러한 실시예들에 의하여 본 발명의 범위가 한정되는 것은 아니다.Therefore, the embodiments disclosed in this specification are not intended to limit the technical spirit of the present invention, but to illustrate, and the scope of the present invention is not limited by these embodiments.

본 발명의 보호범위는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 이해되어야 한다.The scope of protection of the present invention should be interpreted by the claims, and it should be understood that all technical spirits within the scope equivalent thereto are included in the scope of the present invention.

Claims (13)

동물 인식 장치에 있어서,
제1 영상을 촬영하는 제1 촬상부;
제2 영상을 촬영하는 제2 촬상부; 및
상기 제1 촬상부와 제2 촬상부에서 촬영된 영상을 입력받아, 각각의 영상에서 각각 눈부분 영상 및 눈주변부분 영상을 추출하고, 추출된 영상들과 기저장된 영상들을 비교하여 특정 동물을 인식하는 제어부;
를 포함하는,
동물 인식 장치.
In the animal recognition device,
A first imaging unit for photographing a first image;
A second imaging unit for photographing a second image; And
Recognizes a specific animal by receiving an image captured by the first and second imaging units, extracting an eye area image and an eye area image from each image, and comparing the extracted images with pre-stored images A control unit;
Containing,
Animal recognition device.
제1항에 있어서,
피촬영물인 동물의 시선과 동작을 고정하는, 학습된 소리를 생성하여 출력하는 소리 출력부; 및
상기 제어부에서 인식한 결과를 출력하는 영상 출력부;
를 더 포함하는,
동물 인식 장치.
The method of claim 1,
A sound output unit for generating and outputting a learned sound that fixes the gaze and motion of an animal to be photographed; And
An image output unit outputting a result recognized by the control unit;
Further comprising,
Animal recognition device.
제2항에 있어서,
상기 학습된 소리는,
클릭커 소리 또는 녹음된 음성 중 적어도 하나인,
동물 인식 장치.
According to claim 2,
The learned sound is,
At least one of a clicker sound or a recorded voice,
Animal recognition device.
제1항에 있어서,
상기 제1 촬상부는 적외선 촬영장치이며,
상기 제2 촬상부는 가시광선 촬영장치인,
동물 인식 장치.
The method of claim 1,
The first imaging unit is an infrared imaging device,
The second imaging unit is a visible light imaging device,
Animal recognition device.
제1항에 있어서,
상기 제어부는,
상기 제1 영상 및 제2 영상을 다중층 인식망(Multilayer Perceptron) 모델에 입력하여, 상기 눈부분 영상 및 상기 눈주변부분 영상을 추출하는,
동물 인식 장치.
The method of claim 1,
The control unit,
Inputting the first image and the second image into a multilayer perceptron model to extract the eye part image and the eye area image,
Animal recognition device.
제5항에 있어서,
상기 제어부는,
상기 추출된 눈부분 영상 및 눈주변부분 영상을 딥러닝 기반의 나선 신경망 모델(Convolutional Neural Network)에 입력하여, 각각 홍채 영상 및 눈주변 특징 부분 영상을 하나 이상 생성하고, 상기 생성한 홍채 영상과 눈주변 특징 부분 영상의 크기를 정규화 시키고, 상기 정규화된 홍채 영상 및 눈주변 특징 부분 영상을 부호화 시키는 영상 전처리부; 및
상기 부호화된 홍채 영상 및 눈주변 특징 부분 영상을 기저장된 영상들을 비교하여 특정 동물을 인식하는 동물 인식부;
를 포함하는,
동물 인식 장치.
The method of claim 5,
The control unit,
By inputting the extracted eye portion image and eye peripheral portion image into a deep learning-based convolutional neural network model, each iris image and one or more eye peripheral feature portions are generated, and the generated iris image and eye An image preprocessor for normalizing the size of the peripheral feature partial image and encoding the normalized iris image and the eye peripheral feature partial image; And
An animal recognition unit for recognizing a specific animal by comparing the encoded iris image and the feature portion image around the eye with pre-stored images;
Containing,
Animal recognition device.
제6항에 있어서,
상기 홍채 영상은,
홍채의 모양 또는 홍채의 색 중 어느 하나를 특징으로 하는 영상인,
상기 눈주변 특징 부분 영상은,
눈꺼풀의 모양, 눈주변 털의 모양 또는 눈주변 털의 색 중 어느 하나를 특징으로 하는 영상인,
동물 인식 장치.
The method of claim 6,
The iris image,
An image characterized by either the shape of the iris or the color of the iris,
The partial image of the features around the eyes,
An image characterized by any one of the shape of the eyelid, the shape of the hair around the eyes, or the color of the hair around the eyes,
Animal recognition device.
동물 인식 방법에 있어서,
피촬영물인 동물의 시선과 동작을 고정하는, 학습된 소리를 생성하여 출력하는 소리 출력 단계;
상기 소리 출력단계에서, 학습된 소리의 출력이 완료되면, 제1 촬상부와 제2 촬상부에서 각각 촬영된 제1 영상 및 제2 영상이 입력되는 영상 입력 단계;
상기 영상 입력단계를 통해 입력된 제1 영상 및 제2 영상에서 각각 눈부분 영상 및 눈주변부분 영상을 추출하는 영상 추출 단계;
상기 추출된 영상들과 기저장된 영상들을 비교하여 특정 동물을 인식하는 영상 비교인식 단계; 및
상기 영상 비교인식 단계에서 인식한 결과를 출력하는 영상 출력 단계;
를 포함하는,
동물 인식 방법.
In the animal recognition method,
A sound output step of generating and outputting a learned sound for fixing the gaze and motion of an animal to be photographed;
An image input step of inputting a first image and a second image respectively photographed by a first image pickup unit and a second image pickup unit when output of the learned sound is completed in the sound output step;
An image extraction step of extracting an eye portion image and an eye peripheral portion image from the first image and the second image input through the image input step, respectively;
An image comparison and recognition step of recognizing a specific animal by comparing the extracted images and pre-stored images; And
An image output step of outputting a result recognized in the image comparison and recognition step;
Containing,
Animal recognition method.
제8항에 있어서,
상기 학습된 소리는,
클릭커 소리 또는 녹음된 음성 중 적어도 하나인,
동물 인식 방법.
The method of claim 8,
The learned sound is,
At least one of a clicker sound or a recorded voice,
Animal recognition method.
제8항에 있어서,
상기 제1 촬상부는 적외선 촬영장치이며,
상기 제2 촬상부는 가시광선 촬영장치인,
동물 인식 방법.
The method of claim 8,
The first imaging unit is an infrared imaging device,
The second imaging unit is a visible light imaging device,
Animal recognition method.
제8항에 있어서,
상기 영상 추출 단계는,
상기 제1 영상 및 제2 영상을 다중층 인식망(Multilayer Perceptron) 모델에 입력하여, 상기 눈부분 영상 및 상기 눈주변부분 영상을 추출하는 단계인,
동물 인식 방법.
The method of claim 8,
The image extraction step,
The step of extracting the eye part image and the eye area image by inputting the first image and the second image into a multilayer perceptron model,
Animal recognition method.
제8항에 있어서,
상기 영상 비교인식 단계는,
상기 추출된 눈부분 영상 및 눈주변부분 영상을 딥러닝 기반의 나선 신경망 모델(Convolutional Neural Network)에 입력하여, 각각 홍채 영상 및 눈주변 특징 부분 영상을 하나 이상 생성하고, 상기 생성한 홍채 영상과 눈주변 특징 부분 영상의 크기를 정규화 시키고, 상기 정규화된 홍채 영상 및 눈주변 특징 부분 영상을 부호화 시키는 영상 전처리 단계; 및
상기 부호화된 홍채 영상 및 눈주변 특징 부분 영상을 기저장된 영상들을 비교하여 특정 동물을 인식하는 동물 인식 단계;
를 포함하는,
동물 인식 방법.
The method of claim 8,
The image comparison and recognition step,
By inputting the extracted eye portion image and eye peripheral portion image into a deep learning-based convolutional neural network model, each iris image and one or more eye peripheral feature portions are generated, and the generated iris image and eye An image preprocessing step of normalizing the size of the peripheral feature partial image and encoding the normalized iris image and the eye peripheral feature partial image; And
An animal recognition step of recognizing a specific animal by comparing pre-stored images with the encoded iris image and the feature partial image around the eye;
Containing,
Animal recognition method.
제12항에 있어서,
상기 홍채 영상은,
홍채의 모양 또는 홍채의 색 중 어느 하나를 특징으로 하는 영상이고,
상기 눈주변 특징 부분 영상은,
눈꺼풀의 모양, 눈주변 털의 모양 또는 눈주변 털의 색 중 어느 하나를 특징으로 하는 영상인,
동물 인식 방법.
The method of claim 12,
The iris image,
It is an image characterized by either the shape of the iris or the color of the iris,
The partial image of the features around the eyes,
An image characterized by any one of the shape of the eyelid, the shape of the hair around the eyes, or the color of the hair around the eyes,
Animal recognition method.
KR1020190008680A 2019-01-23 2019-01-23 Animal Recognition Apparatus And Animal Recognition Method KR102161265B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190008680A KR102161265B1 (en) 2019-01-23 2019-01-23 Animal Recognition Apparatus And Animal Recognition Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190008680A KR102161265B1 (en) 2019-01-23 2019-01-23 Animal Recognition Apparatus And Animal Recognition Method

Publications (2)

Publication Number Publication Date
KR20200094840A true KR20200094840A (en) 2020-08-10
KR102161265B1 KR102161265B1 (en) 2020-09-29

Family

ID=72049625

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190008680A KR102161265B1 (en) 2019-01-23 2019-01-23 Animal Recognition Apparatus And Animal Recognition Method

Country Status (1)

Country Link
KR (1) KR102161265B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110060496A (en) * 2009-11-30 2011-06-08 삼성전자주식회사 Apparatus and method for capturing a pet
WO2017077676A1 (en) * 2015-11-05 2017-05-11 パナソニックIpマネジメント株式会社 Camera system, feeding system, imaging method, and imaging device
KR101862639B1 (en) 2017-05-30 2018-07-04 동국대학교 산학협력단 Device and method for iris recognition using convolutional neural network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110060496A (en) * 2009-11-30 2011-06-08 삼성전자주식회사 Apparatus and method for capturing a pet
WO2017077676A1 (en) * 2015-11-05 2017-05-11 パナソニックIpマネジメント株式会社 Camera system, feeding system, imaging method, and imaging device
KR101862639B1 (en) 2017-05-30 2018-07-04 동국대학교 산학협력단 Device and method for iris recognition using convolutional neural network

Also Published As

Publication number Publication date
KR102161265B1 (en) 2020-09-29

Similar Documents

Publication Publication Date Title
US20210378554A1 (en) Method and system for privacy-preserving health monitoring
da Costa et al. Dynamic features for iris recognition
CN106295313B (en) Object identity management method and device and electronic equipment
KR101901591B1 (en) Face recognition apparatus and control method for the same
Itqan et al. User identification system based on finger-vein patterns using convolutional neural network
KR20190016733A (en) Method for recognizing partial obscured face by specifying partial area based on facial feature point, recording medium and apparatus for performing the method
JP7192872B2 (en) Iris authentication device, iris authentication method, iris authentication program and recording medium
US11756338B2 (en) Authentication device, authentication method, and recording medium
KR102160137B1 (en) Apparatus and Method for Recognizing Fake Face By Using Minutia Data Variation
JP7010385B2 (en) Iris recognition device, iris recognition method, iris recognition program and recording medium
Omoyiola Overview of biometric and facial recognition techniques
CN114220130A (en) Non-contact gesture and palm print and palm vein fused identity recognition system and method
Rattani et al. Multi-biometric convolutional neural networks for mobile user authentication
KR102261175B1 (en) Animal Recognition Apparatus And Animal Recognition Method
WO2019137915A1 (en) Generating input data for a convolutional neuronal network
KR102161265B1 (en) Animal Recognition Apparatus And Animal Recognition Method
Mustafi et al. RetIS: Unique identification system of goats through retinal analysis
WO2019014521A1 (en) Dynamic image recognition system for security and telemedicine
Benalcazar et al. Toward an Efficient Iris Recognition System on Embedded Devices
Rabie et al. Nfc-based person-specific assisting system in home environment
Agarwal et al. A comparative study of facial, retinal, iris and sclera recognition techniques
Medjdoubi et al. Smart City Surveillance: Edge Technology Face Recognition Robot Deep Learning Based
WO2023229498A1 (en) Biometric identification system and method for biometric identification
KR102439216B1 (en) Method and server for recognizing face wearing mask using artificial intelligence deep learning
Abidin Swarm intelligence for iris recognition

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant