KR102197155B1 - 동물 종 인식 장치 및 방법 - Google Patents

동물 종 인식 장치 및 방법 Download PDF

Info

Publication number
KR102197155B1
KR102197155B1 KR1020190131533A KR20190131533A KR102197155B1 KR 102197155 B1 KR102197155 B1 KR 102197155B1 KR 1020190131533 A KR1020190131533 A KR 1020190131533A KR 20190131533 A KR20190131533 A KR 20190131533A KR 102197155 B1 KR102197155 B1 KR 102197155B1
Authority
KR
South Korea
Prior art keywords
image
input image
animal
data set
group
Prior art date
Application number
KR1020190131533A
Other languages
English (en)
Inventor
이의철
장우혁
Original Assignee
상명대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 상명대학교산학협력단 filed Critical 상명대학교산학협력단
Priority to KR1020190131533A priority Critical patent/KR102197155B1/ko
Application granted granted Critical
Publication of KR102197155B1 publication Critical patent/KR102197155B1/ko

Links

Images

Classifications

    • G06K9/00362
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/4652
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 일 실시 예에 따른 동물 종 인식 장치는 색상 정보에 따라 입력 영상의 그룹을 생성하는 그룹 생성부, 상기 그룹의 상기 입력 영상과 상기 그룹에 상응하는 데이터베이스 영상 및 라벨을 포함하는 데이터셋을 생성하는 데이터셋 생성부, 상기 데이터셋에 따라 샴 네트워크를 학습시키는 학습부 및 상기 샴 네트워크에 대상 영상을 입력하여 상기 대상 영상에 상응하는 종 인식 정보를 생성하는 인식부를 포함한다.

Description

동물 종 인식 장치 및 방법{APPARATUS AND METHOD FOR DETECTING ANIMAL SPECIES}
본 발명은 동물 종 인식 기술에 관한 것으로, 보다 상세하게는 딥 러닝을 통해 입력 영상의 동물에 해당하는 종을 인식하는 기술에 관한 것이다.
항공편이나 항만을 통해 다양한 물품 혹은 동물이 수입 및 수출이 되고 있다. 이 때, 특정 객체에 대한 통과 검사를 수행하는 과정에서 많은 시간과 큰 비용이 든다. 예를 들어, 멸종 위기 혹은 생태계 위험성 유발 가능성으로 인해 수입이 금지된 특이 동물 범주의 경우, 분류를 수행하는 사람이 직접 해당 동물의 종류를 검사해야 한다. 이 작업을 수행하기 위해서는 경우에 따라 해당 객체의 모든 종을 확인해봐야 하기 때문에 많은 시간이 소요된다. 따라서, 현실적으로 수동으로 통과 검사를 정확하게 수행하는 것이 어렵다는 문제가 존재한다.
본 발명의 배경기술은 대한민국 공개특허 제10-2016-0072768호에 개시되어 있다.
본 발명은 카메라 이미지로 분석하여 앵무새 등의 동물 종을 식별하기 때문에 사육사 또는 전문가가 아닌 사람이 시간과 비용을 많이 들지 않는 동물 종 인식 장치 및 방법을 제공한다.
본 발명의 일 측면에 따르면, 동물 종 인식 장치가 제공된다.
본 발명의 일 실시 예에 따른 동물 종 인식 장치는 색상 정보에 따라 입력 영상의 그룹을 생성하는 그룹 생성부, 상기 그룹의 상기 입력 영상과 상기 그룹에 상응하는 데이터베이스 영상 및 라벨을 포함하는 데이터셋을 생성하는 데이터셋 생성부, 상기 데이터셋에 따라 샴 네트워크를 학습시키는 학습부 및 상기 샴 네트워크에 대상 영상을 입력하여 상기 대상 영상에 상응하는 종 인식 정보를 생성하는 인식부를 포함할 수 있다.
상기 그룹 생성부는 상기 입력 영상을 HSV 도메인으로 변환하고, 색상(HUE) 정보에 따라 상기 입력 영상을 분류하고, 각 분류별 상기 그룹을 생성할 수 있다.
상기 데이터셋 생성부는 상기 입력 영상 및 상기 데이터베이스 영상의 짝에 대한 라벨을 입력 받아 상기 데이터셋을 생성할 수 있다.
상기 라벨은 상기 데이터베이스 영상 및 상기 입력 영상의 동물이 동종임을 나타내는 제뉴인(Genuine) 또는 상기 데이터베이스 영상 및 상기 입력 영상의 동물이 이종임을 나타내는 임포스터(Imposter)로 설정될 수 있다.
본 발명의 다른 측면에 따르면, 동물 종 인식 장치가 동물 종을 인식하는 방법을 제공한다.
본 발명의 일 실시 예에 따른 동물 종 인식 방법은 색상 정보에 따라 입력 영상의 그룹을 생성하는 단계, 상기 그룹의 상기 입력 영상과 상기 그룹에 상응하는 데이터베이스 영상 및 라벨을 포함하는 데이터셋을 생성하는 단계, 상기 데이터셋에 따라 샴 네트워크를 학습시키는 단계 및 상기 샴 네트워크에 대상 영상을 입력하여 상기 대상 영상에 상응하는 종 인식 정보를 생성하는 단계를 포함할 수 있다.
상기 색상 정보에 따라 입력 영상의 그룹을 생성하는 단계는 상기 입력 영상을 HSV 도메인으로 변환하고, 색상(HUE) 정보에 따라 상기 입력 영상을 분류하고, 각 분류별 상기 그룹을 생성하는 단계일 수 있다.
상기 그룹의 상기 입력 영상과 상기 그룹에 상응하는 데이터베이스 영상 및 라벨을 포함하는 데이터셋을 생성하는 단계는 상기 입력 영상 및 상기 데이터베이스 영상의 짝에 대한 라벨을 입력 받아 상기 데이터셋을 생성하는 단계일 수 있다.
상기 라벨은 상기 데이터베이스 영상 및 상기 입력 영상의 동물이 동종임을 나타내는 제뉴인(Genuine) 또는 상기 데이터베이스 영상 및 상기 입력 영상의 동물이 이종임을 나타내는 임포스터(Imposter)로 설정될 수 있다.
본 발명의 또 다른 측면에 따르면, 상기 동물 범주 포함 확인 방법을 실행하고 컴퓨터가 판독 가능한 기록매체에 기록된 컴퓨터 프로그램이 제공된다.
본 발명의 일 실시 예에 따르면, 카메라 이미지로 분석하여 앵무새 등의 동물 종을 식별하기 때문에 사육사 또는 전문가가 아닌 사람이 시간과 비용을 많이 들지 않고도 동물 종을 인식할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 동물 종 인식 장치를 예시한 도면.
도 2는 본 발명의 일 실시 예에 따른 동물 종 인식 장치가 이용하는 데이터베이스 영상을 예시한 도면.
도 3은 본 발명의 일 실시 예에 따른 동물 종 인식 장치가 생성하는 데이터셋을 예시한 도면.
도 4는 본 발명의 일 실시 예에 따른 동물 종 인식 장치가 사용하는 샴 네트워크를 예시한 도면.
도 5는 본 발명의 일 실시 예에 따른 동물 종 인식 장치가 동물 종을 인식하는 과정을 예시한 개념도.
도 6은 본 발명의 일 실시 예에 따른 동물 종 인식 장치가 수행하는 동물 종 인식 방법을 예시한 순서도.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서 및 청구항에서 사용되는 단수 표현은, 달리 언급하지 않는 한 일반적으로 "하나 이상"을 의미하는 것으로 해석되어야 한다.
이하, 본 발명의 바람직한 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 일 실시 예에 따른 동물 종 인식 장치를 예시한 도면이고, 도 2는 본 발명의 일 실시 예에 따른 동물 종 인식 장치가 이용하는 데이터베이스 영상을 예시한 도면이고, 도 3은 본 발명의 일 실시 예에 따른 동물 종 인식 장치가 생성하는 데이터셋을 예시한 도면이고, 도 4는 본 발명의 일 실시 예에 따른 동물 종 인식 장치가 사용하는 샴 네트워크를 예시한 도면이고, 도 5는 본 발명의 일 실시 예에 따른 동물 종 인식 장치가 동물 종을 인식하는 과정을 예시한 개념도이다.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 동물 종 인식 장치는 그룹 생성부(110), 데이터셋 생성부(120), 학습부(130) 및 인식부(140)를 포함한다.
그룹 생성부(110)는 동물을 촬영한 영상인 입력 영상을 HSV 도메인으로 변환하고, 변환된 영상의 색상(Hue) 정보에 따라 각 입력 영상을 분류하고, 각 분류별 그룹을 생성한다. 예를 들어, 그룹 생성부(110)는 앵무새를 촬영한 복수의 입력 영상을 HSV 도메인으로 변환하고, 각 입력 영상의 색상에 따라 흰색 계열, 붉은 색 계열, 파란색 계열, 회색 계열의 앵무새를 포함하는 입력 영상 그룹을 각각 생성할 수 있다. 이 때, 그룹 생성부(110)는 각 입력 영상에서 동물의 머리 부분에 해당하는 영역을 추출하고, 해당 영역에 대한 색상 정보에 따라 그룹을 생성할 수 있다. 더욱 구체적으로 그룹 생성부(110)는 해당 영역에 대한 색상(Hue)의 히스토그램 정보를 이용하여 마할라노비스 거리(Mahalanobis distance)로 그룹화할 수 있다.
데이터셋 생성부(120)는 각 그룹 별 인식 해야 하는 동물 종 별 영상(이하, 데이터베이스 영상이라 지칭)과 입력 영상 그룹의 입력 영상의 짝을 설정하고, 각 짝에 대한 라벨(label)을 사용자로부터 입력 받고, 데이터베이스 영상, 입력 영상 그룹 및 라벨을 포함하는 데이터셋을 생성한다. 데이터셋 생성부(120)는 데이터셋을 학습부(130)로 전송한다. 즉, 데이터셋 생성부(120)는 데이터베이스에 도 2와 같은 종 별 데이터베이스 영상 및 입력 영상에 대한 라벨을 입력 받아 도 3과 같이 데이터셋을 생성할 수 있다. 이 때, 라벨은 데이터베이스 영상 및 입력 영상의 동물이 동종임을 나타내는 제뉴인(Genuine) 또는 데이터베이스 영상 및 입력 영상의 동물이 이종임을 나타내는 임포스터(Imposter)로 설정될 수 있다.
학습부(130)는 데이터셋을 이용하여 샴 네트워크(Siamese Network)를 학습시킨다. 샴 네트워크는 두 개의 이미지를 각각 하나의 네트워크에 입력하여 최종적으로 두 이미지가 같은 클래스(class) 인지에 대한 확률값을 출력하는 네트워크이다. 샴 네트워크의 가장 큰 특징은 샴 네트워크를 구성하는 두 개의 네트워크가 대칭성을 이루어서 각 네트워크의 컨볼루셔널 레이어(Convolutional layer)의 가중치(weight)값이 공유된다는 점이다. 학습부(130)는 데이터셋의 각 짝을 네트워크에 입력하여 컨볼루셔날 레이어를 거쳐 나온 특징맵(feature map)을 추출하고 완전 연결 레이어(Fully-connected layer)를 이용하여 나오는 특징(feature)을 하기의 수학식 1을 통해 L1을 산출하고, 시그모이드 함수를 통해 0부터 1 사이의 확률값을 통해 샴 네트워크를 학습시킬 수 있다.
Figure 112019107915625-pat00001
n = 입력 영상 개수
또한, 학습부(130)는 하기의 수학식 2에 따른 손실함수에 따라 샴 네트워크를 학습시킬 수 있다.
Figure 112019107915625-pat00002
W는 표준편차가 0인 평균 가우스 분포로
Figure 112019107915625-pat00003
의 노드수이다.
Figure 112019107915625-pat00004
은 두 이미지에 대한 정답 값이고,
Figure 112019107915625-pat00005
은 두 이미지에 대한 예측값이다. 여기서 i 인덱스는 minibatch 단위이고,
Figure 112019107915625-pat00006
로 정의된다.
이 때, 컨볼루셔널 레이어는 ResNet, MobileNetV2, VGG 등의 아키텍쳐로 구성될 수 있다. 예를 들어, 컨볼루셔널 레이어는 ResNet-34로 구성될 수 있고, 가중치 초기화는 “He Normal”에 따라 초기화될 수 있다. 즉, 학습부(130)는 kernel_regularizer에 parameter 값은 l2(1e-4)l값으로 설정할 수 있고, learning_rate는 0.5로 시작하여 epoch마다 오차가 정점 일 때 1%씩 균일하게 감소시키고, optimizer 함수를 Adam(0.001)로 설정할 수 있다.
인식부(140)는 학습된 샴 네트워크를 이용하여 인식 대상이 촬영된 대상 영상에 대한 종 인식을 수행하고, 대상 영상에 대한 종을 나타내는 종 인식 정보를 생성한다.
도 5를 참조하면, 그룹 생성부(110)는 입력 영상을 HSV 도메인으로 변환하여 색상 정보를 생성하고, 색상 정보에 따라 입력 영상을 아래 수학식 3의 마할라노비스거리(Mahalanobis distance)를 이용하여 흰색 계열, 붉은색 계열, 파란색 계열, 회색 계열로 분류한 그룹을 생성할 수 있다.
Figure 112019107915625-pat00007
데이터셋 생성부(120)는 각 그룹별로 구비된 데이터베이스 영상과 입력 영상을 쌍으로 하고, 해당 쌍에 대한 라벨을 포함하는 데이터셋을 생성할 수 있다.
학습부(130)는 데이터셋을 통해 각 그룹에 대한 샴 네트워크를 학습할 수 있다. 즉, 학습부(130)는 색상별 샴 네트워크에 대한 학습을 각각 진행하여 각 샴 네트워크는 특정 색상에 대응하는 동물 종 인식을 정확하게 수행할 수 있다.
인식부(140)는 학습된 샴 네트워크에 대상 영상을 입력하여 대상 영상이 속한 동물의 종을 나타내는 종 인식 정보를 생성할 수 있다.
도 6은 본 발명의 일 실시 예에 따른 동물 종 인식 장치가 수행하는 동물 종 인식 방법을 예시한 순서도이다. 이하 설명하는 각 단계는 동물 종 인식 장치를 구성하는 각 기능부를 통해 수행되는 과정이나, 발명의 간결하고 명확한 설명을 위해 각 단계의 주체를 동물 종 인식 장치로 통칭하도록 한다.
도 6을 참조하면, 단계 610에서 동물 종 인식 장치는 입력 영상에서 색상 정보를 추출하고, 색상 정보에 따라 입력 영상의 그룹을 생성한다. 예를 들어, 동물 종 인식 장치는 입력 영상을 HSV 도메인으로 변환하고, 변환된 영상의 색상 정보에 따라 각 입력 영상을 분류하고, 각 분류별 그룹을 생성한다.
단계 620에서 동물 종 인식 장치는 각 그룹에 대응하는 데이터베이스 영상과 그룹의 입력 영상의 짝을 설정하고, 각 짝에 대한 라벨(label)을 사용자로부터 입력 받고, 데이터베이스 영상, 입력 영상 그룹 및 라벨을 포함하는 데이터셋을 생성한다.
단계 630에서 동물 종 인식 장치는 데이터셋을 통해 각 그룹에 대응하는 샴 네트워크를 학습시킨다.
단계 640에서 동물 종 인식 장치는 학습된 샴 네트워크를 이용하여 인식 대상이 촬영된 대상 영상에 대한 종 인식을 수행하고, 대상 영상에 대한 종을 나타내는 종 인식 정보를 생성한다.
따라서, 본 발명의 일 실시 예에 따른 동물 종 인식 장치는 동물을 색을 기준으로 1차적으로 분류하여 그룹을 생성하고, 2차로 세부적인 시각 특징을 샴 네트워크를 통해 인식하여 동물의 종을 인식하여 동물 종을 정확하게 인식할 수 있다.
상술한 동물 종 인식 방법은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비형 하드 디스크)일 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.
이상에서, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.
도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시 예 들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.
이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (9)

  1. 입력 영상에서 동물의 머리 부분에 해당하는 영역을 추출하여 HSV 도메인으로 변환하고, 색상(HUE) 정보에 따라 상기 입력 영상을 흰색 계열, 붉은 색 계열, 파란색 계열, 회색 계열로 분류하고, 상기 분류된 영역에 대한 색상(HUE)의 히스토그램 정보를 이용하여 마할라노비스 거리로 그룹화하는 그룹 생성부;
    상기 입력 영상 및 그룹에 상응하는 데이터베이스 영상의 짝에 대한 라벨을 입력 받아 데이터셋을 생성하는 데이터셋 생성부;
    상기 데이터셋에 따라 샴 네트워크를 학습시키는 학습부; 및
    상기 샴 네트워크에 대상 영상을 입력하여 상기 대상 영상에 상응하는 종 인식 정보를 생성하는 인식부를 포함하되,
    상기 라벨은 상기 데이터베이스 영상 및 상기 입력 영상의 동물이 동종임을 나타내는 제뉴인(Genuine) 또는 상기 데이터베이스 영상 및 상기 입력 영상의 동물이 이종임을 나타내는 임포스터(Imposter)로 설정되고,
    상기 학습부는 상기 데이터셋의 각 짝을 네트워크에 입력하고, ResNet-34 로 구성되는 컨볼루셔널 레이어를 거쳐 나온 특징맵을 추출하고, 완전 연결 레이어를 이용하여 나오는 특징을 하기의 수학식 1을 통해 L1을 산출하고, 시그모이드 함수를 이용하여 0부터 1 사이의 확률값을 통해 상기 샴 네트워크를 학습시키는 것을 특징으로 하는 동물 종 인식 장치.
    [수학식 1]
    Figure 112020134823782-pat00014

  2. 삭제
  3. 삭제
  4. 삭제
  5. 입력 영상에서 동물의 머리 부분에 해당하는 영역을 추출하여 HSV 도메인으로 변환하고, 색상(HUE) 정보에 따라 상기 입력 영상을 흰색 계열, 붉은 색 계열, 파란색 계열, 회색 계열로 분류하고, 상기 분류된 영역에 대한 색상(HUE)의 히스토그램 정보를 이용하여 마할라노비스 거리로 그룹화하는 단계;
    상기 입력 영상 및 그룹에 상응하는 데이터베이스 영상의 짝에 대한 라벨을 입력 받아 데이터셋을 생성하는 단계;
    상기 데이터셋에 따라 샴 네트워크를 학습시키는 단계; 및
    상기 샴 네트워크에 대상 영상을 입력하여 상기 대상 영상에 상응하는 종 인식 정보를 생성하는 단계를 포함하되,
    상기 라벨은 상기 데이터베이스 영상 및 상기 입력 영상의 동물이 동종임을 나타내는 제뉴인(Genuine) 또는 상기 데이터베이스 영상 및 상기 입력 영상의 동물이 이종임을 나타내는 임포스터(Imposter)로 설정되고,
    상기 데이터셋에 따라 샴 네트워크를 학습시키는 단계는 상기 데이터셋의 각 짝을 네트워크에 입력하고, ResNet-34 로 구성되는 컨볼루셔널 레이어를 거쳐 나온 특징맵을 추출하고, 완전 연결 레이어를 이용하여 나오는 특징을 하기의 수학식 1을 통해 L1을 산출하고, 시그모이드 함수를 이용하여 0부터 1 사이의 확률값을 통해 상기 샴 네트워크를 학습시키는 것을 특징으로 하는 동물 종 인식 방법.
    [수학식 1]
    Figure 112020503426208-pat00015

  6. 삭제
  7. 삭제
  8. 삭제
  9. 제5항의 동물 종 인식 방법을 실행하고 컴퓨터가 판독 가능한 기록매체에 기록된 컴퓨터 프로그램.

KR1020190131533A 2019-10-22 2019-10-22 동물 종 인식 장치 및 방법 KR102197155B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190131533A KR102197155B1 (ko) 2019-10-22 2019-10-22 동물 종 인식 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190131533A KR102197155B1 (ko) 2019-10-22 2019-10-22 동물 종 인식 장치 및 방법

Publications (1)

Publication Number Publication Date
KR102197155B1 true KR102197155B1 (ko) 2020-12-31

Family

ID=74087607

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190131533A KR102197155B1 (ko) 2019-10-22 2019-10-22 동물 종 인식 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102197155B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196515A (ja) * 2012-03-21 2013-09-30 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム。
US20190114333A1 (en) * 2017-10-13 2019-04-18 International Business Machines Corporation System and method for species and object recognition
JP2019528520A (ja) * 2016-08-31 2019-10-10 富士通株式会社 文字認識のための分類ネットワークの訓練装置、文字認識装置及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196515A (ja) * 2012-03-21 2013-09-30 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム。
JP2019528520A (ja) * 2016-08-31 2019-10-10 富士通株式会社 文字認識のための分類ネットワークの訓練装置、文字認識装置及び方法
US20190114333A1 (en) * 2017-10-13 2019-04-18 International Business Machines Corporation System and method for species and object recognition

Similar Documents

Publication Publication Date Title
Koh et al. Concept bottleneck models
Rigotti et al. Attention-based interpretability with concept transformers
KR100442834B1 (ko) 얼굴/유사얼굴 영상으로 학습된 패턴 분류기를 이용한얼굴 검출 방법 및 시스템
CN110414541B (zh) 用于识别物体的方法、设备和计算机可读存储介质
Mani et al. Point and ask: Incorporating pointing into visual question answering
WO2020023760A1 (en) System and method for clustering products by combining attribute data with image recognition
KR102563550B1 (ko) 읽기 전용 프롬프트 학습 방법 및 장치
US20230419170A1 (en) System and method for efficient machine learning
McEvoy et al. Deep transfer learning can be used for the detection of hip joints in pelvis radiographs and the classification of their hip dysplasia status
KR20220094967A (ko) 우울증 진단을 위한 인공지능 연합학습 방법 및 시스템
Kundu et al. Vision transformer based deep learning model for monkeypox detection
CN115860152A (zh) 一种面向人物军事知识发现的跨模态联合学习方法
US20220044329A1 (en) Predictive System for Request Approval
Sun et al. Local relation network with multilevel attention for visual question answering
Liu et al. Zero-Shot Object Detection by Semantics-Aware DETR with Adaptive Contrastive Loss
Balgi et al. Contradistinguisher: a vapnik’s imperative to unsupervised domain adaptation
Lv et al. A color distance model based on visual recognition
Kanjanawattana et al. Deep Learning-Based Emotion Recognition through Facial Expressions
KR102197155B1 (ko) 동물 종 인식 장치 및 방법
Rasekh et al. Ecor: Explainable clip for object recognition
Srivastava Addressing Spurious Correlations in Machine Learning Models: A Comprehensive Review
Miró-Nicolau et al. A novel approach to generate datasets with XAI ground truth to evaluate image models
CN114022698A (zh) 一种基于二叉树结构的多标签行为识别方法及装置
Zhang et al. DCNet: Weakly Supervised Saliency Guided Dual Coding Network for Visual Sentiment Recognition
Higa Dog Breed Classification Using Convolutional Neural Networks: Interpreted Through a Lockean Perspective

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant