KR101334858B1 - 나비종 자동분류 시스템 및 방법, 이를 이용한 나비종 자동분류 기능이 구비된 휴대 단말기 - Google Patents

나비종 자동분류 시스템 및 방법, 이를 이용한 나비종 자동분류 기능이 구비된 휴대 단말기 Download PDF

Info

Publication number
KR101334858B1
KR101334858B1 KR1020120107566A KR20120107566A KR101334858B1 KR 101334858 B1 KR101334858 B1 KR 101334858B1 KR 1020120107566 A KR1020120107566 A KR 1020120107566A KR 20120107566 A KR20120107566 A KR 20120107566A KR 101334858 B1 KR101334858 B1 KR 101334858B1
Authority
KR
South Korea
Prior art keywords
butterfly
species
data
classification
neural network
Prior art date
Application number
KR1020120107566A
Other languages
English (en)
Inventor
강승호
이상희
Original Assignee
기초과학연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 기초과학연구원 filed Critical 기초과학연구원
Priority to KR1020120107566A priority Critical patent/KR101334858B1/ko
Application granted granted Critical
Publication of KR101334858B1 publication Critical patent/KR101334858B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에 따르면, 종분류가 확인된 나비종 기준영상으로부터 각 나비종의 날개의 윤곽선에 대한 복수 개의 특징점을 기준으로 하는 BLS(Branch Length Similarity)엔트로피 데이터를 추출하고, 추출한 BLS엔트로피 데이터를 다층 퍼셉트론 신경망에 입력하여 상기 각 나비종의 윤곽선을 학습하여 분류하되, 상기 나비종 기준영상으로부터 각 나비종의 날개의 윤곽선에 대한 복수 개의 특징점을 추출하는 윤곽선데이터 추출부(110); 추출된 복수 개의 특징점으로부터 BLS엔트로피 데이터를 추출하고, 추출된 BLS엔트로피 데이터를 입력층, 은닉층 및 출력층의 구조를 갖는 다층 퍼셉트론 신경망에 입력하여 학습된 신경망 분류데이터를 획득하는 학습부(120); 및 획득된 신경망 분류데이터를 저장하는 데이터베이스(130);를 포함하는 나비종 자동분류 시스템을 개시한다.

Description

나비종 자동분류 시스템 및 방법, 이를 이용한 나비종 자동분류 기능이 구비된 휴대 단말기{Automatic Butterfly Species Identification System And Method, And Portable Terminal Having Automatic Butterfly Species Identification Function Using The Same}
본 발명은 나비종 자동분류 시스템 및 방법, 이를 이용한 나비종 자동분류 기능이 구비된 휴대 단말기에 관한 것으로, 보다 상세하게는 종분류가 확인되지 않은 미확인 나비영상으로부터 나비 날개의 윤곽선의 특징점을 추출하고 이를 바탕으로 해당 나비의 나비종을 인지하여 분류하는 나비종 자동분류 시스템 및 방법, 이를 이용한 나비종 자동분류 기능이 구비된 휴대 단말기에 관한 것이다.
일반적으로 나비의 발달과정 및 행동 양식, 진화 과정 등을 이해하기 위해서 나비종에 대한 자동 분류 및 인지 시스템의 개발이 요구되고 있다. 이러한 요구에 부응해 나비 영상정보를 이용한 자동 분류 및 인지 시스템들이 제안되고 있으나, 컬러 이미지에 한정된 복잡한 특징 추출방법의 사용으로 인해 실제 현장에서 촬영된 나비에 대한 즉각적인 분류 및 인지를 어렵게 하고 있다.
보다 구체적으로 설명하면, 종래의 곤충의 분류/인지 시스템에서는 분류 대상 곤충의 촬상 영상에서 색 정보를 추출하고 추출된 색 정보에 웨이블릿 변환을 적용, 웨이블릿 계수를 영상의 특징으로 사용하였다. 그러나, 나비의 날개 색상정보를 기초데이터로 이용하기 때문에 컬러 이미지에 국한해 사용이 가능하며, 추출된 색 정보를 웨이블릿으로 변환하고 이로부터 웨이블릿 계수를 추출하는 작업 등은 많은 컴퓨터 파워를 필요로 하며 웨이블릿 변환을 위한 수학적 라이브러리 등을 구현해야 하는 등으로 제한된 컴퓨터 자원을 가진 휴대 단말기에서는 사용하기 곤란한 단점이 있었다. 즉, 복잡한 프로세싱이 요구되어 범용의 컴퓨터를 이용해야만 하는 어려움 때문에 야외와 같은 현장에서 촬영된 미확인 나비영상의 직접적인 확인이 제한되는 문제점이 있었다.
한국 공개특허공보 제2009-0049930호(2009.05.19), 곤충의 분류/인지 시스템 및 분류 방법
본 발명은 상술한 문제점을 해결하기 위하여 창출된 것으로, 본 발명의 목적은 종분류가 확인되지 않은 미확인 나비영상의 컬러 여부와 상관없이 윤곽(Contour) 정보만을 이용해 BLS엔트로피를 계산하고 이를 사전에 학습된 인공신경망에 입력함으로써 스마트폰 등과 같이 제한된 컴퓨터 자원을 가진 휴대 단말기로도 현장에서 촬영과 동시에 나비종에 대한 정보를 바로 확인할 수 있는 나비종 자동분류 시스템 및 방법, 이를 이용한 나비종 자동분류 기능이 구비된 휴대 단말기를 제공하는 것에 있다.
상기의 목적을 달성하기 위한 본 발명에 따른 나비종 자동분류 시스템은 종분류가 확인된 나비종 기준영상으로부터 각 나비종의 날개의 윤곽선에 대한 복수 개의 특징점을 기준으로 하는 BLS(Branch Length Similarity)엔트로피 데이터를 추출하고, 추출한 BLS엔트로피 데이터를 다층 퍼셉트론 신경망에 입력하여 상기 각 나비종의 윤곽선을 학습하여 분류하되, 상기 나비종 기준영상으로부터 각 나비종의 날개의 윤곽선에 대한 복수 개의 특징점을 추출하는 윤곽선데이터 추출부(110); 추출된 복수 개의 특징점으로부터 BLS엔트로피 데이터를 추출하고, 추출된 BLS엔트로피 데이터를 입력층, 은닉층 및 출력층의 구조를 갖는 다층 퍼셉트론 신경망에 입력하여 학습된 신경망 분류데이터를 획득하는 학습부(120); 및 획득된 신경망 분류데이터를 저장하는 데이터베이스(130);를 포함한다.
상기의 목적을 달성하기 위한 본 발명에 따른 나비종 자동분류 방법은, 종분류가 확인된 나비종 기준영상으로부터 각 나비종의 날개의 윤곽선에 대한 복수 개의 특징점을 기준으로 하는 BLS(Branch Length Similarity)엔트로피 데이터를 추출하고, 추출한 BLS엔트로피 데이터를 다층 퍼셉트론 신경망에 입력하여 상기 각 나비종의 윤곽선을 학습하여 분류하되, 상기 종분류가 확인된 나비종 기준영상으로부터 각 나비종의 날개의 윤곽선에 대한 복수 개의 특징점을 추출하는 윤곽선데이터 추출 단계(S210); 추출된 복수 개의 특징점으로부터 BLS엔트로피 데이터를 추출하고, 추출된 BLS엔트로피 데이터를 입력층, 은닉층 및 출력층의 구조를 갖는 다층 퍼셉트론 신경망에 입력하여 학습된 신경망 분류데이터를 획득하는 학습 단계(S230); 및 획득된 신경망 분류데이터를 데이터베이스(130)에 저장하는 신경망 분류데이터 저장 단계(S250);를 포함한다.
상기의 목적을 달성하기 위한 본 발명에 따른 나비종 자동분류 기능이 구비된 휴대 단말기는, 임의의 나비를 촬영하여 종분류가 확인되지 않은 미확인 나비영상을 획득하는 영상촬영부(310); 종분류가 확인된 나비종 기준영상으로부터 각 나비종의 날개의 윤곽선에 대한 복수 개의 특징점을 기준으로 하는 BLS(Branch Length Similarity)엔트로피 데이터를 추출하고, 추출한 BLS엔트로피 데이터를 다층 퍼셉트론 신경망에 입력하여 학습된 신경망 분류데이터가 프로그램화되어 저장되며, 획득된 상기 미확인 나비영상이 저장되는 데이터베이스(330); 상기 미확인 나비영상으로부터 해당 나비의 날개의 윤곽선에 대한 복수 개의 특징점을 추출하는 윤곽선데이터 추출부(320); 상기 윤곽선데이터 추출부(320)로부터 추출된 복수 개의 특징점을 기준으로 하는 BLS(Branch Length Similarity)엔트로피 데이터를 추출하고, 추출된 BLS엔트로피 데이터를 상기 신경망 분류데이터에 입력벡터로 입력하며, 상기 입력벡터의 입력에 따른 출력벡터 중 가장 큰 값을 갖는 요소에 해당하는 나비종을 해당 나비의 나비종인 것을 분류하는 분류부(340); 및 상기 분류부(340)에 의해 분류된 나비종 분류결과를 이미지, 문자 또는 음성을 통해 표시하는 표시부(350);를 포함한다.
본 발명에 따른 나비종 자동분류 시스템 및 방법, 이를 이용한 나비종 자동분류 기능이 구비된 휴대 단말기에 의하면, 종분류가 확인되지 않은 미확인 나비영상의 컬러 여부와 상관없이 윤곽(Contour) 정보만을 이용해 BLS엔트로피를 계산하고 이를 사전에 학습된 인공신경망에 입력함으로써 스마트폰 등과 같이 제한된 컴퓨터 자원을 가진 휴대 단말기로도 현장에서 촬영과 동시에 나비종에 대한 정보를 바로 확인할 수 있어 사용자의 편의가 극대화된다.
또한, 이러한 따른 나비종 자동분류 시스템 및 방법, 이를 이용한 나비종 자동분류 기능이 구비된 휴대 단말기 등과 같은 나비종의 자동분류 기술은 나비의 발달과정이나 행동 연구 및 진화과정에 대한 연구에 필요한 기술로써 관련 연구자들에 큰 도움이 될 것이며, 특히 야외에서 촬영된 나비를 현장에서 직접 나비종을 확인할 수 있으므로 나비종의 다양성 확인 및 새로운 종의 발견에도 도움이 될 것이다. 더불어, 학교 등에서의 학습 도구로의 유용성도 있다.
도 1은 본 발명의 바람직한 실시예에 따른 나비종 자동분류 시스템의 구성을 나타낸 블록도,
도 2는 본 발명의 바람직한 실시예에 따른 윤곽선데이터 추출부를 통해 나비종 기준영상 및 미확인 나비영상으로부터 나비 날개의 윤곽선을 추출하는 동작원리를 나타낸 개략도,
도 3 및 도 4는 본 발명의 바람직한 실시예에 따른 학습부를 통해 나비 날래의 윤곽선에 대한 복수 개의 특징점을 추출하는 동작원리를 나타낸 개략도,
도 5는 본 발명의 바람직한 실시예에 따른 학습부를 통해 BLS엔트로피 데이터를 추출하는 동작원리를 나타낸 개략도,
도 6는 본 발명의 바람직한 실시예에 따른 다층 퍼셉트론 신경망의 구조를 나타낸 개략도,
도 7은 본 발명의 바람직한 실시예에 따른 나비종 자동분류 방법의 순서를 나타낸 순서도,
도 8은 본 발명의 바람직한 실시예에 따른 휴대 단말기의 구성을 나타낸 블록도이다.
이하 첨부된 도면을 참조하면서 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
본 발명의 실시예에 대하여 설명하기에 앞서, 이하에서 설명되는 몇가지 용어들을 정의한다. 이하에서 언급되는 "나비종 기준영상"은 종분류가 확인된 나비의 날개를 촬영한 영상데이터로서 각 영상별 해당 나비의 종분류 정보가 매칭되어 저장될 수 있다. 또한, "미확인 나비영상"은 종분류가 확인되지 않은 나비의 날개를 촬영한 영상데이터로서 야외 등의 현장에서 사용자에 의해 촬영된 나비의 영상일 수 있다.
먼저, 도 1 내지 도 6를 참조하여 본 발명의 바람직한 실시예에 따른 나비종 자동분류 시스템(100)의 구성 및 기능을 설명하기로 한다.
본 발명의 바람직한 실시예에 따른 나비종 자동분류 시스템(100)은, 종분류가 확인된 나비종 기준영상으로부터 각 나비종의 날개의 윤곽선에 대한 복수 개의 특징점을 기준으로 하는 BLS(Branch Length Similarity)엔트로피 데이터를 추출하고, 추출한 BLS엔트로피 데이터를 다층 퍼셉트론 신경망에 입력하여 상기 각 나비종의 윤곽선을 학습하여 분류하는 시스템으로서, 도 1에 도시된 바와 같이 윤곽선데이터 추출부(110), 학습부(120), 데이터베이스(130), 분류부(140) 및 표시부(150)를 포함하여 구비된다.
상기 윤곽선데이터 추출부(110)는 상기 나비종 기준영상으로부터 각 나비종의 날개의 윤곽선(Contour)에 대한 복수 개의 특징점을 추출하는 구성요소로서, 도 2에 도시된 바와 같이 나비종 기준영상(도 2의 A)에서 나비의 날개에 해당하는 부분은 '1(흑색)'로 날개에 해당하지 않는 부분은 '0(백색)'으로 표시되는 이진 영상(Binary Image)이 되도록 변환(도 2의 B)한 후, '1'로 이루어진 영역에 대한 윤곽선데이터를 추출(도 2의 C)하며, 추출된 윤곽선 데이터 상에서 해당 나비의 날개의 형상에 대한 특징을 나타내는 복수 개의 특징점을 추출한다.
도 3 및 도 4를 참고하여 보다 구체적으로 설명하면, 상기 윤곽선데이터 추출부(110)는, 상기 나비종 기준영상으로부터 나비의 한쪽 날개에 대한 전체 윤곽선을 추출하되, 도 3에 도시된 바와 같이 상기 전체 윤곽선 내에서 거리가 가장 먼 두 개의 점(xt,xb)을 선택하여 선분 xtxb를 균등하게 이분하는 점(xc)을 추출하고, 상기 점(xc)를 포함하고 선분 xtxb에 수직인 선분(L1)을 중심으로 선분 xtxb의 일정비율 거리(D)에 해당하는 상,하 윤곽선 영역을 선정하며, 상기 상,하 윤곽선 영역에 해당하는 좌,우측의 두 윤곽선 상에서 가장 짧은 거리에 위치한 두 점(xl,xr)을 선택하여 선분 xlxr을 이분하는 중심점(xo)를 추출하고, 상기 점(xl) 또는 점(xr)을 첫 번째 특징점으로 하며 도 4에 도시된 바와 같이 중심점(xo)를 중심으로 상기 첫 번째 특징점으로부터 상기 시계 방향 또는 반시계 방향으로 일정간격 회전하며 전체 윤곽선 상에 위치한 점들을 이후 특징점으로 추출하여 복수 개의 특징점을 추출할 수 있다.
여기서, 상기 일정비율 거리(D)는 상기 선분xtxb의 전체 길이에 대하여 미리 설정된 일정비율에 해당하는 거리로서, 도면에서는 20%의 비율에 해당하는 거리를 예시하였다. 또한, 상기 상,하 윤곽선 영역은 상기 선분(L1)을 중심으로 상부로 20%비율거리에 상기 선분(L1)과 평행하게 배치되는 상부 임계선(L2)의 하부 영역과 상기 선분(L1)을 중심으로 하부로 20% 비율거리에 상기 선분(L1)과 평행하게 배치되는 하부 임계선(L3)의 상부 영역을 모두 포함하는 영역(음영으로 표시된 부분)을 의미한다.
또한, 상기 일정간격으로 회전하는 각도(추출각도)에 따라 추출되는 특징점의 수량이 달라질 수 있는데, 도 4와 같이 첫 번째 특징점으로 예시한 점(xl)부터 시작하여 중심점(xo)을 중심으로 시계방향으로 1도씩 회전시켜 중심점(xo)에서 윤곽선이 접촉되는 각각의 점을 특징점으로 할 경우 360개의 특징점을 획득할 수 있으며, 2도씩 회전시켜 중심점(xo)에서 윤곽선이 접촉되는 각각의 점을 특징점으로 할 경우 180개의 특징점을 획득할 수 있는 것이다.
여기서, 추출되는 특징점의 수량이 많아질수록 나비종 분류의 정확도는 증가하게 되나 시스템의 처리부하 역시 증가하여 처리속도가 저하될 수 있으며, 추출되는 특징점의 수량이 적어질수록 시스템 처리속도는 증가하나 나비종 분류의 정확도가 저하될 수 있으므로 시스템의 처리능력(메모리 및 컴퓨터 자원)을 고려하여 적정범위 내에서 정해지는 것이 바람직하다. 이하에서는 360개의 특징점이 추출된 것을 예를 들어 설명하기로 한다.
상기 학습부(120)는, 윤곽선데이터 추출부(110)로부터 추출된 복수 개의 특징점으로부터 BLS엔트로피 데이터를 추출하고, 추출된 BLS엔트로피 데이터를 입력층, 은닉층 및 출력층의 구조를 갖는 다층 퍼셉트론 신경망에 입력하여 학습된 신경망 분류데이터를 획득하는 구성요소로서, 상기 윤곽선데이터 추출부(110)로부터 추출된 복수 개의 특징점을 아래의 [수학식 1]을 적용하여 각 특징점들에 대한 BLS엔트로피를 계산하여 BLS엔트로피 데이터를 추출할 수 있다.
[수학식 1]
Figure 112012078672120-pat00001
(여기서, i는 i번째 특징점, n은 특징점들의 개수,
Figure 112012078672120-pat00002
, li는 i번째 특징점의 길이 및, lk는 k번째 특징점의 길이를 각각 의미함.)
여기서, 추출된 BLS엔트로피 데이터를 상기 다층 퍼셉트론 신경망에 입력함에 있어서, 예를 들어 상기 추출각도를 1도로 하여 360개의 특징점이 추출되고 따라서 360개의 BLS엔트로피로 구성된 벡터 <s1,s2,...s360>가 신경망의 입력으로 사용된다.
단, 입력벡터의 각 요소들은 아래의 [수학식 2]에 의해 정규화시킨 후 최종 입력데이터로 이용된다.
[수학식 2]
Figure 112012078672120-pat00003
(여기서, si는 i번째 벡터 요소, mini 및 maxi는 각각 훈련집합의 i번째 요소 중 가장 작은 값과 가장 큰 값을 의미함)
도 5를 참조하여 예를 들어, 도 5의 (a)와 같이 Li는 특정 정점으로부터 i번 정점까지의 거리를 나타내며, 도 5의 (b)에 도시된 도면이 나비종 기준영상 즉, 나비의 윤곽 영상이라 할 경우, 1번 정점에서 나머지 7개 정점과의 거리를 사용하여 엔트로피 S를 계산한다. 다음, 2번 정점을 기준으로 나머지 7개 정점과의 거리를 사용하여 엔트로피 S를 계산한다. 이와 같은 방식으로 모든 정점 8개에 대하여 엔트로피 S를 계산하여 특징 벡터(si, si,...s8)산출한다.
한편, 다층 퍼셉트론 신경망의 구조는 도 6에 도시된 바와 같이 하나의 은닉층을 갖는 3층의 신경망 구조를 가지고 역전파(Backpropagation) 알고리즘을 학습알고리즘으로 사용하는데, 은닉층과 출력층 노드들은 아래의 [수학식 3]과 같은 시그모이드 함수를 사용하여 출력층의 목적벡터를 출력한다.
[수학식 3]
Figure 112012078672120-pat00004
(여기서, σ는 시그모이드 함수, y는 특정노드의 입력값으로서 노드와 연결된 이전 계통 노드들에 대한 가중합, e는 자연대수를 각각 의미함)
여기서, 도 6를 참고하면 목적벡터는 7개의 나비종인 경우 아래와 같이 정의될 수 있다.
종 1 : <0.9, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1>,
종 2 : <0.1, 0.9, 0.1, 0.1, 0.1, 0.1, 0.1>,
종 3 : <0.1, 0.1, 0.9, 0.1, 0.1, 0.1, 0.1>,
종 4 : <0.1, 0.1, 0.1, 0.9, 0.1, 0.1, 0.1>,
종 5 : <0.1, 0.1, 0.1, 0.1, 0.9, 0.1, 0.1>,
종 6 : <0.1, 0.1, 0.1, 0.1, 0.1, 0.9,, 0.1>,
종 7 : <0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.9,>
또한, 검증집합 데이터를 기준으로 아래의 [수학식 4]에 의해 정의된 오류값이 미리 설정된 적정수준 이하가 유지될 때까지 역전파 알고리즘을 이용하여 반복하여 상기 다층 퍼셉트론 신경망에 의해 학습된 신경망 분류데이터를 획득한다.
[수학식 4]
Figure 112012078672120-pat00005
(여기서, D는 입력벡터의 집합, O는 출력층 노드의 집합, tid 및 oid는 d번째 입력벡터의 i번째 목적값과 실제 출력값을 각각 의미함)
상기 데이터베이스(130)는 상기 학습부(120)를 통해 획득된 인공신경망 프로그램인 신경망 분류데이터를 저장하는 구성요소로서, 상기 종분류가 확인된 각 나비종의 나비종 기준영상, 촬영되어 입력된 상기 미확인 나비영상을 포함하여 후술되는 분류부(140)를 통해 입력된 미확인 나비영상에 대하여 나비종이 분류된 결과데이터와 같이 본 발명의 바람직한 실시예에 따른 나비종 자동분류 시스템(100)이 구동하는데 필요한 각종 데이터가 저장될 수 있다.
상기 분류부(140)는, 상기 데이터베이스(130)에 저장된 신경망 분류데이터를 이용하여, 종분류가 확인되지 않은 미확인 나비영상에 대한 나비종을 인지하여 분류하는 구성요소로서, 상기 미확인 나비영상으로부터 추출된 해당 나비의 날개의 윤곽선에 대한 복수 개의 특징점을 기준으로 하는 BLS엔트로피 데이터를 상기 신경망 분류데이터에 입력벡터로 입력하며, 상기 입력벡터의 입력에 따른 출력벡터 중 가장 큰 값을 갖는 요소에 해당하는 나비종을 해당 나비의 나비종인 것을 분류한다.
여기서, 상기 윤곽선데이터 추출부(110)에서 나비종 기준영상으로부터 해당 나비의 날개의 윤곽선에 대한 복수 개의 특징점을 추출한 바와 같이, 입력된 미확인 나비영상을 상기 이진 영상(Binary Image)이 되도록 변환하여 추출된 윤곽선 데이터 상에서 해당 나비의 날개의 형상에 대한 특징을 나타내는 복수 개의 특징점을 추출한다.
보다 구체적으로 설명하면, 상기 미확인 나비영상으로부터 나비의 한쪽 날개에 대한 전체 윤곽선을 추출하되, 도 3에 도시된 바와 같이 상기 전체 윤곽선 내에서 거리가 가장 먼 두 개의 점(xt,xb)을 선택하여 선분 xtxb를 균등하게 이분하는 점(xc)을 추출하고, 상기 점(xc)를 포함하고 선분 xtxb에 수직인 선분(L1)을 중심으로 선분 xtxb의 일정비율 거리(D)에 해당하는 상,하 윤곽선 영역을 선정하며, 상기 상,하 윤곽선 영역에 해당하는 좌,우측의 두 윤곽선 상에서 가장 짧은 거리에 위치한 두 점(xl,xr)을 선택하여 선분 xlxr을 이분하는 중심점(xo)를 추출하고, 상기 점(xl) 또는 점(xr)을 첫 번째 특징점으로 하며 도 4에 도시된 바와 같이 상기 중심점(xo)를 중심으로 상기 첫 번째 특징점으로부터 시계 방향 또는 반시계 방향으로 일정간격 회전하며 전체 윤곽선 상에 위치한 점들을 이후 특징점으로 추출하여 복수 개의 특징점을 추출할 수 있다.
또한, 이러한 방식을 통해 상기 미확인 나비영상으로부터 추출된 해당 나비의 날개의 윤곽선에 대한 복수 개의 특징점을 기준으로 하는 BLS엔트로피 데이터를 상기 신경망 분류데이터에 입력벡터로 입력하며, 상기 입력벡터의 입력에 따른 출력벡터 중 가장 큰 값을 갖는 요소에 해당하는 나비종을 해당 나비의 나비종인 것을 분류할 수 있다.
예를 들어, 출력벡터가 <0.23, 0.87, 0.12, 0.32, 0.11, 0.33, 0.43> 인 경우 출력벡터의 두 번째 요소가 가장 큰 값(0.87)을 가지므로 나비종 2인 것으로 분류하는 것이다.
상기 표시부(150)는, 입력된 나비종 기준영상, 추출된 윤곽선데이터, 학습된 신경망 분류데이터의 현황, 입력된 미확인 나비영상의 나비종의 분류결과 데이터 및, 데이터가 처리되는 현황을 화면창에 디스플레이하거나 음성으로 출력하여 사용자에게 확인시켜 주는 구성요소로서, 본 발명의 바람직한 실시예에 따른 나비종 자동분류 시스템(100)이 범용 컴퓨터에 구성될 경우 상기 표시부(150)는 모니터 및 스피커로 이루어질 수 있다.
다음으로는, 상술한 본 발명의 바람직한 실시예에 따른 나비종 자동분류 시스템(100)을 이용하여 종분류가 확인된 나비종 기준영상으로부터 각 나비종의 날개의 윤곽선에 대한 복수 개의 특징점을 기준으로 하는 BLS엔트로피 데이터를 추출하고, 추출한 BLS엔트로피 데이터를 다층 퍼셉트론 신경망에 입력하여 상기 각 나비종의 윤곽선을 학습하여 분류하는 나비종 자동분류 방법을 설명하기로 한다.
도 7에 도시된 바와 같이 본 발명의 바람직한 실시예에 따른 나비종 자동분류 방법은, 윤곽선데이터 추출 단계(S210), 학습 단계(S230), 신경망 분류데이터 저장 단계(S250) 및 나비종 분류 단계(S270)를 포함한다.
먼저, 상기 윤곽선데이터 추출 단계(S210)는, 나비종 자동분류 시스템(100)의 윤곽선데이터 추출부(110)를 이용하여, 상기 나비종 기준영상으로부터 각 나비종의 날개의 윤곽선에 대한 복수 개의 특징점을 추출하는 단계로서, 도 2에 도시된 바와 같이 임의의 나비종 기준영상(도 2의 A)에서 나비의 날개에 해당하는 부분은 '1(흑색)'로 날개에 해당하지 않는 부분은 '0(백색)'으로 표시되는 이진 영상(Binary Image)이 되도록 변환(도 2의 B)한 후, '1'로 이루어진 영역에 대한 윤곽선데이터를 추출(도 2의 C)하며, 추출된 윤곽선 데이터 상에서 해당 나비의 날개의 형상에 대한 특징을 나타내는 복수 개의 특징점을 추출한다.
도 3 및 도 4를 참고하여 보다 구체적으로 설명하면, 입려된 나비종 기준영상으로부터 나비의 한쪽 날개에 대한 전체 윤곽선을 추출하되, 도 3에 도시된 바와 같이 상기 전체 윤곽선 내에서 거리가 가장 먼 두 개의 점(xt,xb)을 선택하여 선분 xtxb를 균등하게 이분하는 점(xc)을 추출하고, 상기 점(xc)를 포함하고 선분 xtxb에 수직인 선분(L1)을 중심으로 선분 xtxb의 일정비율 거리(D)에 해당하는 상,하 윤곽선 영역을 선정하며, 상기 상,하 윤곽선 영역에 해당하는 좌,우측의 두 윤곽선 상에서 가장 짧은 거리에 위치한 두 점(xl,xr)을 선택하여 선분 xlxr을 이분하는 중심점(xo)를 추출하고, 상기 점(xl) 또는 점(xr)을 첫 번째 특징점으로 하며 도 4에 도시된 바와 같이 상기 중심점(xo)를 중심으로 상기 첫 번째 특징점으로부터 시계 방향 또는 반시계 방향으로 일정간격 회전하며 전체 윤곽선 상에 위치한 점들을 이후 특징점으로 추출하여 복수 개의 특징점을 추출할 수 있다.
상기 학습 단계(S230)는, 나비종 자동분류 시스템(100)의 학습부(120)를 이용하여 상기 윤곽선데이터 추출 단계(S210)를 통해 추출된 복수 개의 특징점으로부터 BLS엔트로피 데이터를 추출하고, 추출된 BLS엔트로피 데이터를 입력층, 은닉층 및 출력층의 구조를 갖는 다층 퍼셉트론 신경망에 입력하여 학습된 신경망 분류데이터를 획득하는 단계로서, 상기 윤곽선데이터 추출부(110)로부터 추출된 복수 개의 특징점을 아래의 [수학식 1]을 적용하여 각 특징점들에 대한 BLS엔트로피를 계산하여 BLS엔트로피 데이터를 추출할 수 있다.
[수학식 1]
Figure 112012078672120-pat00006
(여기서, i는 i번째 특징점, n은 특징점들의 개수,
Figure 112012078672120-pat00007
, li는 i번째 특징점의 길이를 각각 의미함.)
여기서, 추출된 BLS엔트로피 데이터를 상기 다층 퍼셉트론 신경망에 입력함에 있어서, 예를 들어 상기 추출각도를 1도로 하여 360개의 특징점이 추출되고 따라서 360개의 BLS엔트로피로 구성된 벡터 <s1,s2,...s360>가 신경망의 입력으로 사용된다.
단, 입력벡터의 각 요소들은 아래의 [수학식 2]에 의해 정규화시킨 후 최종 입력데이터로 이용된다.
[수학식 2]
Figure 112012078672120-pat00008
(여기서, si는 i번째 벡터 요소, mini 및 maxi는 각각 훈련집합의 i번째 요소 중 가장 작은 값과 가장 큰 값을 의미함)
한편, 다층 퍼셉트론 신경망의 구조는 도 6에 도시된 바와 같이 하나의 은닉층을 갖는 3층의 신경망 구조를 가지고 역전파(Backpropagation) 알고리즘을 학습알고리즘으로 사용하는데, 은닉층과 출력층 노드들은 아래의 [수학식 3]과 같은 시그모이드 함수를 사용하여 출력층의 목적벡터를 출력한다.
[수학식 3]
Figure 112012078672120-pat00009
(여기서, σ는 시그모이드 함수, y는 특정노드의 입력값으로서 노드와 연결된 이전 계통 노드들에 대한 가중합, e는 자연대수를 각각 의미함)
또한, 검증집합 데이터를 기준으로 아래의 [수학식 4]에 의해 정의된 오류값이 미리 설정된 적정수준 이하가 유지될 때까지 역전파 알고리즘을 이용하여 반복하여 상기 다층 퍼셉트론 신경망에 의해 학습된 신경망 분류데이터를 획득한다.
[수학식 4]
Figure 112012078672120-pat00010
(여기서, D는 입력벡터의 집합, O는 출력층 노드의 집합, tid 및 oid는 d번째 입력벡터의 i번째 목적값과 실제 출력값을 각각 의미함)
상기 신경망 분류데이터 저장 단계(S250)는, 상기 학습 단계(S230)를 통해 획득된 신경망 분류데이터를 데이터베이스(130)에 저장하는 단계로서, 종분류가 확인된 각 나비종의 나비종 기준영상, 촬영되어 입력된 상기 미확인 나비영상, 윤곽선데이터 추출 단계(S210)을 통해 추출된 나비종 기준영상 및 미확인 나비영상의 윤곽선데이터, 학습된 신경망 분류데이터 등 본 발명의 바람직한 실시예에 따른 나비종 자동분류 시스템(100)이 구동하는데 필요한 각종 데이터를 더 저장할 수 있다.
상기 나비종 분류 단계(S270)는, 본 발명의 바람직한 실시예에 따른 나비종 자동분류 시스템(100)의 분류부(140)를 통해 상기 데이터베이스(130)에 저장된 신경망 분류데이터를 이용하여, 종분류가 확인되지 않은 미확인 나비영상에 대한 나비종을 인지하여 분류하는 단계로서, 상기 미확인 나비영상으로부터 추출된 해당 나비의 날개의 윤곽선에 대한 복수 개의 특징점을 기준으로 하는 BLS엔트로피 데이터를 상기 신경망 분류데이터에 입력벡터로 입력하며, 상기 입력벡터의 입력에 따른 출력벡터 중 가장 큰 값을 갖는 요소에 해당하는 나비종을 해당 나비의 나비종인 것을 분류한다.
여기서, 상기 윤곽선데이터 추출 단계(S210)에서 나비종 기준영상으로부터 해당 나비의 날개의 윤곽선에 대한 복수 개의 특징점을 추출한 바와 같이, 입력된 미확인 나비영상을 상기 이진 영상(Binary Image)이 되도록 변환하여 추출된 윤곽선 데이터 상에서 해당 나비의 날개의 형상에 대한 특징을 나타내는 복수 개의 특징점을 추출한다.
보다 구체적으로 설명하면, 상기 미확인 나비영상으로부터 나비의 한쪽 날개에 대한 전체 윤곽선을 추출하되, 도 3에 도시된 바와 같이 상기 전체 윤곽선 내에서 거리가 가장 먼 두 개의 점(xt,xb)을 선택하여 선분 xtxb를 균등하게 이분하는 점(xc)을 추출하고, 상기 점(xc)를 포함하고 선분 xtxb에 수직인 선분(L1)을 중심으로 선분 xtxb의 일정비율 거리(D)에 해당하는 상,하 윤곽선 영역을 선정하며, 상기 상,하 윤곽선 영역에 해당하는 좌,우측의 두 윤곽선 상에서 가장 짧은 거리에 위치한 두 점(xl,xr)을 선택하여 선분 xlxr을 이분하는 중심점(xo)를 추출하고, 상기 점(xl) 또는 점(xr)을 첫 번째 특징점으로 하며 도 4에 도시된 바와 같이 상기 중심점(xo)를 중심으로 상기 첫 번째 특징점으로부터 시계 방향 또는 반시계 방향으로 일정간격 회전하며 전체 윤곽선 상에 위치한 점들을 이후 특징점으로 추출하여 복수 개의 특징점을 추출할 수 있다.
또한, 이러한 방식을 통해 상기 미확인 나비영상으로부터 추출된 해당 나비의 날개의 윤곽선에 대한 복수 개의 특징점을 기준으로 하는 BLS엔트로피 데이터를 상기 신경망 분류데이터에 입력벡터로 입력하며, 상기 입력벡터의 입력에 따른 출력벡터 중 가장 큰 값을 갖는 요소에 해당하는 나비종을 해당 나비의 나비종인 것을 분류할 수 있다.
예를 들어, 출력벡터가 <0.23, 0.87, 0.12, 0.32, 0.11, 0.33, 0.43> 인 경우 출력벡터의 두 번째 요소가 가장 큰 값(0.87)을 가지므로 나비종 2인 것으로 분류하는 것이다.
한편, 본 발명의 바람직한 실시예에 따른 나비종 자동분류 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피디스크, 광데이터 저장장치, USB 외장하드 장치 등이 있으며, 또한, 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
다음으로는, 본 발명의 바람직한 실시예에 따른 나비종 자동분류 시스템(100) 및 나비종 자동분류 방법을 이용한 본 발명의 바람직한 실시예에 따른 나비종 자동분류 기능이 구비된 휴대 단말기의 구성 및 각 기능을 설명하기로 한다.
본 발명의 바람직한 실시예에 따른 나비종 자동분류 기능이 구비된 휴대 단말기(이하에서는 '휴대 단말기(300)'라 명칭함)는, 상술한 나비종 자동분류 시스템(100)을 통해 추출된 BLS엔트로피 데이터를 다층 퍼셉트론 신경망에 입력하여 학습된 신경망 분류데이터가 프로그래밍된 형태로 저장되어, 야외 등의 현장에서 촬영된 임의의 미확인 나비영상에 대한 나비종을 자동분류하여 표시함으로써 현장에서 사용자가 즉시적으로 해당 나비의 나비종을 확인할 수 있도록 구비된 단말기로서, 도 8에 도시된 바와 같이 영상촬영부(310), 윤곽선데이터 추출부(320), 데이터베이스(330), 분류부(340) 및 표시부(350)를 포함하여 구비될 수 있다.
먼저, 상기 영상촬영부(310)는 임의의 나비를 촬영하여 종분류가 확인되지 않은 미확인 나비영상을 획득할 수 있도록 휴대 단말기(300)의 일측에 장착되어 입사되는 이미지를 촬영하는 구성요소로서, 상기 미확인 나비영상의 윤곽선을 추출할 수 있는 정도의 해상도를 가진 카메라 모듈을 이용할 수 있다.
여기서, 본 발명의 바람직한 실시예에 따른 휴대 단말기(300)에서는 상기 미확인 나비영상의 색상과는 무관하게 나비의 날개의 윤곽선에 대한 특정점만을 나비종 분류를 위한 기초데이터로 이용하므로, 흑백이미지만을 촬영하는 카메라를 이용할 수도 있다. 또한, 촬영된 미확인 나비영상은 데이터베이스(330)로 전달되어 저장된다.
상기 윤곽선데이터 추출부(320)는, 영상촬영부(310)를 통해 촬영된 미확인 나비영상으로부터 해당 나비의 날개의 윤곽선에 대한 복수 개의 특징점을 추출하는 구성요소로서, 상술한 나비종 자동분류 시스템(100)의 윤곽선데이터 추출부(110)와 비교하여 특징점을 추출하는 대상 즉, 나비종 기준영상이 아닌 미확인 나비영상을 대상으로 해당 나비의 윤곽선에 대한 특징점을 추출한다는 점에서 차이점이 있으며, 복수 개의 특징점을 추출하기 위한 방식은 상술한 나비종 자동분류 시스템(100)의 윤곽선데이터 추출부(110)와 동일하므로 중복되는 내용은 생략하기로 한다.
상기 데이터베이스(330)는, 상술한 나비종 자동분류 시스템(100)을 통해 추출된 BLS엔트로피 데이터를 다층 퍼셉트론 신경망에 입력하여 학습된 신경망 분류데이터가 프로그램화되어 저장되며, 영상촬영부(310)을 통해 촬영되어 입력된 상기 미확인 나비영상이 저장되는 구성요소로서, 종분류가 확인된 각 나비종의 나비종 기준영상, 후술되는 분류부(340)를 통해 입력된 미확인 나비영상에 대하여 나비종이 분류된 결과데이터와 같이 본 발명의 바람직한 실시예에 따른 휴대 단말기(300)이 구동하는데 필요한 각종 데이터가 저장될 수 있다.
상기 분류부(340)는, 상기 윤곽선데이터 추출부(320)로부터 추출된 복수 개의 특징점을 기준으로 하는 BLS엔트로피 데이터를 추출하고, 추출된 BLS엔트로피 데이터를 프로그램화된 신경망 분류데이터에 입력벡터로 입력하며, 상기 입력벡터의 입력에 따른 출력벡터 중 가장 큰 값을 갖는 요소에 해당하는 나비종을 입력된 미확인 나비영상에 표시된 해당 나비의 나비종인 것을 분류하는 구성요소로서, 상술한 나비종 자동분류 시스템(100)의 분류부(140)와 비교하여 구성되는 위치 즉, 나비종 자동분류 시스템(100)이 아닌 휴대 단말기(300)에 배치된다는 점에서 차이점이 있으며, 입력된 미확인 나비영상로부터 나비종을 분류하기 위한 방식은 상술한 나비종 자동분류 시스템(100)의 분류부(140)와 동일하므로 중복되는 내용은 생략하기로 한다.
상술한 바와 같은 본 발명의 바람직한 실시예에 따른 나비종 자동분류 시스템(100) 및 방법, 이를 이용한 나비종 자동분류 기능이 구비된 휴대 단말기(300)의 각 구성 및 기능을 통해, 본 발명에 따른 나비종 자동분류 시스템 및 방법, 이를 이용한 나비종 자동분류 기능이 구비된 휴대 단말기에 의하면, 종분류가 확인되지 않은 미확인 나비영상의 컬러 여부와 상관없이 윤곽(Contour) 정보만을 이용해 BLS엔트로피를 계산하고 이를 사전에 학습된 인공신경망에 입력함으로써 스마트폰 등과 같이 제한된 컴퓨터 자원을 가진 휴대 단말기로도 현장에서 촬영과 동시에 나비종에 대한 정보를 바로 확인할 수 있어 사용자의 편의가 극대화된다.
특히, 종래의 시스템과 비교하여 보면, 미확인 나비영상의 컬러 여부와 상관없이 윤곽(Contour) 정보만을 이용해 BLS엔트로피를 계산해 나비 날개의 특징점으로 이용함으로써 전처리에 많은 시간과 컴퓨터 자원을 소비하지 않는다.
또한, 이러한 따른 나비종 자동분류 시스템 및 방법, 이를 이용한 나비종 자동분류 기능이 구비된 휴대 단말기 등과 같은 나비종의 자동분류 기술은 나비의 발달과정이나 행동 연구 및 진화과정에 대한 연구에 필요한 기술로써 관련 연구자들에 큰 도움이 될 것이며, 특히 야외에서 촬영된 나비를 현장에서 직접 나비종을 확인할 수 있으므로 나비종의 다양성 확인 및 새로운 종의 발견에도 도움이 될 것이다. 더불어, 학교 등에서의 학습 도구로의 유용성도 있을 것으로 보인다.
또한, 나비 날개의 윤곽을 BLS엔트로피로 표현하고 이를 다층 퍼셉트론 신경망을 이용해 학습시키되, 학습은 사전 범용 컴퓨터를 이용해 이루어지고 학습된 신경망을 휴대 단말기(300)에 프로그램화하는 방식으로 적재해서 실시간으로 촬영된 미확인 나비영상의 나비종을 확인할 수 있으므로, 핸드폰과 같이 낮은 메모리 용량과 낮은 컴퓨터 파워를 가진 휴대 단말기(300)를 통해 야외에서 나비 촬영과 동시에 나비종의 확인뿐만 아니라 새로운 종의 발견이 가능하다.
이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술 사상과 아래에 기재될 청구범위의 균등 범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.
100...나비종 자동분류 시스템 110,310...윤곽선데이터 추출부
120...학습부 130,330...데이터베이스
140,340...분류부 150,350...표시부
S210...윤곽선데이터 추출 단계 S230...학습 단계
S250...신경망 분류데이터 저장 단계 S270...나비종 분류 단계

Claims (20)

  1. 종분류가 확인된 나비종 기준영상으로부터 각 나비종의 날개의 윤곽선에 대한 복수 개의 특징점을 기준으로 하는 BLS(Branch Length Similarity)엔트로피 데이터를 추출하고, 추출한 BLS엔트로피 데이터를 다층 퍼셉트론 신경망에 입력하여 상기 각 나비종의 윤곽선을 학습하여 분류하는 나비종 자동분류 시스템.
  2. 제 1항에 있어서,
    상기 나비종 기준영상으로부터 각 나비종의 날개의 윤곽선에 대한 복수 개의 특징점을 추출하는 윤곽선데이터 추출부(110);
    추출된 복수 개의 특징점으로부터 BLS엔트로피 데이터를 추출하고, 추출된 BLS엔트로피 데이터를 입력층, 은닉층 및 출력층의 구조를 갖는 다층 퍼셉트론 신경망에 입력하여 학습된 신경망 분류데이터를 획득하는 학습부(120); 및
    획득된 신경망 분류데이터를 저장하는 데이터베이스(130);를 포함하는 나비종 자동분류 시스템.
  3. 제 2항에 있어서,
    상기 데이터베이스(130)에 저장된 신경망 분류데이터를 이용하여, 종분류가 확인되지 않은 미확인 나비영상에 대한 나비종을 인지하여 분류하는 분류부(140);를 더 포함하는 것을 특징으로 하는 나비종 자동분류 시스템.
  4. 제 3항에 있어서,
    상기 분류부(140)는,
    상기 미확인 나비영상으로부터 추출된 해당 나비의 날개의 윤곽선에 대한 복수 개의 특징점을 기준으로 하는 BLS엔트로피 데이터를 상기 신경망 분류데이터에 입력벡터로 입력하며, 상기 입력벡터의 입력에 따른 출력벡터 중 가장 큰 값을 갖는 요소에 해당하는 나비종을 해당 나비의 나비종인 것을 분류하는 나비종 자동분류 시스템.
  5. 제 2항에 있어서,
    상기 윤곽선데이터 추출부(110)는,
    상기 나비종 기준영상으로부터 나비의 한쪽 날개에 대한 전체 윤곽선을 추출하되, 상기 전체 윤곽선 내에서 거리가 가장 먼 두 개의 점(xt,xb)을 선택하여 선분 xtxb를 균등하게 이분하는 점(xc)을 추출하고, 상기 점(xc)를 포함하고 선분 xtxb에 수직인 선분(L1)을 중심으로 선분 xtxb의 일정비율 거리(D)에 해당하는 상,하 윤곽선 영역을 선정하며, 상기 상,하 윤곽선 영역 내에 포함되는 좌,우측의 두 윤곽선 상에서 가장 짧은 거리에 위치한 두 점(xl,xr)을 선택하여 선분 xlxr을 이분하는 중심점(xo)를 추출하고, 상기 점(xl) 또는 점(xr)을 첫 번째 특징점으로 하며 상기 중심점(xo)를 중심으로 상기 첫 번째 특징점으로부터 시계방향 또는 반시계방향으로 일정간격 회전하며 전체 윤곽선 상에 위치한 점들을 이후 특징점으로 추출하여 복수 개의 특징점을 추출하는 것을 특징으로 하는 나비종 자동분류 시스템.
  6. 제 2항에 있어서,
    상기 학습부(120)는,
    상기 윤곽선데이터 추출부(110)로부터 추출된 복수 개의 특징점을 아래의 [수학식 1]을 적용하여 각 특징점들에 대한 BLS엔트로피를 계산하여 BLS엔트로피 데이터를 추출하는 것을 특징으로 하는 나비종 자동분류 시스템.
    [수학식 1]
    Figure 112012078672120-pat00011

    (여기서, i는 i번째 특징점, n은 특징점들의 개수,
    Figure 112012078672120-pat00012
    , li는 i번째 특징점의 길이를 각각 의미함.)
  7. 제 6항에 있어서,
    상기 학습부(120)는,
    추출된 BLS엔트로피 데이터를 상기 다층 퍼셉트론 신경망에 입력벡터(s1,s2,...)로 입력하되, 아래의 [수학식 2]에 의해 정규화시킨 후 최종 입력데이터로 이용하는 것을 특징으로 하는 나비종 자동분류 시스템.
    [수학식 2]
    Figure 112012078672120-pat00013

    (여기서, si는 i번째 벡터 요소, mini 및 maxi는 각각 훈련집합의 i번째 요소 중 가장 작은 값과 가장 큰 값을 의미함)
  8. 제 7항에 있어서,
    상기 학습부(120)는,
    역전파 알고리즘을 학습알고리즘으로 사용하되, 상기 은닉층과 출력층 노드들은 아래의 [수학식 3]과 같은 시그모이드 함수를 사용하여 출력층의 목적벡터를 출력하는 것을 특징으로 하는 나비종 자동분류 시스템.
    [수학식 3]
    Figure 112012078672120-pat00014

    (여기서, σ는 시그모이드 함수, y는 특정노드의 입력값으로서 노드와 연결된 이전 계통 노드들에 대한 가중합, e는 자연대수를 각각 의미함)
  9. 제 8항에 있어서,
    상기 학습부(120)는,
    검증집합 데이터를 기준으로 아래의 [수학식 4]에 의해 정의된 오류값이 미리 설정된 적정수준 이하가 유지될 때까지 역전파 알고리즘을 이용하여 반복하여 상기 다층 퍼셉트론 신경망에 의해 학습된 신경망 분류데이터를 획득하는 것을 특징으로 하는 나비종 자동분류 시스템.
    [수학식 4]
    Figure 112012078672120-pat00015

    (여기서, D는 입력벡터의 집합, O는 출력층 노드의 집합, tid 및 oid는 d번째 입력벡터의 i번째 목적값과 실제 출력값을 각각 의미함)
  10. 종분류가 확인된 나비종 기준영상으로부터 각 나비종의 날개의 윤곽선에 대한 복수 개의 특징점을 기준으로 하는 BLS(Branch Length Similarity)엔트로피 데이터를 추출하고, 추출한 BLS엔트로피 데이터를 다층 퍼셉트론 신경망에 입력하여 상기 각 나비종의 윤곽선을 학습하여 분류하는 나비종 자동분류 방법.
  11. 제 10항에 있어서,
    상기 종분류가 확인된 나비종 기준영상으로부터 각 나비종의 날개의 윤곽선에 대한 복수 개의 특징점을 추출하는 윤곽선데이터 추출 단계(S210);
    추출된 복수 개의 특징점으로부터 BLS엔트로피 데이터를 추출하고, 추출된 BLS엔트로피 데이터를 입력층, 은닉층 및 출력층의 구조를 갖는 다층 퍼셉트론 신경망에 입력하여 학습된 신경망 분류데이터를 획득하는 학습 단계(S230); 및
    획득된 신경망 분류데이터를 데이터베이스(130)에 저장하는 신경망 분류데이터 저장 단계(S250);를 포함하는 나비종 자동분류 방법.
  12. 제 11항에 있어서,
    상기 데이터베이스(130)에 저장된 신경망 분류데이터를 이용하여, 종분류가 확인되지 않은 미확인 나비영상에 대한 나비종을 인지하여 분류하는 나비종 분류 단계(S270);를 더 포함하는 것을 특징으로 하는 나비종 자동분류 방법.
  13. 제 12항에 있어서,
    상기 나비종 분류 단계(S270)는,
    상기 미확인 나비영상으로부터 추출된 해당 나비의 날개의 윤곽선에 대한 복수 개의 특징점을 기준으로 하는 BLS엔트로피 데이터를 상기 신경망 분류데이터에 입력벡터로 입력하며, 상기 입력벡터의 입력에 따른 출력벡터 중 가장 큰 값을 갖는 요소에 해당하는 나비종을 해당 나비의 나비종인 것으로 분류하는 것을 특징으로 하는 나비종 자동분류 방법.
  14. 제 11항에 있어서,
    상기 윤곽선데이터 추출 단계(S210)는,
    상기 나비종 기준영상으로부터 나비의 한쪽 날개에 대한 전체 윤곽선을 추출하되, 상기 전체 윤곽선 내에서 거리가 가장 먼 두 개의 점(xt,xb)을 선택하여 선분 xtxb를 균등하게 이분하는 점(xc)을 추출하고, 상기 점(xc)를 포함하고 선분 xtxb에 수직인 선분(L1)을 중심으로 선분 xtxb의 일정비율 거리(D)에 해당하는 상,하 윤곽선 영역을 선정하며, 상기 상,하 윤곽선 영역 내에 포함되는 좌,우측의 두 윤곽선 상에서 가장 짧은 거리에 위치한 두 점(xl,xr)을 선택하여 선분 xlxr을 이분하는 중심점(x0)를 추출하고, 상기 점(xl) 또는 점(xr)을 첫 번째 특징점으로 하며 상기 중심점(x0)를 중심으로 상기 첫 번째 특징점으로부터 시계방향 또는 반시계방향으로 일정간격 회전하며 전체 윤곽선 상에 위치한 점들을 이후 특징점으로 추출하여 복수 개의 특징점을 추출하는 것을 특징으로 하는 나비종 자동분류 방법.
  15. 제 11항에 있어서,
    상기 학습 단계(S230)는,
    추출된 복수 개의 특징점을 아래의 [수학식 1]을 적용하여 각 특징점들에 대한 BLS엔트로피를 계산하여 BLS엔트로피 데이터를 추출하는 것을 특징으로 하는 나비종 자동분류 방법.
    [수학식 1]
    Figure 112012078672120-pat00016

    (여기서, i는 i번째 특징점, n은 특징점들의 개수,
    Figure 112012078672120-pat00017
    , li는 i번째 특징점의 길이를 각각 의미함.)
  16. 제 15항에 있어서,
    상기 학습 단계(S230)는,
    추출된 BLS엔트로피 데이터를 상기 다층 퍼셉트론 신경망에 입력벡터(s1,s2,...)로 입력하되, 아래의 [수학식 2]에 의해 정규화시킨 후 최종 입력데이터로 이용하는 것을 특징으로 하는 나비종 자동분류 방법.
    [수학식 2]
    Figure 112012078672120-pat00018

    (여기서, si는 i번째 벡터 요소, mini 및 maxi는 각각 훈련집합의 i번째 요소 중 가장 작은 값과 가장 큰 값을 의미함)
  17. 제 16항에 있어서,
    상기 학습 단계(S230)는,
    역전파 알고리즘을 학습알고리즘으로 사용하되, 상기 은닉층과 출력층 노드들은 아래의 [수학식 3]과 같은 시그모이드 함수를 사용하여 출력층의 목적벡터를 출력하는 것을 특징으로 하는 나비종 자동분류 방법.
    [수학식 3]
    Figure 112012078672120-pat00019

  18. 제 17항에 있어서,
    상기 학습 단계(S230)는,
    검증집합 데이터를 기준으로 아래의 [수학식 4]에 의해 정의된 오류값이 미리 설정된 적정수준 이하가 유지될 때까지 역전파 알고리즘을 이용하여 반복하여 학습하여 상기 다층 퍼셉트론 신경망에 의해 학습된 신경망 분류데이터를 획득하는 것을 특징으로 하는 나비종 자동분류 방법.
    [수학식 4]
    Figure 112012078672120-pat00020

    (여기서, D는 입력벡터의 집합, O는 출력층 노드의 집합, tid 및 oid는 d번째 입력벡터의 i번째 목적값과 실제 출력값을 각각 의미함)
  19. 제 11항 내지 제 18항의 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
  20. 임의의 나비를 촬영하여 종분류가 확인되지 않은 미확인 나비영상을 획득하는 영상촬영부(310);
    종분류가 확인된 나비종 기준영상으로부터 각 나비종의 날개의 윤곽선에 대한 복수 개의 특징점을 기준으로 하는 BLS(Branch Length Similarity)엔트로피 데이터를 추출하고, 추출한 BLS엔트로피 데이터를 다층 퍼셉트론 신경망에 입력하여 학습된 신경망 분류데이터가 프로그램화되어 저장되며, 획득된 상기 미확인 나비영상이 저장되는 데이터베이스(330);
    상기 미확인 나비영상으로부터 해당 나비의 날개의 윤곽선에 대한 복수 개의 특징점을 추출하는 윤곽선데이터 추출부(320);
    상기 윤곽선데이터 추출부(320)로부터 추출된 복수 개의 특징점을 기준으로 하는 BLS(Branch Length Similarity)엔트로피 데이터를 추출하고, 추출된 BLS엔트로피 데이터를 상기 신경망 분류데이터에 입력벡터로 입력하며, 상기 입력벡터의 입력에 따른 출력벡터 중 가장 큰 값을 갖는 요소에 해당하는 나비종을 해당 나비의 나비종인 것을 분류하는 분류부(340); 및
    상기 분류부(340)에 의해 분류된 나비종 분류결과를 이미지, 문자 또는 음성을 통해 표시하는 표시부(350);를 포함하는 나비종 자동분류 기능이 구비된 휴대단말기.
KR1020120107566A 2012-09-27 2012-09-27 나비종 자동분류 시스템 및 방법, 이를 이용한 나비종 자동분류 기능이 구비된 휴대 단말기 KR101334858B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120107566A KR101334858B1 (ko) 2012-09-27 2012-09-27 나비종 자동분류 시스템 및 방법, 이를 이용한 나비종 자동분류 기능이 구비된 휴대 단말기

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120107566A KR101334858B1 (ko) 2012-09-27 2012-09-27 나비종 자동분류 시스템 및 방법, 이를 이용한 나비종 자동분류 기능이 구비된 휴대 단말기

Publications (1)

Publication Number Publication Date
KR101334858B1 true KR101334858B1 (ko) 2013-11-29

Family

ID=49858836

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120107566A KR101334858B1 (ko) 2012-09-27 2012-09-27 나비종 자동분류 시스템 및 방법, 이를 이용한 나비종 자동분류 기능이 구비된 휴대 단말기

Country Status (1)

Country Link
KR (1) KR101334858B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109376765A (zh) * 2018-09-14 2019-02-22 汕头大学 一种基于深度学习的蝴蝶自动分类方法
CN110378303A (zh) * 2019-07-25 2019-10-25 杭州睿琪软件有限公司 用于对象识别的方法及系统
CN110490086A (zh) * 2019-07-25 2019-11-22 杭州睿琪软件有限公司 一种用于对象识别结果二次确认的方法及系统
JP7481939B2 (ja) 2020-08-04 2024-05-13 株式会社竹中工務店 虫類特定方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040067294A (ko) * 2003-01-22 2004-07-30 피재호 카메라가 장착된 모바일폰을 이용한 동/식물, 버섯류 및곤충 정보를 실시간 서비스하는 시스템
KR20090049930A (ko) * 2007-11-14 2009-05-19 부산대학교 산학협력단 곤충의 분류/인지 시스템 및 분류 방법
KR100940860B1 (ko) 2007-12-18 2010-02-09 한국전자통신연구원 디지털 크리쳐의 이동 동작 생성 방법 및 장치
KR20110061954A (ko) * 2009-12-02 2011-06-10 김홍석 동물, 식물 및 곤충의 정보를 제공하는 휴대용기기 및 그 정보 제공방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040067294A (ko) * 2003-01-22 2004-07-30 피재호 카메라가 장착된 모바일폰을 이용한 동/식물, 버섯류 및곤충 정보를 실시간 서비스하는 시스템
KR20090049930A (ko) * 2007-11-14 2009-05-19 부산대학교 산학협력단 곤충의 분류/인지 시스템 및 분류 방법
KR100940860B1 (ko) 2007-12-18 2010-02-09 한국전자통신연구원 디지털 크리쳐의 이동 동작 생성 방법 및 장치
KR20110061954A (ko) * 2009-12-02 2011-06-10 김홍석 동물, 식물 및 곤충의 정보를 제공하는 휴대용기기 및 그 정보 제공방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109376765A (zh) * 2018-09-14 2019-02-22 汕头大学 一种基于深度学习的蝴蝶自动分类方法
CN110378303A (zh) * 2019-07-25 2019-10-25 杭州睿琪软件有限公司 用于对象识别的方法及系统
CN110490086A (zh) * 2019-07-25 2019-11-22 杭州睿琪软件有限公司 一种用于对象识别结果二次确认的方法及系统
JP7481939B2 (ja) 2020-08-04 2024-05-13 株式会社竹中工務店 虫類特定方法

Similar Documents

Publication Publication Date Title
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
CN111797893B (zh) 一种神经网络的训练方法、图像分类系统及相关设备
US10002313B2 (en) Deeply learned convolutional neural networks (CNNS) for object localization and classification
WO2019100724A1 (zh) 训练多标签分类模型的方法和装置
US20170124409A1 (en) Cascaded neural network with scale dependent pooling for object detection
US9633282B2 (en) Cross-trained convolutional neural networks using multimodal images
US8805018B2 (en) Method of detecting facial attributes
US8792722B2 (en) Hand gesture detection
CN111507378A (zh) 训练图像处理模型的方法和装置
EP3968179A1 (en) Place recognition method and apparatus, model training method and apparatus for place recognition, and electronic device
Oliveira et al. On exploration of classifier ensemble synergism in pedestrian detection
JP6112801B2 (ja) 画像認識装置及び画像認識方法
JP6713162B2 (ja) 画像認識装置、画像認識方法、及び画像認識プログラム
CN113449548A (zh) 更新物体识别模型的方法和装置
CN116343287A (zh) 面部表情识别、模型训练方法、装置、设备及存储介质
KR101334858B1 (ko) 나비종 자동분류 시스템 및 방법, 이를 이용한 나비종 자동분류 기능이 구비된 휴대 단말기
CN107944363A (zh) 人脸图像处理方法、系统及服务器
CN114913339B (zh) 特征图提取模型的训练方法和装置
Zheng et al. 3D texture-based face recognition system using fine-tuned deep residual networks
Sanin et al. K-tangent spaces on Riemannian manifolds for improved pedestrian detection
Dalara et al. Entity Recognition in Indian Sculpture using CLAHE and machine learning
CN114912540A (zh) 迁移学习方法、装置、设备及存储介质
CN113192085A (zh) 三维器官图像分割方法、装置及计算机设备
CN112949672A (zh) 商品识别方法、装置、设备以及计算机可读存储介质
CN115294441B (zh) 一种由注意力融合三特征的机器人场景识别与解析方法

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161115

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181127

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20191120

Year of fee payment: 7