KR101743270B1 - The method for separating and recognizing individual plankton using deep learning in a clumped or dispersed microscopic plankton image - Google Patents

The method for separating and recognizing individual plankton using deep learning in a clumped or dispersed microscopic plankton image Download PDF

Info

Publication number
KR101743270B1
KR101743270B1 KR1020170029345A KR20170029345A KR101743270B1 KR 101743270 B1 KR101743270 B1 KR 101743270B1 KR 1020170029345 A KR1020170029345 A KR 1020170029345A KR 20170029345 A KR20170029345 A KR 20170029345A KR 101743270 B1 KR101743270 B1 KR 101743270B1
Authority
KR
South Korea
Prior art keywords
plankton
cnn
image
output
input image
Prior art date
Application number
KR1020170029345A
Other languages
Korean (ko)
Inventor
소영성
송재현
김중칠
Original Assignee
(주)나인정보시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)나인정보시스템 filed Critical (주)나인정보시스템
Priority to KR1020170029345A priority Critical patent/KR101743270B1/en
Application granted granted Critical
Publication of KR101743270B1 publication Critical patent/KR101743270B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에 따른 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법은 다수의 플랑크톤이 응집 혹은 산재 된 현미경 영상으로부터 개개의 플랑크톤의 위치를 검출함으로써 개개의 플랑크톤을 분리하고, 분리된 플랑크톤의 종류를 인식하기 위해 CNN(Convolutional Neural Network)을 구성하는 단계와; 상기 CNN의 입력단에 플랑크톤이 촬영된 입력 영상을 인가한 다음, CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 CNN의 출력단으로부터 출력되기를 원하는 입력 영상 내 플랑크톤의 실제 종류와 입력 영상 내 플랑크톤의 실제 위치 좌표가 저장된 출력 기대값과의 차이가 최소가 되도록 CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 출력 기대값 사이의 오차를 조정하는 CNN의 변수값인 가중치(Weight)를 조정함으로써 CNN을 학습시키는 단계; 상기 CNN에 다수의 플랑크톤이 응집해 있거나 산재해 있는 촬영 영상을 입력시키는 단계; 및 상기 CNN으로 영상 내 플랑크톤의 위치와 플랑크톤에 대한 종류를 인식한 다음, 입력 영상 내 플랑크톤의 위치를 사각 박스 형태로 표시하고 사각 박스 위에 인식된 플랑크톤의 종류를 기재하여 출력 영상으로 내보내는 단계로 이루어질 수 있다.A method for separating and recognizing individual plankton using deep running in a microscopic image in which a plurality of plankton are coagulated or scattered according to the present invention is a method for detecting and detecting individual plankton by detecting the position of individual plankton from a coherent or scattered microscopic image of a plurality of plankton Separating plankton from the plankton and constructing a CNN (Convolutional Neural Network) to recognize the type of plankton separated; After inputting the input image of plankton at the input of the CNN, the type of plankton output from the output terminal of the CNN, the positional information of the plankton in the input image, and the actual type of plankton in the input image desired to be output from the output terminal of CNN In order to minimize the difference between the actual expected position of the plankton in the input image and the output expected value of the planet, the type of plankton output from the output of CNN, and CNN Learning the CNN by adjusting a weight, which is a variable value; Inputting a photographed image in which a plurality of plankton aggregates or scattered in the CNN; And recognizing the position of the plankton and the type of plankton in the input image by using the CNN, and then displaying the position of the plankton in the input image in the form of a square box, describing the types of plankton recognized on the square box, .

Description

다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법{The method for separating and recognizing individual plankton using deep learning in a clumped or dispersed microscopic plankton image}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for separating and recognizing individual plankton using deep running in a microscopic image in which a large number of plankton are coagulated or scattered,

본 발명은 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법에 관한 것이다.The present invention relates to a method for separating and recognizing individual plankton using deep running in a microscopic image in which a large number of plankton are aggregated or scattered.

일반적으로, 플랑크톤은 자연 먹이 사슬의 가장 밑바닥에 있으면서 해양 생태계에서 매우 중요한 역할을 수행하며, 상기 플랑크톤에는 유해종과 비유해종이 있다.In general, plankton is at the bottom of the natural food chain and plays a very important role in marine ecosystems, and the plankton has harmful species and species.

해양 생태계를 건강하게 유지하기 위해서는 플랑크톤에 대한 종의 분포를 모니터링(Monitoring)하고 필요시 경보를 발령하는 것이 중요하다.In order to keep the marine ecosystem healthy, it is important to monitor the distribution of species to plankton and issue alarms when necessary.

상기 플랑크톤에 대한 모니터링은 수동이나 자동으로 수행될 수 있다.Monitoring of the plankton can be performed manually or automatically.

통상적으로, 인간의 전문 지식에 의존하는 수동 접근 방식은 지루할 뿐만 아니라 시간이 오래 걸리고 오류가 발생 되기 쉽다.Typically, manual approaches that rely on human expertise are tedious, time consuming, and error prone.

이에 따라, 플랑크톤에 대한 인식 기능을 갖는 많은 자동 접근 방법이 제안되었다.Thus, a number of automatic approaches with recognition capabilities for plankton have been proposed.

최근까지 플랑크톤에 대한 자동 인식 방법은 주로 패턴 인식이나 고전적인 기계 학습 방법에 따른 특징 추출에 기반을 두고 있다.Until recently, the automatic recognition method of plankton is mainly based on pattern recognition or feature extraction based on classical machine learning method.

이때, 사용된 특징으로는 플랑크톤의 모양과, 질감, 불변 모멘트 등이 있으며, 플랑크톤의 인식에는 SVM(Support Vector Machine)과, 앙상블 분류기, 및 다층 신경망(NN)등이 사용 되고 있다.At this time, features used are plankton shape, texture, invariant moment, etc. SVM (Support Vector Machine), ensemble classifier, and multi-layer neural network (NN) are used for the recognition of plankton.

단지, 소수의 방법만이 기존 접근 방법의 플랑크톤 인식 성능을 능가하는 심층 학습 방법을 채택하고 있다.However, only a few methods employ in-depth learning methods that outperform plankton-aware performance of existing approaches.

하지만, 거의 모든 심층 학습 방법은 하나의 이미지에 단지 하나의 플랑크톤만 있다고 가정하므로 같은 종의 플랑크톤이 여러 마리 응집해 있거나 다른 종의 플랑크톤이 여러 마리 산재해 있는 경우 인식할 수 없으며, 또한, 개개의 플랑크톤의 위치도 찾을 수 없다는 문제점이 있었다.However, almost all in-depth learning methods assume that there is only one plankton in a single image, so it can not be recognized if there are multiple cohorts of the same species plankton or several scattered plankton species, There was a problem that the position of the plankton could not be found.

한편, 본 발명과 관련된 연구로서 Luo 등은 Shadow Image Practicle Profiling Evaluation Recorder(SIPPER Ⅱ) 이미지를 사용하는 적극적인 학습 접근법을 제안하였다.As a research related to the present invention, Luo et al. Proposed an active learning approach using a Shadow Image Practice Profiling Evaluation Recorder (SIPPER II) image.

그들은 정상/가중 모멘트와, 푸리에 기술자, 및 텍스처 기능을 포함하여 49개의 특징을 먼저 추출하고 인식을 위해 다중 클래스 SVM을 적용했다.They extracted 49 features first, including normal / weighted moments, Fourier descriptors, and texture features, and applied a multi-class SVM for recognition.

테스트 된 샘플의 수는 단지 5종 8,440개이고, 그로 인한 인식 정확도는 61%이다.The number of samples tested is only 8,440 in 5 species, and the recognition accuracy is 61%.

Hu 등은 Video Plankton Recorder(VPR)에 의해 캡쳐(Capture)된 영상으로부터 얻은 특징으로 co-occurrence matrices를 사용하였다.Hu et al. Used co-occurrence matrices as features from images captured by the Video Plankton Recorder (VPR).

SVM이 7종의 플랑크톤에 대해 20,000가지 예를 인식하는 분류기로 사용되었고, 이들의 정확도는 약 72%라고 보고되었다.SVM was used as a classifier to recognize 20,000 examples of 7 plankton, and their accuracy was reported to be about 72%.

또한, Blaschko 등은 저해상도의 FlowCam 이미지 센서로 포착된 플랑크톤 이미지에서 모멘트와, 텍스처, 윤곽, 및 미분 특징과 같은 다양한 특징을 추출하고 플랑크톤 인식을 위해 단일 또는 앙상블 분류기를 사용했다.In addition, Blaschko et al. Used a single or ensemble classifier to extract various features such as moments, textures, contours, and differential features in plankton images captured with a low resolution FlowCam image sensor and for plankton recognition.

Blaschko 등은 앙상블 방법에 따라 13종의 플랑크톤에 대하여 982가지 예를 테스트하였으며, 테스트 결과 53% 내지 73%의 정확도를 보였다.Blaschko et al. Tested 982 cases of 13 plankton according to the ensemble method. The test results showed accuracy of 53% to 73%.

또, Cowen 등은 이미지를 얻기 위해 ISIIS라고 불리는 고해상도 라인 스캔 카메라 시스템을 사용했다.Cowen et al. Used a high-resolution line scan camera system called ISIIS to obtain images.

단일 이미지에 여러 생물체가 존재할 수 있다고 가정하였으며, 가우스 기반의 배경 모델을 혼합하여 물체를 탐지했다.It was assumed that multiple organisms could exist in a single image, and objects were detected by mixing Gaussian background models.

다음으로, 모양 히스토그램과, 물체 견고성, 3차까지의 Hu 모멘트, 푸리에 기술자, 및 원형 투영 기술자를 추출하였다.Next, a shape histogram, object rigidity, Hu moment up to third order, Fourier descriptor, and round projection descriptor were extracted.

마지막으로 멀티 클래스 SVM이 인식에 적용되었다.Finally, a multi-class SVM was applied to recognition.

상기 Cowen 등은 5종의 플랑크톤 1,110개를 테스트하였으며, 플랑크톤의 분류군에 따라 61% 내지 97%의 정확도를 보였다.Cowen et al. Tested 1,110 5 plankton species and showed 61% to 97% accuracy depending on the phytoplankton taxa.

또, Schulze 등은 전처리 과정에서 Sobel 연산자와 히스토그램 정규화를 사용하고 FlowCam 영상 센서에 의해 포착된 플랑크톤 영상으로부터 플랑크톤을 분할하기 위해 Region growing 방법을 채택하였다.Schulze et al. Used the Sobel operator and histogram normalization in preprocessing and Region growing method to partition the plankton from the plankton images captured by the FlowCam image sensor.

다음으로, Schulze 등은 타원 푸리에 기술자와, co-occurrence matrices, 방향성 히스토그램, 모멘트, 및 회전 불변 국부적 이진 패턴 등을 추출하였다.Next, Schulze et al. Extracted elliptic Fourier descriptors and co-occurrence matrices, directional histograms, moments, and rotation invariant local binary patterns.

마지막으로 2단계의 다층 신경망을 사용하였는데 1단계에서는 플랑크톤과 플랑크톤이 아닌 것을 분리하고 2단계에서는 인식을 수행하였다. Finally, we used a two - level multilayer neural network. In the first stage, the non plankton and plankton were separated and in the second stage recognition was performed.

상기 Schulze 등은 10종의 플랑크톤이 촬영된 1,418 개의 플랑크톤 이미지를 사용하였으며, 평균 94.7%의 정확도를 기록했다.The Schulze et al. Used 1,418 plankton images of 10 plankton images and recorded an average of 94.7% accuracy.

이 시스템은 Plankton Vision으로 알려진 통합 시스템으로 개발되었다.This system was developed as an integrated system known as Plankton Vision.

또, 2014년 12월부터 2015년 3월까지 NDSB(National Data Science Bowl)에 서 개최한 플랑크톤 분류를 위한 콘테스트에서는 1,000개 이상의 팀이 참가하였으며, 최종적으로, "Deep Sea"팀이 수상하였다.More than 1,000 teams participated in the contest for the plankton classification held at the National Data Science Bowl (NDSB) from December 2014 to March 2015, and finally the "Deep Sea" team won.

121 종류의 플랑크톤이 촬영된 영상이 30,000개가 있었는데, 이를 정확하게 분류하는 것이 과제였다.There were 30,000 images of 121 kinds of plankton, and it was a task to sort them accurately.

대부분의 상위 랭킹 팀들은 심층 학습 구조를 채택하였으며, Deep Sea는 0.595671의 로그 손실을 보고했다.Most top ranking teams adopted an in-depth learning structure, and Deep Sea reported a log loss of 0.595671.

하지만, 이전의 거의 모든 연구에서는 실제 환경에서 빈번하게 발생할 수 있는 다수의 플랑크톤이 응집해 있거나 산재해 있는 경우를 허용하지 않는다는 문제점이 있었다.However, almost all of the previous studies have had the problem that many plankton, which may occur frequently in a real environment, are not allowed to flocculate or scatter.

한편, 본 발명의 선행 기술로는 특허등록번호 "10-0558613"호의 "디지털 영상 처리 기법을 이용한 식물성 플랑크톤 개체수 측정 방법"이 출원되어 등록되었는데, 상기 디지털 영상 처리 기법을 이용한 식물성 플랑크톤 개체수 측정 방법은 해수에 포함된 식물성 플랑크톤의 개체수를 측정하기 위한 방법에 있어서, 식물성 플랑크톤이 포함된 해수를 소정 크기의 탱크에 채워넣어 계측용 조성물을 만드는 단계와; 상기 계측용 조성물 내부로 레이저와 원통형 렌즈를 사용하여 평면 광을 조사하는 단계; 상기 평면 광 내에 형성된 소정 크기의 영역을 CMOS 카메라로 촬영하여 디지털 영상을 획득한 다음 획득된 디지털 영상을 메인보드를 거쳐 컴퓨터 시스템으로 전송하는 단계; 컴퓨터 시스템을 사용하여 획득된 디지털 영상의 왜곡을 보정 하고, 필터링을 통해 영상 노이즈를 제거한 다음, 외곽선을 검출하는 전처리 과정을 통해 디지털 영상을 측정 가능한 형태의 영상으로 변환하는 단계; 및 변환된 영상에서 소정 크기의 체적을 추출하여 식물성 플랑크톤의 개체수를 측정하는 단계로 이루어질 수 있다.On the other hand, as a prior art of the present invention, "Method for measuring phytoplankton population using digital image processing technique" of the patent registration number "10-0558613" was filed and registered. The method for measuring phytoplankton population using the digital image processing technique A method for measuring the number of phytoplankton contained in seawater, comprising: preparing a measurement composition by filling seawater containing phytoplankton into a tank having a predetermined size; Irradiating planar light into the measurement composition using a laser and a cylindrical lens; Capturing an area of a predetermined size formed in the planar light with a CMOS camera to acquire a digital image, and transmitting the acquired digital image to a computer system via a main board; Correcting distortion of the digital image obtained using the computer system, removing the image noise through filtering, and then converting the digital image into a measurable image through a preprocessing process for detecting an outline; And extracting a volume of a predetermined size from the converted image to measure the number of phytoplankton.

대한민국 특허등록번호 10-0558613 (2006.03.13)Korea Patent Registration No. 10-0558613 (Mar. 13, 2006) 대한민국 특허공개번호 10-2015-0137047 (2015.12.08)Korean Patent Publication No. 10-2015-0137047 (Aug. 2015)

이에 본 발명은 상기 문제점을 해결하기 위하여 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개의 플랑크톤을 분리 및 인식하는 방법을 제공하는데 본 발명의 목적이 있다.Accordingly, it is an object of the present invention to provide a method for separating and recognizing individual plankton by using deep running in a microscopic image in which a large number of plankton are scattered or scattered.

상기 목적을 달성하기 위한 본 발명에 따른 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법은 다수의 플랑크톤이 응집 혹은 산재 된 현미경 영상으로부터 개개의 플랑크톤의 위치를 검출함으로써 개개의 플랑크톤을 분리하고 분리된 플랑크톤의 종류를 인식하기 위해 CNN(Convolutional Neural Network)을 구성하는 단계와; 상기 CNN의 입력단에 플랑크톤이 촬영된 입력 영상을 인가한 다음, CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 CNN의 출력단으로부터 출력되기를 원하는 입력 영상 내 플랑크톤의 실제 종류와 입력 영상 내 플랑크톤의 실제 위치 좌표가 저장된 출력 기대값과의 차이가 최소가 되도록 CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 출력 기대값 사이의 오차를 조정하는 CNN의 변수값인 가중치(Weight)를 조정함으로써 CNN을 학습시키는 단계; CNN에 다수의 플랑크톤이 응집해 있거나 산재해 있는 촬영 영상을 입력시키는 단계; 및 상기 CNN으로 영상 내 플랑크톤의 위치와 플랑크톤에 대한 종류를 인식한 다음, 입력 영상 내 플랑크톤의 위치를 사각박스 형태로 표시하고 사각 박스 위에 인식된 플랑크톤의 종류를 기재하여 출력 영상으로 내보내는 단계로 이루어질 수 있다.In order to accomplish the above object, the present invention provides a method for separating and recognizing individual plankton by using deep running in a microphotograph image in which a plurality of plankton are flocculated or scattered, comprising the steps of separating and recognizing individual plankton from a microphotograph of aggregated or scattered plankton, Separating the individual plankton by detecting the position of the plankton and constructing a CNN (Convolutional Neural Network) for recognizing the kind of the separated plankton; After inputting the input image of plankton at the input of the CNN, the type of plankton output from the output terminal of the CNN, the positional information of the plankton in the input image, and the actual type of plankton in the input image desired to be output from the output terminal of CNN In order to minimize the difference between the actual expected position of the plankton in the input image and the output expected value of the planet, the type of plankton output from the output of CNN, and CNN Learning the CNN by adjusting a weight, which is a variable value; Inputting a photographed image in which a plurality of plankton aggregates or scattered in CNN; And recognizing the position of the plankton and the type of plankton in the input image by using the CNN, and then displaying the position of the plankton in the input image in the form of a square box, describing the types of plankton recognized on the square box, .

이러한 절차로 이루어진 본 발명에 따른 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법은 다수의 플랑크톤이 응집되어 있거나 산재 된 입력 영상에서 개개의 플랑크톤의 위치를 파악함과 더불어 개개의 플랑크톤 종류를 인식할 수 있으므로 해당 입력 영상이 촬영된 해양 또는 담수의 건강 상태을 정확하게 판단할 수 있다.The method of separating and recognizing individual plankton using the deep run in a microscopic image of a plurality of plankton coagulated or scattered according to the present invention comprising the steps of the present invention is a method of separating and recognizing individual plankton from a coherent or scattered input image, It is possible to accurately determine the health state of the ocean or fresh water from which the input image is captured.

도면 1은 본 발명에 적용된 CNN(Convolutional Neural Network)을 설명하기 위한 도면,
도면 2는 본 발명의 플로우 챠트(Flow Chart),
도면 3a 내지 도면 3c는 컨볼루션 레이어(Convolution layer)를 설명하기 위한 도면,
도면 4는 맥스 풀링 레이어(Max pooling layer)를 설명하기 위한 도면,
도면 5는 본 발명의 실험에 사용된 3종의 유해 플랑크톤 종과, 15종의 비유해 플랑크톤 종, 도합 18종에 대한 949개의 샘플을 나열한 표,
도면 6a와 도면 6g는 다수의 플랑크톤이 응집 혹은 산재 된 영상을 본 발명에 입력시켰을 때 입력 영상에 포함된 플랑크톤의 위치를 사각 박스 형태로 보이고 인식 결과를 영문으로 오버레이(Overlay)하여 표시한 결과 영상.
1 is a view for explaining CNN (Convolutional Neural Network) applied to the present invention,
2 is a flow chart of the present invention,
3A to 3C are diagrams for explaining a convolution layer,
4 is a view for explaining a Max pooling layer,
5 is a table listing 949 samples of 18 species of noxious plankton species, 15 species of noxious plankton species used in the experiment of the present invention,
6a and 6g show the positions of plankton included in the input image when the coherent or scattered images of a plurality of plankton are input to the present invention, .

이하, 첨부된 도면을 참조하여 본 발명을 자세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

본 발명에 따른 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법은 도면 1 내지 도면 2에 도시한 바와 같이, 다수의 플랑크톤이 응집 혹은 산재 된 현미경 영상으로부터 개개의 플랑크톤의 위치를 검출함으로써 개개의 플랑크톤을 분리하고 분리된 플랑크톤의 종류를 인식하기 위해 CNN(Convolutional Neural Network)을 구성하는 단계(S1)와; 상기 CNN의 입력단에 플랑크톤이 촬영된 입력 영상을 인가한 다음, CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 CNN의 출력단으로부터 출력되기를 원하는 입력 영상 내 플랑크톤의 실제 종류와 입력 영상 내 플랑크톤의 실제 위치 좌표가 저장된 출력 기대값과의 차이가 최소가 되도록 CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 출력 기대값 사이의 오차를 조정하는 CNN의 변수값인 가중치(Weight)를 조정함으로써 CNN을 학습시키는 단계(S2); CNN에 다수의 플랑크톤이 응집해 있거나 산재해 있는 촬영 영상을 입력시키는 단계(S3); 및 상기 CNN으로 영상 내 플랑크톤의 위치와 플랑크톤에 대한 종류를 인식한 다음, 입력 영상 내 플랑크톤의 위치를 사각 박스 형태로 표시하고 사각 박스 위에 인식된 플랑크톤의 종류를 기재하여 출력 영상으로 내보내는 단계(S4)로 이루어질 수 있다.A method of separating and recognizing individual plankton using a deep run in a microscopic image in which a plurality of plankton are dispersed or scattered according to the present invention is a method of separating and recognizing individual plankton as shown in FIGS. 1 to 2, (S1) of constructing a CNN (Convolutional Neural Network) for separating individual plankton by detecting the position of individual plankton from the image and recognizing the kind of the separated plankton; After inputting the input image of plankton at the input of the CNN, the type of plankton output from the output terminal of the CNN, the positional information of the plankton in the input image, and the actual type of plankton in the input image desired to be output from the output terminal of CNN In order to minimize the difference between the actual expected position of the plankton in the input image and the output expected value of the planet, the type of plankton output from the output of CNN, and CNN A step (S2) of learning CNN by adjusting a weight (Weight) which is a variable value; (S3) of inputting a photographed image in which a plurality of plankton aggregates or scattered in CNN; And recognizing the position of the intracellular plankton and the type of plankton by the CNN, then displaying the position of the plankton in the input image in a rectangular box form, writing the recognized types of plankton on the rectangular box, ).

상기 다수의 플랑크톤이 응집 혹은 산재 된 현미경 영상으로부터 개개의 플랑크톤의 위치를 검출함으로써 개개의 플랑크톤을 분리하고 분리된 플랑크톤의 종류를 인식하기 위해 CNN(Convolutional Neural Network)을 구성하는 단계(S1)에서, 상기 CNN은 입력된 플랑크톤 영상에 컨볼루션 필터 마스크(Convolution filter mask)를 적용하여 입력된 플랑크톤 영상을 컴퓨터가 처리할 수 있는 피처맵(Feature map)으로 변환하는 컨볼루션 레이어(Convolution layer)와, 상기 컨볼루션 레이어(Convolution layer)를 거쳐 출력된 피처맵(Feature map)의 데이터 크기를 줄여주는 풀링 레이어(Pooling layer), 및 상기 컨볼루션 레이어(Convolution layer)와 풀링 레이어(Pooling layer)에 의해 추상화되고 요약된 정보로부터 플랑크톤를 인식함과 더불어 입력 영상 내 플랑크톤의 위치를 검출하는 풀리 커넥티드 레이어(Fully connected layer)를 포함한다.In step (S1) of constructing a CNN (Convolutional Neural Network) for separating individual plankton and recognizing the kinds of plankton separated by detecting the positions of individual plankton from the micrograph images in which the plurality of plankton coagulated or scattered, The CNN includes a convolution layer for applying a convolution filter mask to an input plankton image and converting the input plankton image into a feature map that can be processed by a computer, A pooling layer for reducing a data size of a feature map outputted through a convolution layer and a convolution layer and a pooling layer, In addition to recognizing plankton from the summarized information, a pulley connected to detect the position of plankton in the input image It includes language (Fully connected layer).

상기 컨볼루션 필터 마스크는 플랑크톤 영상으로부터 플랑크톤의 종류와 입력 영상 내 플랑크톤의 위치를 파악하기 위해 여러 종의 플랑크톤 종을 파악할 수 있는 특징을 갖는다.The convolution filter mask is characterized in that it can grasp various types of plankton species in order to grasp the type of plankton from the plankton image and the position of the plankton in the input image.

상기 컨볼루션 레이어(Convolution layer)는 도면 3a 내지 도면 3c에 도시한 바와 같이,

Figure 112017023041125-pat00001
내지
Figure 112017023041125-pat00002
크기의 컨볼루션 필터 마스크(Convolution filter mask)를 이용하여 CNN으로 입력된 플랑크톤 영상에서 특징을 추출하고, 추출된 특징을 피처 맵(Feature map)으로 출력한다.As shown in FIGS. 3A to 3C, the convolution layer includes a plurality of sub-
Figure 112017023041125-pat00001
To
Figure 112017023041125-pat00002
Size convolution filter mask to extract features from the plankton image input to the CNN and output the extracted features to a feature map.

상기 컨볼루션 레이어(Convolution layer)는 13개 이상이고, 상기 피처맵(Feature map)의 수는 64 내지 1024개이다.The number of the convolution layer is 13 or more, and the number of the feature maps is 64 to 1024.

상기 컨볼루션 필터 마스크는 입력된 플랑크톤의 영상에서 플랑크톤의 특징을 추출한다.The convolution filter mask extracts the features of the plankton from the image of the input plankton.

상기 컨볼루션 필터 마스크는 플랑크톤이 포함된 입력 영상 중에 컨볼루션 필터 마스크가 가진 특성이 강하면 결과 값이 크게 나오는 반면, 플랑크톤이 포함된 입력 영상 중에 컨볼루션 필터 마스크가 가진 특성이 없으면 결과 값이 '0'에 가까워진다.If the convolution filter mask has a characteristic that the convolution filter mask has a strong characteristic, the convolution filter mask has a large value, whereas if the convolution filter mask has no characteristic among the input images including plankton, '.

한편, 플랑크톤이 촬영된 입력 영상이 컨볼루션 레이어를 거쳐 어느 정도 특징이 추출되면 입력 영상 내 플랑크톤의 종류와 위치를 파악하는 CNN은 추출된 모든 데이터를 가지고 판단할 필요가 없다.On the other hand, when the input image captured by the plankton is extracted through the convolution layer to some extent, CNN that grasps the type and location of the plankton in the input image need not judge with all the extracted data.

예를 들어, 우리가 고해상도 사진을 보고 물체를 판별할 수 있지만, 작은 사진을 가지고도, 그 사진의 내용이 어떤 내용인지 판단할 수 있는 원리이다.For example, we can identify objects by looking at high-resolution pictures, but even if we have small pictures, we can judge what the contents of the pictures are.

따라서, 추출된 피처맵(Feature map)의 크기를 인위적으로 줄이는 작업을 서브 샘플링(Sub-sampling) 또는 풀링(Pooling)이라고 한다.Therefore, artificially reducing the size of the extracted feature map is called sub-sampling or pooling.

상기 풀링(Pooling)에는 맥스 풀링(Max pooling)과, Average pooling, 및 L2-norm pooling 등이 있는데, 본 발명의 풀링 레이어(Pooling layer)에서는 맥스 풀링 레이어(Max pooling layer)와 어베러지 풀링 레이어(Average pooling layer) 중 어느 하나를 사용할 수 있다.The pooling includes Max pooling, Average pooling, and L2-norm pooling. In the pooling layer of the present invention, a Max pooling layer and an Averager pooling layer Average pooling layer) can be used.

상기 풀링 레이어(Pooling layer)는 컨볼루션 레이어(Convolution layer)의 피처맵(Feature map) 크기를 줄여주는 역할을 수행하는데, 예를 들어,

Figure 112017023041125-pat00003
피처맵(Feature map)을 스트라이드(Stride)가 2인
Figure 112017023041125-pat00004
풀링 필터(Pooling filter)를 사용할 경우, 총
Figure 112017023041125-pat00005
개의 출력 값이 생기는데, 여기서, 상기 맥스 풀링 레이어(Max pooling layer)는
Figure 112017023041125-pat00006
풀링 필터 안의 4개 파라미터(Parameter) 값들 중 최대(Max) 값 1개를 선택하고 나머지 3개 파라미터 값은 버림으로써 피처맵(Feature map)의 크기를 줄여준다.The pooling layer reduces the size of the feature map of the convolution layer. For example,
Figure 112017023041125-pat00003
The feature map is set to a value of 2 for the stride
Figure 112017023041125-pat00004
When using a pooling filter,
Figure 112017023041125-pat00005
The output of the Max pooling layer is a value of < RTI ID = 0.0 >
Figure 112017023041125-pat00006
The size of the feature map is reduced by selecting one of the four parameter values in the pooling filter and discarding the remaining three parameter values.

또한, 상기 Average pooling layer는

Figure 112017023041125-pat00007
풀링 필터 안의 4개 파라미터(Parameter) 값들을 평균 낸 평균(Average) 값 1개를 선택함으로써 피처맵(Feature map)의 크기를 줄여준다.Also, the Average pooling layer
Figure 112017023041125-pat00007
The size of the feature map is reduced by selecting one average value obtained by averaging the four parameter values in the pooling filter.

상기 맥스 풀링(Max pooling)에 대해 도면 4를 참고하여 보다 자세히 설명하면 다음과 같다.The Max pooling will be described in more detail with reference to FIG.

상기 맥스 풀링(Max pooling)은 피처맵(Feature map)을

Figure 112017023041125-pat00008
의 크기로 잘라낸 다음, 잘라낸
Figure 112017023041125-pat00009
크기의 이미지 영역에서 가장 큰 값을 뽑아내는 방법이다.The Max pooling includes a feature map
Figure 112017023041125-pat00008
, And then cut
Figure 112017023041125-pat00009
This is the method of extracting the largest value in the size image area.

도면 4는

Figure 112017023041125-pat00010
피처맵(Feature map)에서
Figure 112017023041125-pat00011
맥스 풀링 필터(Max pooling filter)를 사용하고, 스트라이드(Stride)는 2로 설정하여 맥스 풀링 필터가 피처맵(Feature map) 상에서 우측으로 2칸 하부로 2칸씩 이동하면서 맥스 풀링(Max pooling)을 처리하는 예인데, 좌측 상단에서는 '6'이 가장 큰 값이기 때문에 '6'을 뽑아내고, 우측 상단에는 2,4,7,8 중 '8'이 가장 크기 때문에 '8'을 뽑아낸다.4,
Figure 112017023041125-pat00010
In the feature map
Figure 112017023041125-pat00011
The Max pooling filter is used and the Stride is set to 2 so that the Max Pooling filter moves Max 2 places to the right by 2 spaces on the Feature map to process Max pooling 6 'is extracted because' 6 'is the largest value in the upper left corner, and' 8 'is extracted in the upper right corner.

상기 맥스 풀링(Max pooling)은 가장 큰 특징값이 다른 특징값들을 대표한다.The Max pooling represents other feature values with the largest feature value.

상기 맥스 풀링(Max pooling)은 전체 데이터의 사이즈가 줄어들기 때문에 연산에 들어가는 컴퓨팅 리소스가 적어진다는 장점이 있다.The Max pooling is advantageous in that the size of the entire data is reduced, so that computing resources to be computed are reduced.

본 발명에서 상기 풀링 레이어(Pooling layer)는 4개 이상이며, 상기 풀링 레이어(Pooling layer)에서는 풀링 필터(Pooling filter)가 피처맵(Feature map) 상에서 우측 픽셀이나 하측 픽셀로 이동되는 픽셀 간격인 스트라이드(Stride)를 2로 설정하여 풀링 필터가 피처맵의 어느 한 구간에서 필터링(Filtering)을 끝마쳤을 때 피처맵의 우측이나 하측으로 2 픽셀씩 이동된다.In the present invention, the number of the pooling layers is four or more. In the pooling layer, a pooling filter is a stride which is a pixel interval in which a pooling filter is moved to a right pixel or a lower pixel on a feature map. (Stride) is set to 2, and when the pulling filter finishes filtering in one section of the feature map, it is shifted by 2 pixels to the right or lower side of the feature map.

상기 풀리 커넥티드 레이어(Fully connected layer)는 2개 이상으로 구성될 수 있다.The Fully connected layer may be composed of two or more.

상기 풀리 커넥티드 레이어(Fully connected layer)는 기존 신경망과 같은 형태의 레이어로서, 모든 입력 노드(Input Node)가 모든 출력 노드(Output Node)로 연결된 상태이고 실제로 컴퓨터는 상기 풀리 커넥티드 레이어(Fully connected layer)를 통해 특징 데이터를 학습하게 된다.The Fully connected layer is a layer of the same type as a conventional neural network in which all the input nodes are connected to all of the output nodes and the computer is actually connected to the pulley connected layer layer) to learn feature data.

상기 풀리 커넥티드 레이어(Fully connected layer)는 컨볼루션 레이어(Convolution layer)와 풀링 레이어(Pooling layer)에서 추출된 플랑크톤의 특징 값들을 기존의 뉴럴 네트워크(Neural Network)에 넣어 플랑크톤의 종류를 인식하고 입력 영상 내 플랑크톤의 위치를 파악한다.The Fully connected layer recognizes the type of plankton by putting the feature values of the plankton extracted from the convolution layer and the pooling layer into the existing neural network, Locate the plankton in the image.

또한, 상기 풀리 커넥티드 레이어(Fully connected layer)의 출력단에는 입력 영상에 포함된 플랑크톤에 대해 각 플랑크톤의 종류와 위치에 따른 확률 값을 표시하기 위해 소프트맥스(Softmax) 함수가 사용될 수도 있다.In addition, a Softmax function may be used at the output end of the Fully connected layer to display a probability value according to the type and position of each plankton with respect to the plankton included in the input image.

또, 본 발명은 컨볼루션 필터 마스크를 적용하여 추출된 피처맵(Feature map)에 leaky ReLU(Rectified Linear Unit) activation function을 적용한다.In addition, the present invention applies a leaky ReLU (Rectified Linear Unit) activation function to a feature map extracted by applying a convolution filter mask.

상기 leaky ReLU activation function을 사용하는 이유로는 CNN에서 신경망이 깊어질수록 학습이 어렵기 때문에 백-프로퍼게이션(Back-propagation) 알고리즘 방법을 사용하는데, Sigmoid 함수를 activation 함수로 사용할 경우 레이어가 깊어지면 백-프로퍼게이션 알고리즘이 제대로 동작하지 않을 수 있어 (Gradient Vanishing 현상: 결과값을 CNN의 뒤에서 앞으로 전달할 때 전달 값이 사라지는 현상) leaky ReLU activation function을 사용한다.The reason for using the leaky ReLU activation function is that the back-propagation algorithm method is used because it is difficult to learn as the neural network becomes deeper in CNN. When the Sigmoid function is used as the activation function, The back-propagation algorithm may not work properly (Gradient Vanishing: use the leaky ReLU activation function to remove the forward value when forwarding the result backward from CNN).

상기 CNN의 입력단에 플랑크톤이 촬영된 입력 영상을 인가한 다음, CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 CNN의 출력단으로부터 출력되기를 원하는 입력 영상 내 플랑크톤의 실제 종류와 입력 영상 내 플랑크톤의 실제 위치 좌표가 저장된 출력 기대값과의 차이가 최소가 되도록 CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 출력 기대값 사이의 오차를 조정하는 CNN의 변수값인 가중치(Weight)를 조정함으로써 CNN을 학습시키는 단계(S2)에서 상기 CNN의 학습은 지도 학습(Supervised learning)을 이용하며, 입력값과, 출력 기대값으로 이루어진 학습 데이터를 이용하여 CNN의 학습을 진행한다.After inputting the input image of plankton at the input of the CNN, the type of plankton output from the output terminal of the CNN, the positional information of the plankton in the input image, and the actual type of plankton in the input image desired to be output from the output terminal of CNN In order to minimize the difference between the actual expected position of the plankton in the input image and the output expected value of the planet, the type of plankton output from the output of CNN, and CNN In step S2, CNN is learned by adjusting a weight, which is a variable value, by using CNN learning using supervised learning and learning data composed of an input value and an output expected value. Proceed with learning.

상기 CNN의 입력단에 플랑크톤이 촬영된 입력 영상을 인가한 다음, CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 CNN의 출력단으로부터 출력되기를 원하는 입력 영상 내 플랑크톤의 실제 종류와 입력 영상 내 플랑크톤의 실제 위치 좌표가 저장된 출력 기대값과의 차이가 최소가 되도록 CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 출력 기대값 사이의 오차를 조정하는 CNN의 변수값인 가중치(Weight)를 조정함으로써 CNN을 학습시키는 단계(S2)는 상기 CNN의 입력단에 플랑크톤이 촬영된 입력 영상을 인가하고 CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 CNN의 출력단으로부터 출력되기를 원하는 출력 기대값과의 차이를 확인하는 단계와, CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 출력 기대값과의 차이를 참고한 다음, 역전파 알고리즘(Back-propagation)을 이용하여 상기 CNN의 네트(Net)에 해당하는 파라미터(가중치, Weight) 값을 변화시키는 단계; 및 또 다른 플랑크톤이 촬영된 입력 영상을 CNN에 반복적으로 적용함으로써 CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과가 출력 기대값으로 수렴하도록 하고 상기 실제 출력값과 출력 기대값의 차이가 최소화되면 CNN의 학습을 마치는 단계를 포함한다.After inputting the input image of plankton at the input of the CNN, the type of plankton output from the output terminal of the CNN, the positional information of the plankton in the input image, and the actual type of plankton in the input image desired to be output from the output terminal of CNN In order to minimize the difference between the actual expected position of the plankton in the input image and the output expected value of the planet, the type of plankton output from the output of CNN, and CNN The step S2 of learning the CNN by adjusting the weight, which is a variable value, is performed by applying an input image photographed with plankton to the CNN input terminal, determining the type of plankton output from the output terminal of the CNN, And the expected output value to be output from the CNN output terminal The difference between the plankton output from the CNN output terminal and the output of the plankton in the input image and the output expected value is referred to, Changing a parameter (weight, Weight) value corresponding to a net of CNN; And another plankton are repeatedly applied to the CNN so that the kind of plankton output from the output end of the CNN and the result of locating the plankton in the input image converge to the expected output value and the actual output value and the output expected value When the difference is minimized, it includes the step of finishing CNN learning.

상기 출력 기대값이란 CNN의 입력단으로 입력된 플랑크톤이 촬영된 입력 영상속에 포함된 실제 플랑크톤의 정확한 종류와 입력 영상 속 플랑크톤의 정확한 위치이다.The output expected value is the exact type of the actual plankton included in the captured input image of the plankton inputted to the input terminal of the CNN and the exact position of the plankton in the input image.

결과적으로, 도면 5에 도시한 바와 같이, 3종의 유해 플랑크톤 종과, 15종의 비유해 플랑크톤 종 도합 18종에 대한 949개의 샘플을 본 발명에 적용해 본 결과, 인식을 시도한 949개의 모든 영상에서 100%의 인식율과 거의 100%의 위치 검출율을 보였다.As a result, as shown in FIG. 5, 949 samples of 18 species of three kinds of noxious plankton species and 15 species of noxious plankton species were applied to the present invention, and as a result, 949 all images 100% recognition rate and almost 100% position detection rate.

또한, Flow Cytometer와 Microscope(FlowCam) 영상에 본 발명을 적용해 본 결과 거의 완벽한 결과를 얻을 수 있었다.In addition, applying the present invention to a flow cytometer and a microscope (FlowCam) image, almost perfect results were obtained.

여기서, 도면 6a 내지 도면 6g에 도시한 색깔 박스는 검출된 개개의 플랑크톤의 위치를 나타내고, 박스 위의 이름은 인식된 플랑크톤에 대한 종 이름이다.Here, the color box shown in Figs. 6a to 6g shows the position of the detected individual plankton, and the name on the box is the species name for the recognized plankton.

이러한 절차로 이루어진 본 발명에 따른 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법은 다수의 플랑크톤이 응집해 있거나 산재 된 입력 영상에서 개개의 플랑크톤의 위치를 파악함과 더불어 개개의 플랑크톤 종류를 인식할 수 있으므로 해당 입력 영상이 촬영된 해양 또는 담수의 건강 상태를 정확하게 판단할 수 있다.The method of separating and recognizing individual plankton using the deep run in a microscopic image of a plurality of plankton coagulated or scattered according to the present invention comprising the steps of the present invention is a method of separating and recognizing individual plankton from a coherent or scattered input image, It is possible to accurately determine the health state of the marine or fresh water in which the input image is captured because the individual plankton types can be recognized along with the location.

Claims (4)

다수의 플랑크톤이 응집 혹은 산재된 현미경 영상으로부터 개개의 플랑크톤의 위치를 검출함으로써 개개의 플랑크톤을 분리하고 분리된 플랑크톤의 종류를 인식하기 위해 CNN(Convolutional Neural Network)을 구성하는 단계(S1)와;
상기 CNN의 입력단에 플랑크톤이 촬영된 입력 영상을 인가한 다음, CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 CNN의 출력단으로부터 출력되기를 원하는 입력 영상 내 플랑크톤의 실제 종류와 입력 영상 내 플랑크톤의 실제 위치 좌표가 저장된 출력 기대값과의 차이가 최소가 되도록 CNN의 출력단으로부터 출력되는 플랑크톤의 종류 및 입력 영상 내 플랑크톤의 위치 파악 결과와 출력 기대값 사이의 오차를 조정하는 CNN의 변수값인 가중치(Weight)를 조정함으로써 CNN을 학습시키는 단계(S2);
CNN에 다수의 플랑크톤이 응집해 있거나 산재해 있는 촬영 영상을 입력시키는 단계(S3);
및 상기 CNN으로 영상 내 플랑크톤의 위치와 플랑크톤에 대한 종류를 인식한 다음, 입력 영상 내 플랑크톤의 위치를 사각 박스 형태로 표시하고 사각 박스 위에 인식된 플랑크톤의 종류를 기재하여 출력 영상으로 내보내는 단계(S4)로 이루어지는 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법.
(S1) of constructing a CNN (Convolutional Neural Network) for separating individual plankton and recognizing the kinds of plankton separated by detecting the positions of individual plankton from a plurality of plankton coagulated or scattered microscopic images;
After inputting the input image of plankton at the input of the CNN, the type of plankton output from the output terminal of the CNN, the positional information of the plankton in the input image, and the actual type of plankton in the input image desired to be output from the output terminal of CNN In order to minimize the difference between the actual expected position of the plankton in the input image and the output expected value of the planet, the type of plankton output from the output of CNN, and CNN A step (S2) of learning CNN by adjusting a weight (Weight) which is a variable value;
(S3) of inputting a photographed image in which a plurality of plankton aggregates or scattered in CNN;
And recognizing the position of the intracellular plankton and the type of plankton by the CNN, then displaying the position of the plankton in the input image in a rectangular box form, writing the recognized types of plankton on the rectangular box, ) In which a plurality of plankton are coagulated or scattered. The method of separating and recognizing individual plankton using deep running.
제1 항에 있어서,
상기 다수의 플랑크톤이 응집 혹은 산재 된 현미경 영상으로부터 개개의 플랑크톤의 위치를 검출함으로써 개개의 플랑크톤을 분리하고 분리된 플랑크톤의 종류를 인식하기 위해 CNN(Convolutional Neural Network)을 구성하는 단계(S1)에서,
상기 CNN은 입력된 플랑크톤 영상에 컨볼루션 필터 마스크(Convolution filter mask)를 적용하여 입력된 플랑크톤 영상을 컴퓨터가 처리할 수 있는 피처맵(Feature map)으로 변환하는 컨볼루션 레이어(Convolution layer)와,
상기 컨볼루션 레이어(Convolution layer)를 거쳐 출력된 피처맵(Feature map)의 데이터 크기를 줄여주는 풀링 레이어(Pooling layer),
및 상기 컨볼루션 레이어(Convolution layer)와 풀링 레이어(Pooling layer)에 의해 추상화되고 요약된 정보로부터 플랑크톤를 인식함과 더불어 플랑크톤의 종류를 인식하고 입력 영상 내 플랑크톤의 위치를 검출하는 풀리 커넥티드 레이어(Fully connected layer)를 포함하는 것을 특징으로 하는 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법.
The method according to claim 1,
In step (S1) of constructing a CNN (Convolutional Neural Network) for separating individual plankton and recognizing the kinds of plankton separated by detecting the positions of individual plankton from the micrograph images in which the plurality of plankton coagulated or scattered,
The CNN includes a convolution layer for applying a convolution filter mask to the input plankton image and converting the input plankton image into a feature map that can be processed by a computer,
A pooling layer for reducing a data size of a feature map outputted through the convolution layer,
And a pulley connected layer for recognizing the plankton from the information abstracted and summarized by the convolution layer and the pooling layer and for recognizing the type of plankton and detecting the position of the plankton in the input image wherein the plankton is separated and recognized using deep running in a microphotograph image in which a plurality of plankton are aggregated or interspersed.
제2 항에 있어서,
상기 컨볼루션 레이어(Convolution layer)는
Figure 112017023041125-pat00012
내지
Figure 112017023041125-pat00013
크기의 컨볼루션 필터 마스크(Convolution filter mask)를 이용하여 CNN으로 입력된 플랑크톤 영상에서 특징을 추출하고,
추출된 특징은 피처 맵(Feature map)으로 출력하며,
상기 컨볼루션 레이어(Convolution layer)는 13개 이상이고,
상기 피처맵(Feature map)의 수는 64개 내지 1024개인 것을 특징으로 하는 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법.
3. The method of claim 2,
The convolution layer
Figure 112017023041125-pat00012
To
Figure 112017023041125-pat00013
The features of the plankton image input to CNN are extracted by using a convolution filter mask of size,
The extracted feature is output as a feature map,
The convolution layer includes 13 or more convolution layers,
Wherein the number of feature maps is from 64 to 1024. 14. A method for separating and recognizing individual plankton using deep running in a coherent or scattered microscope image.
제2 항에 있어서,
상기 풀링 레이어(Pooling layer)는 4개 이상이고,
상기 풀링 레이어(Pooling layer)에서는 풀링 필터(Pooling filter)가 피처맵(Feature map) 상에서 우측 픽셀이나 하측 픽셀로 이동되는 픽셀 간격인 스트라이드(Stride)를 2로 설정하여 풀링 필터가 피처맵의 어느 한 구간에서 필터링(Filtering)을 끝마쳤을 때 피처맵의 우측이나 하측으로 2 픽셀 이동되는 것을 특징으로 하는 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법.
3. The method of claim 2,
The number of the pooling layers is four or more,
In the pooling layer, a pooling filter sets a stride, which is a pixel interval, to be shifted to a right pixel or a lower pixel on the feature map to 2, so that the pooling filter sets one of the feature maps (2) pixels are shifted to the right or the lower side of the feature map when the filtering is finished in the segment. The method of separating and recognizing the individual plankton by using deep running in a micrograph image in which a plurality of plankton are aggregated or scattered .
KR1020170029345A 2017-03-08 2017-03-08 The method for separating and recognizing individual plankton using deep learning in a clumped or dispersed microscopic plankton image KR101743270B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170029345A KR101743270B1 (en) 2017-03-08 2017-03-08 The method for separating and recognizing individual plankton using deep learning in a clumped or dispersed microscopic plankton image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170029345A KR101743270B1 (en) 2017-03-08 2017-03-08 The method for separating and recognizing individual plankton using deep learning in a clumped or dispersed microscopic plankton image

Publications (1)

Publication Number Publication Date
KR101743270B1 true KR101743270B1 (en) 2017-06-05

Family

ID=59222929

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170029345A KR101743270B1 (en) 2017-03-08 2017-03-08 The method for separating and recognizing individual plankton using deep learning in a clumped or dispersed microscopic plankton image

Country Status (1)

Country Link
KR (1) KR101743270B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108230390A (en) * 2017-06-23 2018-06-29 北京市商汤科技开发有限公司 Training method, critical point detection method, apparatus, storage medium and electronic equipment
CN108961301A (en) * 2018-07-12 2018-12-07 中国海洋大学 It is a kind of based on the unsupervised Chaetoceros image partition method classified pixel-by-pixel
CN109614456A (en) * 2018-11-28 2019-04-12 武汉大学 A kind of the positioning partition method and device of the geography information based on deep learning
KR20190049278A (en) * 2017-11-01 2019-05-09 한국생산기술연구원 Apparatus And Method for Detecting An Object Through Analyzing Activation Functions Of Deep Neural Network
CN111046812A (en) * 2019-12-18 2020-04-21 四创科技有限公司 Water surface floater detection method based on twin network
CN111898677A (en) * 2020-07-30 2020-11-06 大连海事大学 Plankton automatic detection method based on deep learning
KR20230028612A (en) * 2021-08-19 2023-03-02 (주)엠큐빅 Microalgae analysis device using artificial intelligence

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085533A (en) 2001-09-07 2003-03-20 Microbio Corp Method for counting number of pieces, program for the same, recording medium, and device for counting number of pieces

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085533A (en) 2001-09-07 2003-03-20 Microbio Corp Method for counting number of pieces, program for the same, recording medium, and device for counting number of pieces

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108230390A (en) * 2017-06-23 2018-06-29 北京市商汤科技开发有限公司 Training method, critical point detection method, apparatus, storage medium and electronic equipment
KR20190049278A (en) * 2017-11-01 2019-05-09 한국생산기술연구원 Apparatus And Method for Detecting An Object Through Analyzing Activation Functions Of Deep Neural Network
KR102070828B1 (en) * 2017-11-01 2020-01-30 한국생산기술연구원 Apparatus And Method for Detecting An Object Through Analyzing Activation Functions Of Deep Neural Network
CN108961301A (en) * 2018-07-12 2018-12-07 中国海洋大学 It is a kind of based on the unsupervised Chaetoceros image partition method classified pixel-by-pixel
CN108961301B (en) * 2018-07-12 2021-11-02 中国海洋大学 Chaetoceros image segmentation method based on unsupervised pixel-by-pixel classification
CN109614456A (en) * 2018-11-28 2019-04-12 武汉大学 A kind of the positioning partition method and device of the geography information based on deep learning
CN109614456B (en) * 2018-11-28 2020-11-03 武汉大学 Deep learning-based geographic information positioning and partitioning method and device
CN111046812A (en) * 2019-12-18 2020-04-21 四创科技有限公司 Water surface floater detection method based on twin network
CN111046812B (en) * 2019-12-18 2023-04-07 四创科技有限公司 Water surface floater detection method based on twin network
CN111898677A (en) * 2020-07-30 2020-11-06 大连海事大学 Plankton automatic detection method based on deep learning
KR20230028612A (en) * 2021-08-19 2023-03-02 (주)엠큐빅 Microalgae analysis device using artificial intelligence
KR102562371B1 (en) * 2021-08-19 2023-08-02 (주)엠큐빅 Microalgae analysis device using artificial intelligence

Similar Documents

Publication Publication Date Title
KR101743270B1 (en) The method for separating and recognizing individual plankton using deep learning in a clumped or dispersed microscopic plankton image
CN111325713B (en) Neural network-based wood defect detection method, system and storage medium
Mohamed et al. Msr-yolo: Method to enhance fish detection and tracking in fish farms
French et al. Convolutional neural networks for counting fish in fisheries surveillance video
CN111046880A (en) Infrared target image segmentation method and system, electronic device and storage medium
CN112598713A (en) Offshore submarine fish detection and tracking statistical method based on deep learning
Tamilselvi et al. Unsupervised machine learning for clustering the infected leaves based on the leaf-colours
Alharbi et al. Automatic counting of wheat spikes from wheat growth images
KR100889997B1 (en) Apparatus and Method for Ship Ballast Water Examination using Image Processing
Yumang et al. Determination of Shelled Corn Damages using Colored Image Edge Detection with Convolutional Neural Network
Ghazal et al. Automated framework for accurate segmentation of leaf images for plant health assessment
CN111968081B (en) Automatic fish shoal counting method and device, electronic equipment and storage medium
Garcia et al. Acquisition of digital images and identification of Aedes Aegypti mosquito eggs using classification and deep learning
Sravanthi et al. Efficient image-based object detection for floating weed collection with low cost unmanned floating vehicles
CA3091337A1 (en) A real-time open water analysis system
Xu et al. Detection of bluefin tuna by cascade classifier and deep learning for monitoring fish resources
Zhang et al. Fully automatic system for fish biomass estimation based on deep neural network
Orbert et al. Watershed segmentation of binary images using distance transformations
Latte et al. A combined color and texture features based methodology for recognition of crop field image
Mashford et al. Pixel-based colour image segmentation using support vector machine for automatic pipe inspection
İşçimen et al. Classification of serranidae species using color based statistical features
CN113763408A (en) Method for rapidly identifying aquatic weeds in water through images in sailing process of unmanned ship
Sai Ramesh et al. Multi-Scale Fish Segmentation Refinement Using Contour Based Segmentation
Kannappan et al. Automated detection of scallops in their natural environment
Kaveti et al. Towards automated fish detection using convolutional neural networks

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant