KR20200109681A - Data acquisition method for classification of fish species - Google Patents

Data acquisition method for classification of fish species Download PDF

Info

Publication number
KR20200109681A
KR20200109681A KR1020190029113A KR20190029113A KR20200109681A KR 20200109681 A KR20200109681 A KR 20200109681A KR 1020190029113 A KR1020190029113 A KR 1020190029113A KR 20190029113 A KR20190029113 A KR 20190029113A KR 20200109681 A KR20200109681 A KR 20200109681A
Authority
KR
South Korea
Prior art keywords
fish
data
image
control unit
fish species
Prior art date
Application number
KR1020190029113A
Other languages
Korean (ko)
Other versions
KR102191062B1 (en
Inventor
박진현
황광복
Original Assignee
경남과학기술대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경남과학기술대학교 산학협력단 filed Critical 경남과학기술대학교 산학협력단
Priority to KR1020190029113A priority Critical patent/KR102191062B1/en
Publication of KR20200109681A publication Critical patent/KR20200109681A/en
Application granted granted Critical
Publication of KR102191062B1 publication Critical patent/KR102191062B1/en

Links

Images

Classifications

    • G06K9/627
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06K9/00362
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Abstract

The present invention relates to a data application method for classifying fish species, comprising: a camera provided on the inner water surface; a control unit managing and processing information of the camera; and a terminal capable of outputting information stored in the control unit. The method comprises: a first step of securing fish species and extracting fish images; a second step of generating data by combining the extracted fish image and an underwater environment image with different pixel values; a third step of storing the generated data in the control unit; a fourth step of extracting the fish image on the inner water surface with the camera; a fifth step of generating classification information by classifying the fish species by comparing the fish image extracted by the control unit with the data; a sixth step of storing the classification information in the control unit; and a seventh step of transmitting the classification information to the terminal.

Description

어종 분류를 위한 데이터 적용 방법{Data acquisition method for classification of fish species}Data acquisition method for classification of fish species}

본 발명은 어종 분류를 위한 데이터 적용 방법에 관한 것으로, 각 어종에 대해 직접 촬영한 영상을 사용하였으며, 어종 분류 성능을 높이기 위해 영상 이미지를 변형한 다음, 내수면의 이미지와 합성하여 데이터를 수집하는 방법에 관한 것이다.The present invention relates to a method of applying data for classification of fish species, and a method of collecting data by transforming an image image to improve fish classification performance, and then synthesizing it with an image of an inland water surface using images taken directly for each fish species. It is about.

환경부는 2007년부터 생태계 교란 외래 생물 종에 대한 모니터링을 진행하고 있으며, 2011년부터는 외래종 16종에 대하여 매년 조사를 진행하고 있다. 특히 2010년 제10차 생물다양성협약 당사국 총회에서 생물 다양성 보전을 위한 목표 중 ‘침입 외래종 제거’를 발표함으로써 침입 외래종 제거에 관한 연구가 국내외에 활발히 진행되고 있다. 특히 국내 내수면의 생태계 교란 생물로 외래어종인 큰입배스(large mouse bass)와 블루길(bluegill)은 국내 토종어류의 개체군 감소에 가장 중요한 요인으로 알려져 있다. 따라서 이러한 외래어종 퇴치를 위한 효율적이고 확실한 시스템 개발이 필요한 실정이다. 따라서 외래어종 퇴치를 위한 전체 시스템 개발에 앞서 물고기 어종 분류를 위한 시스템 개발이 선행되어야 한다.The Ministry of Environment has been monitoring the exotic species that disturb the ecosystem since 2007, and has been conducting annual surveys on 16 foreign species since 2011. In particular, at the 10th General Assembly of the Parties to the Convention on Biological Diversity in 2010, research on the removal of invasive alien species is being actively conducted both at home and abroad by announcing “Removal of invasive alien species” among the goals for biodiversity conservation. In particular, large mouse bass and bluegill, which are foreign fish species, are known to be the most important factors in reducing the population of native fish in Korea as organisms disturbing the ecosystem in the domestic water surface. Therefore, it is necessary to develop an efficient and reliable system for combating these foreign fish species. Therefore, prior to the development of the entire system for combating foreign fish species, the development of a system for classification of fish species must be preceded.

수년 전부터 기계 학습(machine learning) 및 딥러닝(deep learning)에 관한 관심이 높아지고 있으며 특히 딥러닝은 기계 학습의 한 방법으로 컴퓨터가 직접 데이터로부터 스스로 학습하는 네트워크 모델로 직접 이미지, 텍스트 등을 분류하고 학습할 수 있다. 이러한 발전은 빅데이터(big data)의 활용, 고성능 GPU(Graphic Processing Unit) 같은 하드웨어의 발전과 인식알고리즘의 개발 등에 힘입어 실용성 높은 기술로 발전되었으며, 다양한 형태의 미디어들이 증가하면서 딥러닝의 응용 분야들이 새롭게 창출되고 있다. 그중 1990년도 후반 LeCun 교수에 의한 개발된 CNN(convolutional Neural Network)은 사람이나 동물의 시각처리 과정을 모방하여 역전파 학습알고리즘(back propagation learning algorithm)을 기반으로 영상 인식 분야에 성공적으로 적용함으로써 널리 사용되고 있다[Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner, 1998]. Since many years ago, interest in machine learning and deep learning has been increasing.In particular, deep learning is a method of machine learning, which is a network model that a computer directly learns from data, classifying images, text, etc. You can learn. This development has developed into a highly practical technology thanks to the use of big data, the development of hardware such as high-performance GPU (Graphic Processing Unit), and the development of recognition algorithms. As various types of media increase, deep learning applications Are being newly created. Among them, CNN (convolutional neural network) developed by Professor LeCun in the late 1990s is widely used by successfully applying it to the image recognition field based on the back propagation learning algorithm by imitating the visual processing process of humans or animals. Yes [Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner, 1998].

이러한 영상 인식 분야 중 물고기 종의 인식 분야에 성공적으로 적용한 사례도 있으나[G. Chen, P. Sun and Y. Shang, 2017; V. A. Sindagi and V. M. Patel, 2018], 이는 물 안이 아닌 물 밖이나 배 위에서 촬영한 물고기 영상으로 어종을 분류하는 작업이 수행되었다. 그리고 자연환경에 서식하는 물고기의 분류작업은 같은 종의 물고기 데이터를 축적하기 어려워 학습 및 테스트에 많은 어려움이 따른다[ M. Sarigul and M. Avci, 2017; H. Qin, X. Li, J. Liang, Y. Peng and C. Zhang, 2016; A. Salman, A. Jalal, F. S., A. Mian, M. Shortis, J. Seager and E. Harvey, 2016]. 또한, 일반적인 CNN은 ILSVRC(ImageNet Large Scale Visual Recognition Challenge)대회에서 매우 뛰어난 성능을 발휘하고 있으나, 분류하고자 하는 대상이 자동차, 말, 사람, 배, 꽃과 같이 특징이 매우 뚜렷한 데이터로 구성되어있다. 그러나 물고기의 경우는 분류하고자 하는 대상이 모두 비슷한 유선형을 가지고 있으며, 분류하고자 하는 대상의 환경이 물 안으로 주위의 자연환경에 따라 서로 다른 특징을 나타낸다.Among these image recognition fields, some cases have been successfully applied to the field of fish species recognition [G. Chen, P. Sun and Y. Shang, 2017; V. A. Sindagi and V. M. Patel, 2018], which classified fish species by fish images taken outside the water or on a boat. In addition, the classification of fish living in the natural environment is difficult to accumulate data on fish of the same species, resulting in many difficulties in learning and testing [M. Sarigul and M. Avci, 2017; H. Qin, X. Li, J. Liang, Y. Peng and C. Zhang, 2016; A. Salman, A. Jalal, F. S., A. Mian, M. Shortis, J. Seager and E. Harvey, 2016]. In addition, general CNNs are showing excellent performance in the ILSVRC (ImageNet Large Scale Visual Recognition Challenge) competition, but the targets to be classified are composed of data with very distinct characteristics such as cars, horses, people, boats, and flowers. However, in the case of fish, all the objects to be classified have a similar streamlined shape, and the environment of the object to be classified shows different characteristics according to the surrounding natural environment in the water.

한국등록특허 제10-1656635호Korean Patent Registration No. 10-1656635

상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 어종 분류 성능이 뛰어나고, 수행기간이 짧은 어종 분류를 위한 데이터 적용방법을 제공하는 것이다.In order to solve the above-described problem, an object of the present invention is to provide a data application method for classifying fish species with excellent fish species classification performance and a short execution period.

상술한 목적을 달성하기 위한 것으로, 내수면에 마련된 카메라와, 상기 카메라의 정보를 관리하고 연산 처리하는 제어부와, 상기 제어부에 저장된 정보를 출력할 수 있는 단말기로 구성되고, 어종을 확보하여, 어류 이미지를 추출하는 제 1단계와, 추출된 상기 어류 이미지와 물속환경 이미지를 픽셀값을 다르게 하고 합성하여 데이터를 생성하는 제 2단계와, 생성된 상기 데이터를 제어부에 저장하는 제 3단계와, 상기 카메라로 내수면의 물고기 이미지를 추출하는 제 4단계와, 상기 제어부에서 추출된 상기 물고기 이미지와 상기 데이터를 비교하여 어종을 분류하여 분류 정보를 생성하는 제 5단계와, 상기 분류 정보를 제어부에 저장하는 제 6단계와, 상기 분류 정보를 단말기로 전달하는 제 7단계로 구성된다.In order to achieve the above object, it is composed of a camera provided on the inland water surface, a control unit for managing and processing information of the camera, and a terminal capable of outputting the information stored in the control unit, and securing fish species to obtain fish images. A first step of extracting the fish image and a second step of synthesizing the extracted fish image and the underwater environment image with different pixel values, and a third step of storing the generated data in a control unit, and the camera A fourth step of extracting a fish image of the inland water surface; a fifth step of generating classification information by classifying a fish species by comparing the fish image extracted by the control unit with the data; and a fifth step of storing the classification information in the control unit It consists of a sixth step and a seventh step of transmitting the classification information to the terminal.

상기 제어부는 컨볼루션 신경망을 사용하며, 상기 데이터와 물고기 이미지를 비교하여 어종을 분류하는 것을 특징으로 한다.The control unit uses a convolutional neural network, and classifies fish species by comparing the data and fish images.

상기 제 2단계에서 상기 데이터의 픽셀값은

Figure pat00001
이며,
Figure pat00002
는 이미지 합성 비율로
Figure pat00003
이고,
Figure pat00004
는 상기 어류 이미지의 픽셀값이며,
Figure pat00005
는 상기 물속환경 이미지의 픽셀값인 것을 특징으로 한다.In the second step, the pixel value of the data is
Figure pat00001
Is,
Figure pat00002
Is the image composition ratio
Figure pat00003
ego,
Figure pat00004
Is the pixel value of the fish image,
Figure pat00005
Is a pixel value of the underwater environment image.

본 발명에 의한 어종 분류를 위한 데이터 적용 방법은 다음과 같은 효과가 있다.The data application method for classifying fish species according to the present invention has the following effects.

자연 환경과 유사한 어류 이미지에 대해서도 높은 어류 분류 성능을 나타내며, 수행시간과 학습시간이 짧아 외래어종 퇴치를 위한 시스템 개발에 가장 적합하다.It shows high fish classification performance for fish images similar to the natural environment, and its execution time and learning time are short, making it most suitable for system development to combat foreign fish species.

어종 분류 성능을 높일 수 있고, 외래어종 퇴치를 위한 효율적인 어종 분류 시스템을 개발할 수 있는 효과가 있다.There is an effect of improving fish classification performance and developing an efficient fish classification system for combating foreign fish species.

물속 환경이나 어류 간의 유사한 형상 때문에 전문가들도 육안으로 정확한 어종을 인지하기 어려우나, 본 발명을 통해 효과적인 어류 분류가 가능한 효과가 있다.Although it is difficult for experts to recognize the exact fish species with the naked eye because of the underwater environment or similar shapes between fish, there is an effect that effective fish classification is possible through the present invention.

도 1은 본 발명인 어종 분류를 위한 데이터 적용 방법의 구성을 나타낸 도면.
도 2는 본 발명인 어종 분류를 위한 데이터 적용 방법의 순서를 나타낸 도면.
도 3은 본 발명인 어종 분류를 위한 데이터 적용 방법에서 제어부의 계층구조에 대한 도면.
도 4는 본 발명인 어종 분류를 위한 데이터 적용 방법에서 어류 이미지를 추출하는 방법의 예를 보인 도면.
도 5는 본 발명인 어종 분류를 위한 데이터 적용 방법에서 물속환경 이미지의 예를 보인 도면.
도 6은 본 발명인 어종 분류를 위한 데이터 적용 방법에서 블루길의 합성된 데이터 예를 보인 도면.
도 7은 본 발명인 어종 분류를 위한 데이터 적용 방법에서 데이터 그룹 Ⅰ 중 Data set D의 학습 진행 과정을 나타낸 도면.
도 8은 본 발명인 어종 분류를 위한 데이터 적용 방법에서 데이터 그룹 Ⅰ의 어종 분류 성능을 나타낸 도면.
도 9는 본 발명인 어종 분류를 위한 데이터 적용 방법에서 데이터 그룹 Ⅰ 중 어종을 정확히 분류한 예를 나타낸 도면.
도 10은 본 발명인 어종 분류를 위한 데이터 적용 방법에서 데이터 그룹 Ⅰ 중 어종을 부정확하게 분류한 예를 나타낸 도면.
도 11은 본 발명인 어종 분류를 위한 데이터 적용 방법에서 데이터 그룹 Ⅰ의 성능 평가 결과를 나타낸 도면.
도 12는 본 발명인 어종 분류를 위한 데이터 적용 방법에서 데이터 그룹 Ⅰ의 성능 평가 결과를 나타낸 도면.
도 13은 본 발명인 어종 분류를 위한 데이터 적용 방법에서 데이터 그룹 Ⅱ의 데이터 개수를 나타낸 도면.
도 14는 본 발명인 어종 분류를 위한 데이터 적용 방법에서 데이터 그룹 Ⅱ의 성능 평가 결과를 나타낸 도면.
도 15는 본 발명인 어종 분류를 위한 데이터 적용 방법에서 데이터 그룹 Ⅱ의 성능 평가 결과를 나타낸 도면.
도 16은 본 발명인 어종 분류를 위한 데이터 적용 방법에서 데이터 그룹 Ⅲ의 성능 평가 결과를 나타낸 도면.
도 17은 본 발명인 어종 분류를 위한 데이터 적용 방법에서 데이터 그룹 Ⅲ의 성능 평가 결과를 나타낸 도면.
도 18은 본 발명인 어종 분류를 위한 데이터 적용 방법에서 데이터 그룹 Ⅱ,Ⅲ의 정확도에 따른 학습 데이터 개수를 나타낸 도면.
1 is a diagram showing the configuration of a data application method for classifying fish species according to the present invention.
2 is a diagram showing a sequence of a data application method for classifying fish species according to the present invention.
3 is a diagram of a hierarchical structure of a control unit in a data application method for classifying fish species according to the present invention.
4 is a diagram showing an example of a method of extracting fish images in the method of applying data for classification of fish species according to the present invention.
5 is a view showing an example of an underwater environment image in the method of applying data for classification of fish species according to the present invention.
6 is a view showing an example of bluegill synthesized data in a data application method for classifying fish species according to the present invention.
7 is a diagram showing a learning process of data set D of data group I in the data application method for classifying fish species according to the present invention.
8 is a view showing the fish species classification performance of data group I in the data application method for classifying fish species according to the present invention.
9 is a view showing an example of accurately classifying fish species among data group I in the data application method for classifying fish species according to the present invention.
10 is a diagram showing an example of incorrectly classifying fish species among data group I in the data application method for classifying fish species according to the present invention.
11 is a view showing a performance evaluation result of data group I in the data application method for classifying fish species according to the present invention.
12 is a view showing the performance evaluation result of data group I in the data application method for classifying fish species according to the present invention.
13 is a diagram showing the number of data in data group II in the data application method for classifying fish species according to the present invention.
14 is a view showing the performance evaluation results of data group II in the data application method for classifying fish species according to the present invention.
15 is a view showing the performance evaluation result of data group II in the data application method for classifying fish species according to the present invention.
16 is a view showing the performance evaluation result of data group III in the data application method for classifying fish species according to the present invention.
17 is a view showing the performance evaluation results of data group III in the data application method for classifying fish species according to the present invention.
18 is a diagram showing the number of training data according to the accuracy of data groups Ⅱ and Ⅲ in the data application method for classifying fish species according to the present invention.

이하, 본 발명에 의한 어종 분류를 위한 데이터 적용 방법의 바람직한 실시예가 첨부된 도면을 참고하여 상세하게 설명한다.Hereinafter, a preferred embodiment of a data application method for classifying fish species according to the present invention will be described in detail with reference to the accompanying drawings.

본 발명인 어종 분류를 위한 데이터 적용 방법은, 내수면에 마련된 카메라(100)와, 상기 카메라(100)의 정보를 관리하고 연산 처리하는 제어부(200)와, 상기 제어부(200)에 저장된 정보를 출력할 수 있는 단말기(300)로 구성되고, 어종을 확보하여, 어류 이미지를 추출하는 제 1단계(S1)와, 추출된 상기 어류 이미지와 물속환경 이미지를 픽셀값을 다르게 하고 합성하여 데이터를 생성하는 제 2단계(S2)와, 생성된 상기 데이터를 제어부(200)에 저장하는 제 3단계(S3)와, 상기 카메라(100)로 내수면의 물고기 이미지를 추출하는 제 4단계(S4)와, 상기 제어부(200)에서 추출된 상기 물고기 이미지와 상기 데이터를 비교하여 어종을 분류하여 분류 정보를 생성하는 제 5단계(S5)와, 상기 분류 정보를 제어부(200)에 저장하는 제 6단계(S6)와, 상기 분류 정보를 단말기(300)로 전달하는 제 7단계(S7)로 구성된다. The method of applying data for classification of fish species of the present inventor includes a camera 100 provided on the inland water surface, a control unit 200 for managing and calculating information of the camera 100, and outputting information stored in the control unit 200. The first step (S1) of securing fish species and extracting fish images, and the first step (S1) of extracting fish images and the extracted fish images and underwater environment images with different pixel values and synthesized to generate data A second step (S2), a third step (S3) of storing the generated data in the control unit 200, a fourth step (S4) of extracting an image of a fish on the inland water surface with the camera 100, and the control unit A fifth step (S5) of generating classification information by classifying a fish species by comparing the fish image extracted in 200 with the data, and a sixth step (S6) of storing the classification information in the control unit 200; , It consists of a seventh step (S7) of transmitting the classification information to the terminal 300.

먼저, 내수면에 카메라(100)가 마련된다. 상기 카메라(100)는 하천, 저수지 등의 내수면에 마련될 수 있으며, 내수면의 어류를 촬영할 수 있다. 그리고, 상기 카메라(100)는 방수 기능을 갖는 것이 바람직하다.First, the camera 100 is provided on the water surface. The camera 100 may be provided on an inland water surface such as a river or a reservoir, and may photograph fish on the inland water surface. In addition, it is preferable that the camera 100 has a waterproof function.

상기 카메라(100)의 정보를 관리하는 제어부(200)가 마련된다. 상기 제어부(200)는 상기 카메라(100)의 정보 외에도 각종 정보를 송수신할 수 있으며, 정보를 관리하여 연산처리할 수 있다.A control unit 200 for managing information of the camera 100 is provided. The controller 200 may transmit and receive various types of information in addition to the information of the camera 100, and may manage and process the information.

여기서, 상기 제어부(200)는 컨볼루션 신경망을 사용하며, CNN(Convolution Neural Network)라고도 불리며, 동물의 시각 처리 과정을 모방하여 사물의 크기 및 위치가 바뀌어도 인식할 수 있는 장점이 있는 이미지 인식 분야에서 가장 좋은 성능을 보이는 딥러닝 알고리즘이다. 따라서 CNN은 다양한 형태의 객체를 학습할 수 있으며 전송학습(Transfer Learning)을 통하여 학습된 네트워크를 새로운 인식 작업에 적용하여 네트워크를 재학습할 수 있는 장점 등이 있어 높은 정확성과 빠른 학습을 가능하게 한다. 도 3에 도시된 바와 같이, CNN의 일반적인 계층 구조를 확인할 수 있으며, 특징검출 계층(feature extraction layer)과 분류 계층(classification layer)으로 나눌 수 있다. 특징검출 계층은 입력 이미지를 컨볼루션 필터(convolution filter)를 사용하여 이미지의 특징을 활성화하는 컨벌루션 층(convolution layer), 네트워크의 기울기 소실 현상(vanishing gradient)을 없애고 네트워크가 빠르게 학습하기 위한 ReLU(Rectified Linear Unit) 층, 비선형 다운 샘플링을 수행함으로써 출력을 간소화하고 네트워크가 학습할 파라미터의 개수를 줄여주는 풀링(pooling) 층으로 나눌 수 있다. 또한, 분류 계층은 특징검출 계층을 지난 후 연결된 노드로 일반적으로 완전연결계층 (FC: Fully Connected layer)로 구성되어있으며, K 차원의 벡터로 네트워크가 예측할 수 있는 분류 개수를 말한다.Here, the control unit 200 uses a convolutional neural network, also referred to as a CNN (Convolution Neural Network), in the image recognition field that has the advantage of being able to recognize even if the size and position of an object changes by imitating the visual processing process of an animal. It is a deep learning algorithm with the best performance. Therefore, CNN can learn various types of objects and has the advantage of retraining the network by applying the network learned through transfer learning to a new recognition task, enabling high accuracy and fast learning. . As shown in FIG. 3, a general hierarchical structure of a CNN can be confirmed, and can be divided into a feature extraction layer and a classification layer. The feature detection layer uses a convolution filter on the input image to activate the features of the image, eliminates the vanishing gradient of the network, and allows the network to learn quickly. It can be divided into a linear unit layer, a pooling layer that simplifies the output by performing nonlinear downsampling and reduces the number of parameters to be learned by the network. In addition, the classification layer is a node connected after passing through the feature detection layer, and is generally composed of a fully connected layer (FC), and refers to the number of classifications that the network can predict with a K-dimensional vector.

상기 제어부(200)는 구조가 간단하고 높은 성능을 나타내는 AlexNet, Vgg16, Vgg19, GoodLeNet 등을 사용할 수 있으나, 이를 한정하지 않는다.The control unit 200 may use AlexNet, Vgg16, Vgg19, GoodLeNet, etc. having a simple structure and high performance, but is not limited thereto.

상기 제어부(200)에 저장된 정보를 출력하는 단말기(300)가 마련된다. 여기서, 상기 단말기(300)는 스마트폰, 노트북, PDA(Personal Digital Asistant) 등과 같은 휴대단말기뿐 아니라 PC(Personal Computer)와 같은 유선통신이 가능한 단말기도 포함될 수 있다.A terminal 300 for outputting information stored in the control unit 200 is provided. Here, the terminal 300 may include not only a portable terminal such as a smart phone, a notebook computer, and a personal digital assistant (PDA), but also a terminal capable of wired communication such as a personal computer (PC).

먼저, 제 1단계(S1)는 어종을 확보하여 어류 이미지를 추출한다.First, in the first step (S1), fish images are extracted by securing fish species.

상기 어류 이미지 추출을 위해 인터넷 이미지나 동영상 이미지를 사용하여 확보하는 것은 많은 시간이 소요되거나 저작권 등의 문제가 있어 데이터 확보가 어렵다. 그리고 자연환경에서는 수중의 심도와 탁도에 따라 물고기 영상이 매우 다르게 나타나며, 수중의 깊이와 탁도에 따라 시야가 제한되어 자연환경에서 물고기 영상을 촬영하여 데이터를 확보하는 것 또한 많은 시간이 소요되는 문제점이 있고 특정 어종의 촬영이 매우 어려운 문제점이 있었다.It is difficult to secure data by using Internet images or moving images for extracting fish images because it takes a lot of time or there is a problem such as copyright. And in the natural environment, fish images appear very different depending on the depth and turbidity in the water, and the field of view is limited depending on the depth and turbidity in the water, so taking a fish image in the natural environment to acquire data also takes a lot of time. And there was a problem that it was very difficult to shoot certain fish species.

이에 따라 구체적으로 도 4에 도시된 바와 같이, 실험실 환경에서 특정 어종을 확보하여 직접 어류의 동영상 이미지를 촬영하고, 촬영된 동영상을 기초로 어종의 이미지를 추출하였다.Accordingly, as shown in FIG. 4 in detail, a specific fish species was secured in a laboratory environment, and a moving image of the fish was directly captured, and an image of the fish species was extracted based on the captured video.

그리고, 제 2단계(S2)는 데이터를 생성한다. 구체적으로 추출된 상기 어류 이미지와 물속환경 이미지를 픽셀값을 다르게 한 다음 합성하여 상기 데이터를 생성한다.Then, the second step (S2) generates data. Specifically, the extracted fish image and the underwater environment image are synthesized after having different pixel values to generate the data.

여기서, 상기 데이터의 픽셀값은

Figure pat00006
이며,
Figure pat00007
는 이미지 합성 비율로
Figure pat00008
이고,
Figure pat00009
는 상기 어류 이미지의 픽셀값이며,
Figure pat00010
는 상기 물속환경 이미지의 픽셀값이다. 구체적으로, 픽셀에 덧셈 연산을 하는 경우 이미지의 명암도를 높여서 밝게 만들어주며, 뺄셈 연산을 하는 경우 이미지의 명암도를 낮추어서 어두운 이미지로 만들어준다. 곱셈 연산의 경우 밝은 값을 더욱 밝게 하고 어두운 값은 약간 밝게 만들어 이미지를 보다 선명하게 부각시키며, 나눗셈 연산은 이미지의 선명도를 낮추는 역할을 한다.Here, the pixel value of the data is
Figure pat00006
Is,
Figure pat00007
Is the image composition ratio
Figure pat00008
ego,
Figure pat00009
Is the pixel value of the fish image,
Figure pat00010
Is a pixel value of the underwater environment image. Specifically, when an addition operation is performed on a pixel, the brightness of the image is increased to make the image bright, and when the subtraction operation is performed, the image is made dark by lowering the contrast. In the case of the multiplication operation, the bright value is made brighter and the dark value is slightly brighter to highlight the image more clearly. The division operation serves to lower the sharpness of the image.

상기 어류 이미지와 상기 물속환경 이미지의 픽셀값을 서로 다르게 하여, 선명도를 조절하였고 이를 통해 합성된 상기 데이터는 물속에서 촬영된 영상과 매우 유사하게 만들어졌으며, 이는 내수면에서 촬영된 영상을 대치할 수 있다.The fish image and the image of the underwater environment were different from each other to adjust the sharpness, and the data synthesized through this was made very similar to the image taken in the water, which can replace the image taken from the inland water surface. .

또한, 상기 물속환경 이미지는 최대한 자연환경과 가까운 영상 이미지를 구현하기 위하여 내수면에서 발생하는 모든 환경에 대한 이미지를 사용할 수 있으며, 도 5에 도시된 바와 같이 녹조 성분의 이미지, 흙탕물 이미지, 깊은 수심의 이미지 중 하나를 사용할 수 있으나, 이에 한정하지 않는다.In addition, the underwater environment image can be used as an image of all environments occurring in the inland water in order to realize a video image close to the natural environment as much as possible. As shown in FIG. 5, an image of a green algae component, an image of muddy water, and a deep water depth One of the images may be used, but is not limited thereto.

그리고, 제 3단계(S3)는 생성된 상기 데이터를 제어부(200)에 저장한다. 구체적으로, 상기 제어부(200)에서 전송학습(Transfer Learning)을 사용하여 상기 데이터를 학습하였다.Then, the third step (S3) stores the generated data in the control unit 200. Specifically, the control unit 200 learned the data by using transfer learning.

그리고, 제 4단계(S4)는 내수면의 물고기 이미지를 추출한다. 구체적으로 상기 카메라(100)를 사용하여 실제 내수면 환경의 물고기 이미지를 추출한다.Then, in the fourth step (S4), an image of a fish on the inner water surface is extracted. Specifically, the camera 100 is used to extract a fish image of an actual inland water environment.

그리고, 제 5단계(S5)는 추출된 상기 물고기 이미지를 상기 데이터와 비교한다. 구체적으로 상기 제어부(200)에서 추출된 상기 물고기 이미지를 상기 제어부(200)에 저장된 상기 데이터와 비교하여 어종을 분류하고 분류 정보를 생성한다.And, in the fifth step (S5), the extracted fish image is compared with the data. Specifically, the fish image extracted by the control unit 200 is compared with the data stored in the control unit 200 to classify a fish species and generate classification information.

상기 제어부(200)는 국소수용영역(local receptive field), 가중치공유 (share weights), 이단추출(sub-sampling) 방식으로 데이터의 특징을 추출한다. 국소수용영역는 하위 계층의 노도가 상위계층의 모든 노드와 연결되어 있지 않고 지역적으로 일부의 노드에만 연결된 것을 의미하며, 가중치 공유는 공동으로 컨벌루션 필터(convolution filter)를 사용하여 패턴의 위치와 관계없이 특징점을 찾을 수 있는 역할을 한다. 또한, 이단추출은 풀링(pooling) 과정으로 특징점을 살리면서 파라미터의 개수를 줄여 연산시간을 단축하는 역할을 수행한다. The control unit 200 extracts features of data through a local receptive field, share weights, and sub-sampling. The local reception area means that the nodes of the lower layer are not connected to all nodes of the upper layer, but are connected to only some nodes locally, and the weight sharing is a feature point regardless of the position of the pattern by jointly using a convolution filter. Serves to find. In addition, the two-stage extraction serves to shorten the computation time by reducing the number of parameters while saving feature points through a pooling process.

상기 제어부(200)는 다른 네트워크와 마찬가지로 크게 입력층, 출력층과 두 계층 사이에 매우 많은 은닉층으로 구성되어있으며, 특징검출 계층과 분류 계층으로 나눌 수 있다. 특징검출 계층은 컨벌루션(convolution), ReLU(Rectified Linear Unit), 풀링 과정을 수행하며, 컨볼루션은 입력 이미지를 컨볼루션 필터를 사용하여 이미지의 특징을 활성화하는 역할을 한다. ReLu는 이미지 데이터들을 양수 값으로 유지하여 학습이 일어나지 않는 기울기 소실 현상(vanishing gradient)이 일어나지 않게 네트워크가 빠르고 학습하도록 한다. 또한, 풀링은 비선형 다운 샘플링을 수행함으로써 출력을 간소화하고 네트워크가 학습할 파라미터의 개수를 줄여준다. 분류 계층은 특징검출 계층을 지난 후 연결된 노드로 일반적으로 완전연결계층(FC: Fully Connected layer)으로 구성되어있으며, K 차원의 벡터를 출력한다. K는 네트워크가 예측할 수 있는 클래스의 개수를 말한다.Like other networks, the control unit 200 is largely composed of an input layer, an output layer, and a large number of hidden layers between the two layers, and can be divided into a feature detection layer and a classification layer. The feature detection layer performs convolution, ReLU (Rectified Linear Unit), and pooling processes, and convolution plays a role of activating the features of the image using a convolution filter on the input image. ReLu keeps the image data at positive values so that the network learns quickly so that vanishing gradients do not occur. In addition, pooling simplifies the output by performing nonlinear downsampling and reduces the number of parameters to be learned by the network. The classification layer is a node connected after passing through the feature detection layer, and is generally composed of a fully connected layer (FC), and outputs a K-dimensional vector. K is the number of classes that the network can predict.

여기서 상기 분류 정보는 각각의 어종에 대한 분류 성능, 어종의 이미지를 정확하게 분류한 예, 어종의 이미지를 부정확하게 분류한 예 등이며, 이에 한정하지 않는다.Here, the classification information includes classification performance for each fish species, an example of accurately classifying an image of a fish species, an example of incorrectly classifying an image of a fish species, and the like, but is not limited thereto.

그리고, 제 6단계(S6)는 상기 분류 정보를 제어부(200)에 저장한다. Then, the sixth step (S6) stores the classification information in the control unit 200.

그리고, 제 7단계(S7)는 상기 분류 정보를 단말기(300)로 전달한다. 상기 단말기(300)를 통해 분류 결과를 확인할 수 있다.Then, the seventh step (S7) transmits the classification information to the terminal 300. The classification result can be checked through the terminal 300.

이하, 본 발명에 의한 어종 분류를 위한 데이터 적용 방법에 대한 실험내용을 구체적으로 설명한다.Hereinafter, the experimental contents of the method of applying data for classification of fish species according to the present invention will be described in detail.

1. 분석결과 - 11. Analysis result-1

실험실 환경에서 촬영된 어류 이미지를 실제 내수면과 유사한 이미지로 변환한 데이터 세트로 구성된 데이터 그룹 Ⅰ으로 실험하였다.The experiment was conducted with Data Group I, which consisted of a data set in which fish images captured in a laboratory environment were converted into images similar to the actual inland water surface.

실험을 위한 CNNs은 구조가 간단하고 높은 성능을 내는 AlexNet, GoogLeNet, Vgg16, Vgg19를 사용하여 성능을 평가하였다. 각 네트워크는 Matlab에서 사용하는 전송학습(Transfer Learning)을 사용하여 학습 시간을 줄이고자 하였다. 각 네트워크의 최적화 방법은 Adam을 사용하였으며, 초기 학습률은

Figure pat00011
으로 설정하고, 미니배치(Mini Batch)의 크기는 각 네트워크의 성능에 맞게 적절히 조정하였다. 하드웨어 장치로는 Intel i9-7900 3.3GHz CPU와 4개의 NVIDIA GeForce GTX1080Ti를 사용하였다.CNNs for the experiment were evaluated using AlexNet, GoogLeNet, Vgg16, and Vgg19, which have a simple structure and high performance. Each network tried to reduce the learning time by using transfer learning used in Matlab. Adam was used as an optimization method for each network, and the initial learning rate was
Figure pat00011
And the mini-batch size was properly adjusted to suit the performance of each network. As the hardware device, Intel i9-7900 3.3GHz CPU and 4 NVIDIA GeForce GTX1080Ti were used.

각각의 어종별로 즉, 블루길(Bluegill), 메기(Catfish), 잉어(Common Carp), 붕어(Crucian Carp), 큰입배스(Large Mouth Bass), 쏘가리(Mandarin Fish), 누치(Skin Carp)의 어류 이미지를 물속환경 이미지와 합성하였으며, 데이터 그룹 Ⅰ에서 Data set A는 x의 값이 0.3이고, Data set B는 x의 값이 0.5이고, Data set C는 x의 값이 0.7이고, Data set D는 x의 값이 0.8이고, Data set E는 x의 값이 0.85이고, Data set F는 x의 값이 0.9이고, Data set G는 x의 값이 0.925이고, Data set H는 x의 값이 0.95으로 구성되며, 도 6은 블루길(Bluegill)의 데이터 세트를 나타낸 예시다.Fish images of Bluegill, Catfish, Common Carp, Crucian Carp, Large Mouth Bass, Mandarin Fish, and Skin Carp for each fish species Was synthesized with the underwater environment image, and in data group Ⅰ, data set A has a value of 0.3, data set B has a value of 0.5, data set C has a value of x 0.7, and data set D has a value of x The value of is 0.8, the value of x is 0.85 in the data set E, the value of x is 0.9 in the data set F, the value of x is 0.925 in the data set G, and the value of x is 0.95 in the data set H And, Figure 6 is an example showing a data set of Bluegill (Bluegill).

각각의 어종별로 상기 제 2단계에서 생성된 데이터 5,000[장/어종] 중 20%는 테스트 데이터로 선정하고, 56%와 24%는 학습과 유효성 검사를 위한 데이터로 선정하였다.For each fish species, 20% of the 5,000 [jang/fish species] generated in the second step were selected as test data, and 56% and 24% were selected as data for learning and validation.

도 7은 상기 데이터 그룹 Ⅰ 중 Data set D에 대한 AlexNet의 학습 진행 과정을 나타낸 것으로, 미니배치(Mini Batch)사이즈는 1024이고, 전체 학습횟수는 450번이므로 23.56번의 epoch를 수행하였다. 학습 후 AlexNet의 성능평가는 테스트 데이터 1000[장/어종]에 대하여 98.33%로 높은 정확도를 나타내었다.FIG. 7 shows the learning process of AlexNet for Data set D in the data group I. Since the mini-batch size is 1024 and the total number of learning is 450, epochs of 23.56 were performed. After learning, AlexNet's performance evaluation showed a high accuracy of 98.33% for 1000 test data [jang/fish species].

도 8은 AlexNet의 어종 분류 성능을 표시하였으며, 잉어의 경우 붕어 이미지와 매우 유사하여 14장의 잉어 이미지를 붕어 이미지로 잘못 인식하였으며, 붕어 이미지 역시 7장을 잉어 이미지로 잘못 인식하였다. 따라서 잉어의 분류 성능은 96.6%로 나타났으나, 다른 어종에 대한 분류의 정확도는 97.5% 이상으로 나타났다. FIG. 8 shows the fish species classification performance of AlexNet, and since the carp is very similar to the crucian carp image, 14 carp images were erroneously recognized as crucian carp images, and 7 crucian carp images were also erroneously recognized as carp images. Therefore, the classification performance of carp was found to be 96.6%, but the accuracy of classification for other fish species was over 97.5%.

도 9 및 도 10은 AlexNet의 붕어와 잉어 이미지를 분류한 예를 표시한 것으로, 도 9는 붕어의 이미지가 잉어의 이미지와 매우 유사함에도 정확히 분류되었음을 나타낸다. 도 10은 잉어의 이미지를 큰입배스로 잘못 분류한 예로, 잘못 분류된 잉어의 이미지는 어류 전문가들조차도 정확히 인지하기 어렵다.9 and 10 show examples of classifying images of crucian carp and carp of AlexNet, and FIG. 9 shows that the image of crucian carp is accurately classified even though it is very similar to the image of carp. 10 is an example in which the image of a carp is incorrectly classified as a large-mouth bass, and the image of a carp that is incorrectly classified is difficult to accurately recognize even fish experts.

도 11은 4가지 CCNs에 대한 미니배치, 1개의 이미지에 대한 수행 시간 및 분류 성능을 표시한 것이며, 도 12는 CNNs의 분류 성능을 그래프로 나타낸 것이다. 어종 분류 시스템이 자연환경에 설치될 경우 빠른 수행시간이 절대적으로 요구되며, 1개의 이미지에 대한 수행 시간은 AlexNet의 경우 GoogLeNet 보다 약 4.3배, Vgg16 보다 약 11.1배, Vgg19 보다 약 11.6배 정도 수행시간이 빠름을 확인하였다. FIG. 11 shows mini-batch for 4 types of CCNs, execution time for one image, and classification performance, and FIG. 12 shows a graph of classification performance of CNNs. When a fish classification system is installed in a natural environment, fast execution time is absolutely required, and the execution time for one image is about 4.3 times that of GoogLeNet, about 11.1 times that of Vgg16, and about 11.6 times that of Vgg19. I confirmed this fast.

데이터 그룹 Ⅰ에 대한 성능평가는 Data set A~F에 대하여 CNNs은 모두 95% 이상 높은 분류 성능을 나타내었으며, Data set G 역시 90% 이상의 분류 성능을 나타내었다. 특히, Data set D~H까지는 어류 이미지의 탁도가 매우 심하여 사람들조차가 잘못 인식하는 경우가 높다. 전체적으로 사람보다 CNN의 인식이 매우 높음을 확인하였다. 데이터 그룹 Ⅰ에 대한 성능평가 결과 자연환경에서 햇빛으로 인한 광도의 변화와 수심의 깊이와 탁도에 따라 변화되는 광범위한 어류 이미지에 대해서도 CNNs이 정확히 학습하고 분류하는 뛰어난 성능을 가지고 있음을 확인하였다. In the performance evaluation for data group I, CNNs all showed 95% or higher classification performance for Data sets A to F, and Data set G also showed 90% or higher classification performance. In particular, the turbidity of fish images is very high up to data sets D to H, so even people are often mistaken for it. Overall, it was confirmed that the perception of CNN was much higher than that of humans. As a result of the performance evaluation for data group I, it was confirmed that CNNs have excellent performance in accurately learning and classifying even a wide range of fish images that change depending on the light intensity due to sunlight and the depth and turbidity in the natural environment.

2. 분석결과 - 22. Analysis Result-2

실험실 환경에서 촬영된 어류 이미지를 실제 내수면과 유사한 이미지로 변환한 데이터 세트로 구성된 데이터 그룹 Ⅱ으로 실험하였으며, 적정한 데이터 수에 대해 평가를 하였다.The experiment was conducted with Data Group II, which consisted of a data set in which fish images photographed in a laboratory environment were converted into images similar to the actual inland water surface, and an appropriate number of data was evaluated.

실험을 위한 CNNs은 구조가 간단하고 높은 성능을 내는 AlexNet, GoogLeNet, Vgg16, Vgg19를 사용하여 성능을 평가하였다. 각 네트워크는 Matlab에서 사용하는 전송학습(Transfer Learning)을 사용하여 학습 시간을 줄이고자 하였다. 각 네트워크의 최적화 방법은 Adam을 사용하였으며, 초기 학습률은

Figure pat00012
으로 설정하고, 미니배치(Mini Batch)의 크기는 각 네트워크의 성능에 맞게 적절히 조정하였다. 하드웨어 장치로는 Intel i9-7900 3.3GHz CPU와 4개의 NVIDIA GeForce GTX1080Ti를 사용하였다.CNNs for the experiment were evaluated using AlexNet, GoogLeNet, Vgg16, and Vgg19, which have a simple structure and high performance. Each network tried to reduce the learning time by using transfer learning used in Matlab. Adam was used as an optimization method for each network, and the initial learning rate was
Figure pat00012
And the mini-batch size was properly adjusted to suit the performance of each network. As the hardware device, Intel i9-7900 3.3GHz CPU and 4 NVIDIA GeForce GTX1080Ti were used.

각각의 어종별로 즉, 블루길(Bluegill), 메기(Catfish), 잉어(Common Carp), 붕어(Crucian Carp), 큰입배스(Large Mouth Bass), 쏘가리(Mandarin Fish), 누치(Skin Carp)의 어류 이미지를 물속환경 이미지와 합성하였으며, 데이터 그룹 Ⅱ에서는 상기 데이터 그룹 Ⅰ의 Data set A~H의 일정 비율을 갖는 데이터들로 구성하였으며, 도 13과 같이 데이터 개수를 다르게 설정하여 Data set O~S를 만들어 데이터 그룹 Ⅱ를 설정하였다.Fish images of Bluegill, Catfish, Common Carp, Crucian Carp, Large Mouth Bass, Mandarin Fish, and Skin Carp for each fish species Was synthesized with the underwater environment image, and in data group Ⅱ, data having a certain ratio of data sets A to H of data group Ⅰ were composed, and data sets O to S were created by setting the number of data differently as shown in FIG. Data group II was set up.

도 14는 데이터 그룹 Ⅱ의 성능 평가 결과를 나타낸 도면이고 도 15는 이를 도식화 한 도면이다. 도 14 및 도 15에 도시된 바와 같이, 학습 데이터의 개수가 많을수록 분류 성능이 높아짐이 확인되었다. CNNs 중 Vgg16과 Vgg19의 성능이 학습 데이터의 개수가 많은 경우 다른 네트워크에 비해 좋은 성능을 보이나, 학습 데이터의 개수가 적어짐에 따라 성능이 급격히 나빠짐을 보였다. 이는 AlexNet과 GoogLeNet에 비해 파라메터 개수가 매우 많은 Vgg16, Vgg19이 학습 데이터의 개수 부족으로 학습에 어려움을 나타내기 때문이다. 14 is a diagram showing the performance evaluation result of data group II, and FIG. 15 is a diagram schematically showing this. As shown in FIGS. 14 and 15, it was confirmed that classification performance increased as the number of training data increased. Among CNNs, the performance of Vgg16 and Vgg19 shows better performance than other networks when the number of training data is large, but the performance is rapidly deteriorated as the number of training data decreases. This is because Vgg16 and Vgg19, which have a very large number of parameters compared to AlexNet and GoogLeNet, show difficulty in learning due to insufficient number of training data.

CNNs을 적용하여 90% 이상의 분류 성능을 위해서는 학습 데이터 개수가 Data set P(학습: 2,100[장/어종]) 이상 설정하여야 한다. 만약 분류 성능을 85% 이상에서 만족한다면 학습 데이터는 Data set Q(학습: 1,400[장/어종]) 정도로 설정하여도 가능하다. 이는 분류하고자 하는 어종이 적어 수 만장의 이미지 데이터가 필요하지는 않다. 만약 분류하려는 어종이 많으면 어류 이미지 데이터의 개수도 같이 늘어날 것이다. For classification performance of 90% or more by applying CNNs, the number of training data must be set to Data set P (learning: 2,100[length/fish species]) or more. If the classification performance is satisfied above 85%, the training data can be set to about Data set Q (learning: 1,400[jang/fish species]). This does not require tens of thousands of image data because there are few fish species to be classified. If there are many fish species to be classified, the number of fish image data will also increase.

3. 분석결과 - 33. Analysis Result-3

실험실 환경에서 촬영된 어류 이미지를 실제 내수면과 유사한 이미지로 변환한 데이터 세트로 구성된 데이터 그룹 Ⅲ으로 실험하였으며, 적정한 데이터 수에 대해 평가를 하였다.The experiment was conducted with Data Group III, which consisted of a data set in which fish images photographed in a laboratory environment were converted into images similar to the actual inland water surface, and an appropriate number of data was evaluated.

실험을 위한 CNNs은 구조가 간단하고 높은 성능을 내는 AlexNet, GoogLeNet, Vgg16, Vgg19를 사용하여 성능을 평가하였다. 각 네트워크는 Matlab에서 사용하는 전송학습(Transfer Learning)을 사용하여 학습 시간을 줄이고자 하였다. 각 네트워크의 최적화 방법은 Adam을 사용하였으며, 초기 학습률은

Figure pat00013
으로 설정하고, 미니배치(Mini Batch)의 크기는 각 네트워크의 성능에 맞게 적절히 조정하였다. 하드웨어 장치로는 Intel i9-7900 3.3GHz CPU와 4개의 NVIDIA GeForce GTX1080Ti를 사용하였다.CNNs for the experiment were evaluated using AlexNet, GoogLeNet, Vgg16, and Vgg19, which have a simple structure and high performance. Each network tried to reduce the learning time by using transfer learning used in Matlab. Adam was used as an optimization method for each network, and the initial learning rate was
Figure pat00013
And the mini-batch size was properly adjusted to suit the performance of each network. As the hardware device, Intel i9-7900 3.3GHz CPU and 4 NVIDIA GeForce GTX1080Ti were used.

각각의 어종별로 즉, 블루길(Bluegill), 메기(Catfish), 잉어(Common Carp), 붕어(Crucian Carp), 큰입배스(Large Mouth Bass), 쏘가리(Mandarin Fish), 누치(Skin Carp)의 어류 이미지를 물속환경 이미지와 합성하였으며, 상기 데이터 그룹 Ⅰ의 Data set D~H까지의 이미지는 사람도 인지하기 어려워, 일반적인 자연환경이라고 가정할 경우 Data set A~C 만으로도 충분할 것으로 판단되어, Data set A~C까지의 데이터를 랜덤하게 포함한 어종이미지를 Data set U~Y를 만들었으며, 이는 상기 데이터 그룹 Ⅱ의 데이터 개수와 동일하게 구성하여 데이터 그룹 Ⅲ을 설정하였다.Fish images of Bluegill, Catfish, Common Carp, Crucian Carp, Large Mouth Bass, Mandarin Fish, and Skin Carp for each fish species Was synthesized with the underwater environment image, and it is difficult for humans to recognize the images up to the data set D to H of the data group I, and assuming that it is a general natural environment, it is determined that only Data sets A to C will be sufficient. Data sets U to Y were made from fish species images including data up to C randomly, and this was configured equal to the number of data in data group II to set data group III.

데이터 그룹 Ⅱ의 성능평가 결과 학습 데이터의 개수가 많을수록 분류 성능이 높아짐을 실험적으로 확인하였다. 그러나 데이터 그룹Ⅱ에는 데이터 인식 신뢰도가 낮은 가혹할 정도의 어류 이미지가 포함되어 있다. 그러므로 사람이 100% 인식할 수 있는 일반적인 자연환경으로 가정한 데이터 그룹 Ⅲ을 사용하여 데이터 그룹 Ⅱ와 같은 실험을 하였다. 도 16은 데이터 그룹 Ⅲ의 성능평가 결과이며, 도 17은 이를 도식적으로 나타내었다. As a result of the performance evaluation of data group Ⅱ, it was experimentally confirmed that the higher the number of training data, the higher the classification performance. However, Data Group II contains severe fish images with low data recognition reliability. Therefore, the same experiment as Data Group II was conducted using Data Group III assuming a general natural environment that can be 100% recognized by humans. FIG. 16 is a result of performance evaluation of data group III, and FIG. 17 schematically shows this.

도 17에서 전체적인 데이터 경향은 도 15와 유사하나 전체적인 분류 성능은 매우 향상되었다. 특히 AlexNet과 GoogLeNet은 데이터 세트 X(학습: 700[장/어종])에 대해서도 91.94% 이상의 좋은 성능을 나타내었다. 적은 학습 데이터 개수에도 분류하려는 어종의 수가 적을 때 네트워크가 얕은 AlexNet이 효율적임을 알 수 있다. In FIG. 17, the overall data trend is similar to that of FIG. 15, but the overall classification performance is greatly improved. In particular, AlexNet and GoogLeNet performed well over 91.94% for data set X (learning: 700 [field/fish species]). It can be seen that AlexNet, which has a shallow network, is efficient when the number of fish species to be classified is small even with a small number of training data.

도 14과 도 16의 Data set에 대한 CNNs의 분류 성능을 평균하여 학습 데이터 개수를 표현하면 도 18과 같은 지수 함수 형태를 구할 수 있다. 이는 분류 성능에 따른 학습 데이터 개수가 지수적으로 증가함을 나타낸다. 따라서 학습 데이터 개수는 분류하려는 수, 분류 정확도 그리고 데이터 인지 신뢰도 등에 영향을 받는다. When the number of training data is expressed by averaging the classification performance of CNNs for the data sets of FIGS. 14 and 16, the form of an exponential function as shown in FIG. 18 can be obtained. This indicates that the number of training data increases exponentially according to classification performance. Therefore, the number of training data is affected by the number to be classified, accuracy of classification, and reliability of data recognition.

본 발명인 어종 분류를 위한 데이터 적용 방법에 대하여 90% 이상의 분류 정확도로 한정하면 데이터 그룹 Ⅱ의 경우 1500[장/어종], 데이터 그룹 Ⅲ의 경우 700[장/어종] 이상의 학습 데이터가 필요하다. 그러므로 데이터 그룹 Ⅲ의 데이터 인식 신뢰도를 100%라고 가정하였을 경우, 분류하려는 개수의 100배인 700[장/어종] 정도로 설정하는 것이 적절하며, 어종 분류 정확도를 95%로 설정하려면 약 167배인 1170[장/어종]이 필요하다. If the data application method for classifying fish species according to the present invention is limited to a classification accuracy of 90% or more, in the case of data group II, it requires 1500 [chapter/fish species] and 700 [chapter/fish species] or more for data group III. Therefore, assuming that the data recognition reliability of Data Group III is 100%, it is appropriate to set it to about 700 [sheets/fish species], which is 100 times the number to be classified, and to set the classification accuracy to 95%, it is approximately 167 times (1170). /Fish species] is required.

이와 같이, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.As described above, it will be understood that the above-described technical configuration of the present invention can be implemented in other specific forms without changing the technical spirit or essential features of the present invention by those skilled in the art.

그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타나며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Therefore, the embodiments described above are to be understood as illustrative and non-limiting in all respects, and the scope of the present invention is indicated by the claims to be described later rather than the detailed description, and the meaning and scope of the claims and the All changes or modifications derived from the equivalent concept should be interpreted as being included in the scope of the present invention.

100 : 카메라
200 : 제어부
300 : 단말기
S1 : 어류 이미지 추출
S2 : 어류 이미지를 물속환경 이미지와 합성하여 데이터 생성
S3 : 데이터 저장
S4 : 내수면의 물고기 이미지 추출
S5 : 어종 분류
S6 : 분류 정보 저장
S7 : 분류 정보를 단말기로 전달
100: camera
200: control unit
300: terminal
S1: Fish image extraction
S2: Create data by combining fish images with underwater environment images
S3: Save data
S4: Extract the image of fish in the inland water
S5: Classification of fish species
S6: Save classification information
S7: Deliver classification information to the terminal

Claims (3)

내수면에 마련된 카메라;
상기 카메라의 정보를 관리하고 연산 처리하는 제어부;
상기 제어부에 저장된 정보를 출력할 수 있는 단말기;로 구성되고,
어종을 확보하여, 어류 이미지를 추출하는 제 1단계;
추출된 상기 어류 이미지와 물속환경 이미지를 픽셀값을 다르게 하고 합성하여 데이터를 생성하는 제 2단계;
생성된 상기 데이터를 제어부에 저장하는 제 3단계;
상기 카메라로 내수면의 물고기 이미지를 추출하는 제 4단계;
상기 제어부에서 추출된 상기 물고기 이미지와 상기 데이터를 비교하여 어종을 분류하여 분류 정보를 생성하는 제 5단계;
상기 분류 정보를 제어부에 저장하는 제 6단계;
상기 분류 정보를 단말기로 전달하는 제 7단계;로 구성되는 것을 특징으로 하는 어종 분류를 위한 데이터 적용 방법.
A camera provided on the water surface;
A control unit for managing and calculating information of the camera;
And a terminal capable of outputting information stored in the control unit,
A first step of obtaining fish species and extracting fish images;
A second step of generating data by synthesizing the extracted fish image and the underwater environment image with different pixel values;
A third step of storing the generated data in a control unit;
A fourth step of extracting an image of a fish on the inner water surface with the camera;
A fifth step of generating classification information by classifying a fish species by comparing the fish image extracted by the control unit with the data;
A sixth step of storing the classification information in a control unit;
A data application method for classifying fish species, comprising: a seventh step of transferring the classification information to a terminal.
제 1항에 있어서,
상기 제어부는 컨볼루션 신경망을 사용하며, 상기 데이터와 물고기 이미지를 비교하여 어종을 분류하는 것을 특징으로 하는 어종 분류를 위한 데이터 적용 방법.
The method of claim 1,
The control unit uses a convolutional neural network, and classifies a fish species by comparing the data with a fish image.
제 1항에 있어서,
상기 제 2단계에서
상기 데이터의 픽셀값은
Figure pat00014
이며,
Figure pat00015
는 이미지 합성 비율로
Figure pat00016
이고,
Figure pat00017
는 상기 어류 이미지의 픽셀값이며,
Figure pat00018
는 상기 물속환경 이미지의 픽셀값인 것을 특징으로 하는 어종 분류를 위한 데이터 적용 방법.
The method of claim 1,
In the second step
The pixel value of the data is
Figure pat00014
Is,
Figure pat00015
Is the image composition ratio
Figure pat00016
ego,
Figure pat00017
Is the pixel value of the fish image,
Figure pat00018
Is a pixel value of the underwater environment image.
KR1020190029113A 2019-03-14 2019-03-14 Data acquisition method for classification of fish species KR102191062B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190029113A KR102191062B1 (en) 2019-03-14 2019-03-14 Data acquisition method for classification of fish species

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190029113A KR102191062B1 (en) 2019-03-14 2019-03-14 Data acquisition method for classification of fish species

Publications (2)

Publication Number Publication Date
KR20200109681A true KR20200109681A (en) 2020-09-23
KR102191062B1 KR102191062B1 (en) 2020-12-14

Family

ID=72708605

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190029113A KR102191062B1 (en) 2019-03-14 2019-03-14 Data acquisition method for classification of fish species

Country Status (1)

Country Link
KR (1) KR102191062B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230083421A (en) * 2021-12-03 2023-06-12 한국전자기술연구원 Method and apparatus for quarantine of imported ornamental fish through data preprocessing and deep neural network-based image detection and classification

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013201714A (en) * 2012-03-26 2013-10-03 Central Research Institute Of Electric Power Industry Moving-object image discrimination device and moving-object image discrimination method
KR20140048539A (en) * 2012-10-16 2014-04-24 에스케이텔레콤 주식회사 Method and apparatus for recognizing object using surrounding image of vehicle
KR101656635B1 (en) 2014-12-10 2016-09-09 가부시기가이샤니레꼬 Fish species determination device and fish species determination method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013201714A (en) * 2012-03-26 2013-10-03 Central Research Institute Of Electric Power Industry Moving-object image discrimination device and moving-object image discrimination method
KR20140048539A (en) * 2012-10-16 2014-04-24 에스케이텔레콤 주식회사 Method and apparatus for recognizing object using surrounding image of vehicle
KR101656635B1 (en) 2014-12-10 2016-09-09 가부시기가이샤니레꼬 Fish species determination device and fish species determination method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230083421A (en) * 2021-12-03 2023-06-12 한국전자기술연구원 Method and apparatus for quarantine of imported ornamental fish through data preprocessing and deep neural network-based image detection and classification

Also Published As

Publication number Publication date
KR102191062B1 (en) 2020-12-14

Similar Documents

Publication Publication Date Title
Yeh et al. Lightweight deep neural network for joint learning of underwater object detection and color conversion
CN109754015B (en) Neural networks for drawing multi-label recognition and related methods, media and devices
Cai et al. Dehazenet: An end-to-end system for single image haze removal
Ge et al. Fd-gan: Pose-guided feature distilling gan for robust person re-identification
KR102191064B1 (en) Data Application System for Classification of Fish Species
CN111209952A (en) Underwater target detection method based on improved SSD and transfer learning
Teng et al. Underwater target recognition methods based on the framework of deep learning: A survey
Rekha et al. Fish detection and classification using convolutional neural networks
CN112215180A (en) Living body detection method and device
Huang et al. Scribble-based boundary-aware network for weakly supervised salient object detection in remote sensing images
Wang et al. Deep learning-based visual detection of marine organisms: A survey
Li et al. Recent advances of machine vision technology in fish classification
Makarov et al. American and russian sign language dactyl recognition
KR102191062B1 (en) Data acquisition method for classification of fish species
Rosales et al. Faster r-cnn based fish detector for smart aquaculture system
Hand et al. Predicting facial attributes in video using temporal coherence and motion-attention
Himabindu et al. Classification of squids using morphometric measurements
SHAKER et al. The impact of image enhancement and transfer learning techniques on marine habitat mapping
Yuzuguzel Learning colour constancy using convolutional neural networks
Muri et al. Temperate fish detection and classification: A deep learning based approach
Ghosh et al. PB3C-CNN: An integrated PB3C and CNN based approach for plant leaf classification
Psaltis et al. Deep 3d flow features for human action recognition
Huang et al. Under water object detection based on convolution neural network
Hassoon Fish species identification techniques: a review
Shi et al. Tracking topology structure adaptively with deep neural networks

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant