KR102291164B1 - Method for determining weeds with maximum or minimum parameters deep learning structure - Google Patents
Method for determining weeds with maximum or minimum parameters deep learning structure Download PDFInfo
- Publication number
- KR102291164B1 KR102291164B1 KR1020190179503A KR20190179503A KR102291164B1 KR 102291164 B1 KR102291164 B1 KR 102291164B1 KR 1020190179503 A KR1020190179503 A KR 1020190179503A KR 20190179503 A KR20190179503 A KR 20190179503A KR 102291164 B1 KR102291164 B1 KR 102291164B1
- Authority
- KR
- South Korea
- Prior art keywords
- weed
- deep learning
- classifier
- parameters
- learning structure
- Prior art date
Links
- 241000196324 Embryophyta Species 0.000 title claims abstract description 161
- 238000013135 deep learning Methods 0.000 title claims abstract description 90
- 238000000034 method Methods 0.000 title claims abstract description 71
- 238000013145 classification model Methods 0.000 claims description 53
- 241000894007 species Species 0.000 claims description 29
- 239000013598 vector Substances 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 18
- 230000002787 reinforcement Effects 0.000 claims description 11
- 238000013434 data augmentation Methods 0.000 claims description 4
- 235000013399 edible fruits Nutrition 0.000 claims description 4
- 238000005520 cutting process Methods 0.000 claims description 3
- 238000012850 discrimination method Methods 0.000 claims description 3
- 230000003014 reinforcing effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 4
- 238000012271 agricultural production Methods 0.000 description 3
- 238000013526 transfer learning Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 208000035473 Communicable disease Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000009693 chronic damage Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 235000001497 healthy food Nutrition 0.000 description 1
- 230000002363 herbicidal effect Effects 0.000 description 1
- 239000004009 herbicide Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 235000015097 nutrients Nutrition 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G06K9/627—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법에 관한 것으로, 본 발명에 따르면, 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법에 있어서, 최대화 파라미터 수 딥러닝 구조 또는 최소화 파라미터 수 딥러닝 구조를 이용하여 잡초 데이터셋에서 잡초를 판별하는 판별단계를 포함하는 잡초 판별 방법을 제공할 수 있다.The present invention relates to a method for determining weeds to which the maximum or minimum number of parameters deep learning structure is applied. It is possible to provide a weed identification method including a determination step of discriminating weeds from a weed dataset using a number deep learning structure.
Description
본 발명은 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법에 관한 것으로, 더욱 자세하게는 예측에 관여하는 파라미터 수를 사용 목적에 맞게 변형할 수 있도록 최대화 파라미터 수 딥러닝 구조 또는 최소화 파라미터 수 딥러닝 구조를 선택적으로 사용함으로써, 분류가 어려운 잡초 이미지 판별의 정확도를 향상시키고 연산량 및 연산속도를 감소시킬 수 있는 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법에 관한 것이다.The present invention relates to a method for determining weeds to which the maximum or minimized number of parameters deep learning structure is applied. By selectively using the structure, it relates to a weed identification method to which a deep learning structure is applied to maximize or minimize the number of parameters that can improve the accuracy of image identification of weeds that are difficult to classify and reduce the amount of computation and computation speed.
해마다 전 세계 인구는 1.09%씩 증가하고, 그에 따라 더 많은 옷감, 식량, 물, 연료와 같은 자원들의 수요도 증가하고 있다.The world's population is increasing by 1.09% every year, and the demand for resources such as more fabrics, food, water and fuel is also increasing.
전 세계 인구가 약 90억명에 도달할 것으로 예상되는 2050년에는 수치적으로 농업 생산량이 현재보다 2배가 증가하여야 한다고 판단되고 있다. 하지만 농업 생산량 증가는 기후 변화, 경작지 감소, 물 부족과 전염병 및 잡초 등과 같이 관리가 필요한 요소들로 어려운 상황에 처해 있다.It is estimated that by 2050, when the world's population is expected to reach 9 billion people, agricultural production must numerically double than it is today. However, agricultural production growth is hampered by factors that need to be managed, such as climate change, reduced arable land, water scarcity, and infectious diseases and weeds.
수십 년간 잡초를 억제할 수 있도록 노력을 했음에도 불구하고, 여전히 농민들은 잡초에 의한 고질적인 피해를 입고 있다.Despite decades of efforts to control weeds, farmers are still suffering chronic damage from weeds.
잡초는 경작지에서 아무데서나 아무 이유 없이 자라, 농작물과 수분, 영양소, 일조량 등을 경쟁하며, 최종적으로는 생산량에 악영향을 미치고 있다.Weeds grow anywhere and for no reason on arable land, and compete with crops for moisture, nutrients, sunlight, etc., and ultimately adversely affect production.
수 많은 연구 결과들이 농업 생산량 감소와 잡초 증가가 높은 연관성이 있다고 증명하고 있고, 한편 건강한 먹거리에 관심이 높아지면서 친환경 인증 또는 유기농 농작물들이 각광받고 있다.Numerous research results prove that there is a high correlation between a decrease in agricultural production and an increase in weeds. Meanwhile, as interest in healthy food increases, eco-certified or organic crops are in the spotlight.
이에 따라, 잡초를 효과적으로 제어하는 것은 다양한 농작물에 대하여 높은 생산성, 친환경성 및 비용 절감을 야기할 수 있으므로 매우 중요하고 할 수 있다.Accordingly, effective control of weeds is very important and can cause high productivity, eco-friendliness and cost savings for various crops.
잡초 제어를 위해서는 정확한 잡초 판별이 중요한데, 그 이유는 잡초의 종마다 사용하는 제초제와 관리하는 방법이 상이하기 때문이다.Accurate weed identification is important for weed control, because the herbicide used and management method are different for each weed species.
이를 위해 잡초 이미지를 이용하여 판별하는 연구는 영상 처리 기반의 방법과 딥러닝 기반의 방법으로 크게 구분된다.To this end, the research for discrimination using weed images is largely divided into an image processing-based method and a deep learning-based method.
실제 잡초가 자생하고 있는 환경은 대상이 되는 객체의 분간이 어려운 잡음(noise)과 배경(background)을 가지고 있다.The environment in which weeds actually grow has noise and background that makes it difficult to distinguish the target object.
이 때문에 잡초 이미지를 이용하여 잡초가 무슨 종인지 정확히 분류하는데 있어, 딥러닝 기반의 방법을 이용할 경우 딥러닝 기반 예측 모델의 파라미터의 가중치(w) 수가 많이 필요한데, 현재 딥러닝 기반의 방법들은 분류하는데 있어 한계가 있다.For this reason, when using a deep learning-based method to accurately classify the species of weeds using a weed image, a large number of weights (w) of the parameters of the deep learning-based prediction model are required. there is a limit
그러므로, 잡초 분류의 정확성을 위해 컨벌루션 뉴럴 네트워크(Convolutional Neural Network, CNN)를 이용하고, 컨벌루션 뉴럴 네트워크 모델에서 예측에 관여하는 파라미터의 가중치(w) 수를 사용 목적에 맞게 변형할 수 있는 새로운 딥러닝 구조를 개발하고자 한다.Therefore, a new deep learning that can use a convolutional neural network (CNN) for the accuracy of weed classification and transform the number of weights (w) of parameters involved in prediction in the convolutional neural network model according to the purpose of use We want to develop a structure.
상기와 같은 문제를 해결하고자, 본 발명은 예측에 관여하는 파라미터 수를 사용 목적에 맞게 변형할 수 있도록 최대화 파라미터 수 딥러닝 구조 또는 최소화 파라미터 수 딥러닝 구조를 선택적으로 사용함으로써, 분류가 어려운 잡초 이미지 판별의 정확도를 향상시키고 연산량 및 연산속도를 감소시킬 수 있는 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법을 제공하는 데 목적이 있다.In order to solve the above problems, the present invention is a weed image that is difficult to classify by selectively using a deep learning structure with a maximum number of parameters or a minimum number of parameters so that the number of parameters involved in prediction can be modified according to the purpose of use. An object of the present invention is to provide a weed identification method to which a deep learning structure with a maximizing or minimizing number of parameters that can improve the identification accuracy and reduce the amount of computation and computation speed is applied.
상기와 같은 과제를 해결하기 위하여, 본 발명의 실시예에 따른 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법은 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법에 있어서, 최대화 파라미터 수 딥러닝 구조 또는 최소화 파라미터 수 딥러닝 구조를 이용하여 잡초 데이터셋에서 잡초를 판별하는 판별단계를 포함하는 잡초 판별 방법을 제공할 수 있다.In order to solve the above problems, the weed identification method to which the maximum or minimized number of parameters deep learning structure is applied according to an embodiment of the present invention is a method for weed identification to which the maximum or minimized number of parameters deep learning structure is applied, the maximum number of parameters deep It is possible to provide a weed identification method comprising a determination step of discriminating weeds from a weed dataset using a learning structure or a deep learning structure with a minimum number of parameters.
또한, 상기 판별단계 전에, 영상 데이터를 하나 이상의 잡초 데이터셋으로 처리하는 영상처리단계를 더 포함할 수 있다.In addition, before the determination step, it may further include an image processing step of processing the image data into one or more weed datasets.
여기서, 상기 영상처리단계는 영상 데이터에서 잡초(객체)로 볼 수 있는 잎, 꽃, 열매 및 전초를 구분하여 잘라내 하나 이상의 잡초 이미지를 생성하는 단계; 생성된 잡초 이미지를 압축시키는 단계 및 압축된 잡초 이미지를 데이터 증강 기법을 이용하여 잡초 데이터셋으로 처리하는 단계를 포함할 수 있다.Here, the image processing step comprises the steps of generating one or more weed images by dividing and cutting leaves, flowers, fruits and outposts that can be seen as weeds (objects) in the image data; Compressing the generated weed image and may include processing the compressed weed image as a weed dataset using a data augmentation technique.
또한, 상기 판별단계는 상기 최대화 파라미터 수 딥러닝 구조를 이용할 경우 잡초 데이터셋을 입력하여 확률 벡터가 구해진 두개 이상의 단일 분류 모델의 가중치(αn)를 각각 설정하는 가중치 설정 단계 및 설정된 가중치(αn)를 혼합하여 최종 판별 결과를 획득하는 혼합단계를 포함할 수 있다. In addition, the determination step includes a weight setting step of setting the weights (α n ) of two or more single classification models from which a probability vector is obtained by inputting a weed dataset when using the deep learning structure with the maximum number of parameters, respectively, and the set weights (α n) ) may include a mixing step of obtaining a final determination result by mixing.
또한, 상기 가중치 설정 단계는 가중치(αn)를 1로 설정하는 것을 특징으로 한다.In addition, the weight setting step is characterized in that the weight (α n ) is set to 1.
또한, 상기 가중치 설정 단계는 상기 가중치(αn)를 하기 수학식 1을 통해 계산하여 설정하는 것을 특징으로 한다.In addition, the weight setting step is characterized in that the weight (α n ) is calculated and set through
[수학식 1][Equation 1]
(여기서, n은 단일 분류 모델 개수, MAX는 단일 분류 모델의 최종 클래스 별 확률값 중 최대값이다.)(Where n is the number of single classification models, and MAX is the maximum value among the probability values for each final class of the single classification model.)
또한, 상기 가중치 설정 단계는 다중 레이어 퍼셉트론을 통해 가중치(αn)를 계산하여 설정하는 것을 특징으로 한다.In addition, the weight setting step is characterized in that the weight (α n ) is calculated and set through a multi-layer perceptron.
또한, 상기 가중치 설정 단계는 엔트로피 방법 또는 최대차이 방법을 통해 각 단일 분류 모델의 확률 벡터를 상기 다중 레이어 퍼셉트론의 입력값인 신뢰값(실수값)으로 변환하는 것을 특징으로 한다.In addition, the weight setting step is characterized in that the probability vector of each single classification model is converted into a confidence value (real value) that is an input value of the multi-layer perceptron through an entropy method or a maximum difference method.
또한, 상기 혼합단계는 가중치 선형 결합 방법 또는 가중치 제곱 결합 방법을 통해 각 단일 분류 모델의 가중치(αn)를 혼합하여 최종 판별 결과를 획득하는 것을 특징으로 한다.In addition, the mixing step is characterized in that the final determination result is obtained by mixing the weights (α n ) of each single classification model through a weighted linear combination method or a weighted squared combination method.
또한, 상기 판별단계는 상기 최소화 파라미터 수 딥러닝 구조를 이용할 경우, 부모분류기에 잡초 데이터셋을 입력시켜 과(family)를 판별하는 과 판별단계 및 판별된 과에 해당하는 자식분류기를 통해 종(class)을 판별하여 최종 판별 결과를 획득하는 종 판별단계를 포함할 수 있다.In addition, in the determining step, when using the deep learning structure of the minimum number of parameters, the classifier through the family determination step of determining a family by inputting a weed dataset to the parent classifier and a child classifier corresponding to the determined family ) may include a species identification step of obtaining a final determination result by determining the
또한, 상기 종 판별단계는 상기 부모분류기 및 자식분류기에서 구해진 값을 이용하여 하기 수학식 6을 통해 최종 판별 결과를 획득하는 것을 특징으로 한다.In addition, the species determination step is characterized in that the final determination result is obtained through the following Equation 6 using the values obtained from the parent classifier and the child classifier.
[수학식 6][Equation 6]
(여기서, W는 단일 분류 모델의 가중치, 는 자식분류기의 예측값, 는 부모분류기의 예측값, P는 부모분류기의 예측값에서의 자식분류기의 예측값의 확률이다)(where W is the weight of a single classification model, is the predicted value of the subclassifier, is the predicted value of the parent classifier, and P is the probability of the predicted value of the child classifier in the predicted value of the parent classifier)
또한, 상기 잡초 데이터셋은 잡초의 과(family)와 종(class)에 관한 정보를 트리구조로 가지고 있는 것을 특징으로 한다.In addition, the weed dataset is characterized in that it has information about the weed family (family) and species (class) in a tree structure.
또한, 상기 판별단계는 상기 과 판별단계에서 상기 부모분류기가 정답을 정확히 예측했는지 틀렸는지를 문턱값을 이용하여 판단하는 예측값 판단단계를 더 포함할 수 있다.In addition, the determining step may further include a predictive value determining step of determining whether the parent classifier correctly predicted the correct answer or incorrect using a threshold value in the over-determining step.
또한, 상기 판별단계는 상기 예측값 판단단계에서 부모분류기가 정답을 틀리게 예측할 경우 정답을 찾는 보강단계를 더 포함하고, 상기 보강단계는 상기 예측값 판단단계에서 판단에 따라 하기 수학식 7 및 8을 통해, 부모분류기가 정답을 정확히 예측할 경우 에서 0으로 수렴하고, 부모분류기가 정답과 틀리게 예측할 경우 해당되는 하나 이상의 자식분류기의 정답 확률 벡터를 계산하여 가장 높은 값을 가지는 예측값을 도출하는 것을 특징으로 한다.In addition, the determining step further includes a reinforcement step of finding a correct answer when the parent classifier incorrectly predicts the correct answer in the predicted value determination step, and the reinforcement step is performed according to the determination in the predicted value determination step through the following Equations 7 and 8, If the parent classifier correctly predicts the correct answer converges to 0, and when the parent classifier predicts wrongly from the correct answer, it is characterized in that the prediction value having the highest value is derived by calculating the correct probability vector of the corresponding one or more child classifiers.
[수학식 7][Equation 7]
[수학식 8][Equation 8]
(여기서, Y는 자식분류기, n은 자식분류기의 번호, I는 잡초 데이터셋, Fi는 부모분류기이다)(where Y is the child classifier, n is the number of the child classifier, I is the weed dataset, and F i is the parent classifier)
또한, 상기 판별단계는 상기 최소화 파라미터 수 딥러닝 구조를 이용할 경우, 상기 부모분류기 및 자식분류기를 이용하여 하기 수학식 9를 통해 최종 판별 결과를 획득하여, 과(family)와 종(class)을 동시에 판별하는 것을 특징으로 한다In addition, in the determination step, when using the deep learning structure of the minimum number of parameters, the final determination result is obtained through the following Equation 9 using the parent classifier and the child classifier, and the family and the class are simultaneously identified. characterized by discriminating
[수학식 9][Equation 9]
(여기서, 는 j번째 과의 k번째 종에 대한 확률값, 는 자식분류기 Yk의 예측값, 는 부모분류기 Fj의 예측값이다)(here, is the probability value for the kth species of the jth family, is the predicted value of the subclassifier Y k , is the predicted value of the parent classifier F j )
상기와 같은 본 발명의 실시예에 따른 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법은 예측에 관여하는 파라미터 수를 사용 목적에 맞게 변형할 수 있도록 최대화 파라미터 수 딥러닝 구조 또는 최소화 파라미터 수 딥러닝 구조를 선택적으로 사용함으로써, 분류가 어려운 잡초 이미지 판별의 정확도를 향상시키고 연산량 및 연산속도를 감소시킬 수 있다.The weed identification method to which the maximization or minimization number of parameters deep learning structure is applied according to an embodiment of the present invention as described above is a deep learning structure or minimizes the number of parameters so that the number of parameters involved in prediction can be modified to suit the purpose of use. By selectively using the learning structure, it is possible to improve the accuracy of weed image identification, which is difficult to classify, and reduce the amount of computation and computation speed.
즉, 최대화 파라미터 수 딥러닝 구조를 통해 2개 이상의 단일 분류 모델을 함께 사용함으로써, 단일 분류 모델을 사용하는 경우 보다 잡초 판별의 정확도 향상될 수 있으며, 사용되는 단일 분류 모델의 수 증가에 따라 보다 더 정확도가 높게 나타나도록 할 수 있다.In other words, by using two or more single classification models together through the deep learning structure to maximize the number of parameters, the accuracy of weed identification can be improved compared to when a single classification model is used, and as the number of single classification models used increases, It can be made to show high accuracy.
또한, 최소화 파라미터 수 딥러닝 구조를 통해 파라미터 수를 조절함으로써 연산량 및 연산속도를 획기적으로 줄이면서도 정확도는 일정 수준 이상이 되도록 할 수 있다.In addition, by adjusting the number of parameters through the minimized number of parameters deep learning structure, the amount of calculation and the calculation speed can be drastically reduced while the accuracy can be set to a certain level or higher.
이에 따라, 슈퍼컴퓨터나 서버와 같은 높은 컴퓨팅 파워가 지원되는 곳에서는 최대화 파라미터 수 딥러닝 구조를 사용하여 보다 더 정확도가 향상되도록 할 수 있고, 임베디드 시스템과 같이 컴퓨팅 파워가 약한 곳에서는 최소화 파라미터 수 딥러닝 구조를 사용하여 효과적으로 잡초 판별이 가능하도록 할 수 있다.Accordingly, in places where high computing power such as supercomputers or servers are supported, the maximum number of parameters can be used to further improve accuracy by using deep learning structures, and in places where computing power is weak such as embedded systems, the minimum number of parameters can be deep A learning structure can be used to effectively identify weeds.
도 1은 본 발명의 실시예에 따른 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법을 도시한 흐름도.
도 2는 도 1의 S10 단계를 개략적으로 도시한 흐름도.
도 3은 본 발명의 실시예에 따른 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법에서 사용되는 최대화 파라미터 수 딥러닝 구조를 도시한 개념도.
도 4는 도 1의 S21 단계를 개략적으로 도시한 흐름도.
도 5는 본 발명의 실시예에 따른 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법의 최대화 파라미터 수 딥러닝 구조에서 사용되는 다중 레이어 퍼셉트론(MLP)의 구조를 도시한 개념도.
도 6은 본 발명의 실시예에 따른 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법에서 사용되는 최소화 파라미터 수 딥러닝 구조를 도시한 개념도.
도 7은 도 1의 S22 단계를 개략적으로 도시한 흐름도.
도 8은 보강 딥러닝 구조에서 사용되는 문턱값을 설정하기 위해 부모분류기의 예측값에 따른 정확도를 나타낸 히스토그램.
도 9는 본 발명의 실시예에 따른 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법의 최소화 파라미터 수 딥러닝 구조에서 사용되는 보강 딥러닝 구조를 도시한 개념도.
도 10은 본 발명의 실시예에 따른 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법에서 사용되는 종단간 학습의 최소화 파라미터 수 딥러닝 구조를 도시한 개념도.1 is a flowchart illustrating a method for determining weeds to which a deep learning structure is applied to maximize or minimize the number of parameters according to an embodiment of the present invention.
FIG. 2 is a flowchart schematically illustrating step S10 of FIG. 1 .
3 is a conceptual diagram illustrating a deep learning structure with a maximizing number of parameters used in a method for determining weeds to which a maximizing or minimizing number of parameters deep learning structure is applied according to an embodiment of the present invention.
4 is a flowchart schematically illustrating step S21 of FIG. 1;
Figure 5 is a conceptual diagram showing the structure of a multi-layer perceptron (MLP) used in the maximum number of parameters deep learning structure of the weed discrimination method to which the maximum or minimized number of parameters deep learning structure is applied according to an embodiment of the present invention.
6 is a conceptual diagram illustrating a deep learning structure with a minimized number of parameters used in a method for determining weeds to which a deep learning structure is applied to maximize or minimize the number of parameters according to an embodiment of the present invention.
7 is a flowchart schematically illustrating step S22 of FIG. 1;
8 is a histogram showing the accuracy according to the prediction value of the parent classifier to set the threshold value used in the reinforcement deep learning structure.
Figure 9 is a conceptual diagram illustrating a reinforcement deep learning structure used in the minimum number of parameters deep learning structure of the weed identification method to which the maximum or minimized number of parameters deep learning structure is applied according to an embodiment of the present invention.
Figure 10 is a conceptual diagram illustrating a deep learning structure of the minimum number of parameters of end-to-end learning used in the method for determining weeds to which the maximum or minimized number of parameters deep learning structure is applied according to an embodiment of the present invention.
이하, 도면을 참조한 본 발명의 설명은 특정한 실시 형태에 대해 한정되지 않으며, 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있다. 또한, 이하에서 설명하는 내용은 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the description of the present invention with reference to the drawings is not limited to specific embodiments, and various modifications may be made and various embodiments may be provided. In addition, it should be understood that the contents described below include all conversions, equivalents, and substitutes included in the spirit and scope of the present invention.
이하의 설명에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용되는 용어로서, 그 자체에 의미가 한정되지 아니하며, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In the following description, terms such as first and second are terms used to describe various components, meanings are not limited thereto, and are used only for the purpose of distinguishing one component from other components.
본 명세서 전체에 걸쳐 사용되는 동일한 참조번호는 동일한 구성요소를 나타낸다.Like reference numbers used throughout this specification refer to like elements.
본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 이하에서 기재되는 "포함하다", "구비하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로 해석되어야 하며, 하나 또는 그 이상의 다른 특징들이나, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.As used herein, the singular expression includes the plural expression unless the context clearly dictates otherwise. In addition, terms such as "comprises", "comprising" or "have" described below are intended to designate the existence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. It should be construed as not precluding the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 갖는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are given the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In describing the present invention, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.
이하, 본 발명의 실시 예를 첨부한 도 1 내지 도 10을 참조하여 상세히 설명하기로 한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying
도 1은 본 발명의 실시예에 따른 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법을 도시한 흐름도이고, 도 2는 도 1의 S10 단계를 개략적으로 도시한 흐름도이고, 도 3은 본 발명의 실시예에 따른 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법에서 사용되는 최대화 파라미터 수 딥러닝 구조를 도시한 개념도이고, 도 4는 도 1의 S21 단계를 개략적으로 도시한 흐름도이며, 도 5는 본 발명의 실시예에 따른 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법의 최대화 파라미터 수 딥러닝 구조에서 사용되는 다중 레이어 퍼셉트론(MLP)의 구조를 도시한 개념도이다.1 is a flowchart illustrating a method for determining weeds to which a deep learning structure is applied to a maximizing or minimizing number of parameters according to an embodiment of the present invention, FIG. 2 is a flowchart schematically illustrating step S10 of FIG. 1, and FIG. 3 is the present invention A conceptual diagram illustrating a deep learning structure with a maximized number of parameters used in a weed identification method to which the maximum or minimized number of parameters deep learning structure is applied according to an embodiment, FIG. 4 is a flowchart schematically illustrating step S21 of FIG. 5 is a conceptual diagram illustrating the structure of a multi-layer perceptron (MLP) used in the maximizing parameter number deep learning structure of the weed identification method to which the maximizing or minimizing parameter number deep learning structure is applied according to an embodiment of the present invention.
본 발명은 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법에 관한 것으로, 예측에 관여하는 파라미터 수를 사용 목적에 맞게 변형할 수 있도록 최대화 파라미터 수 딥러닝 구조 또는 최소화 파라미터 수 딥러닝 구조를 선택적으로 사용함으로써, 분류가 어려운 잡초 이미지 판별의 정확도를 향상시키고 연산량 및 연산속도를 감소시키고자 한다.The present invention relates to a method for determining weeds to which the maximum or minimum number of parameters deep learning structure is applied, so that the number of parameters involved in prediction can be modified according to the purpose of use. By using it as a , it is intended to improve the accuracy of weed image identification, which is difficult to classify, and reduce the amount of computation and computation speed.
여기서 최대화 파라미터 수 딥러닝 구조는 높은 컴퓨팅 파워가 제공되는 곳에서 사용하도록 하여 정확도를 보다 향상시킬 수 있으며, 최소화 파라미터 수 딥러닝 구조는 낮은 컴퓨터 파워가 제공되는 곳에서 사용하도록 하여 연산량 및 연산속도를 줄여주면서 일정 수준 이상의 정확도를 가지도록 할 수 있는 것이다. 그러나, 이에 한정되지 않고 사용 목적에 따라 선택적으로 사용할 수 있다.Here, the maximizing number of parameters deep learning structure can be used where high computing power is provided, so that accuracy can be further improved. It can be reduced to have more than a certain level of accuracy. However, the present invention is not limited thereto and may be selectively used according to the purpose of use.
도 1을 참조하면, 본 발명의 실시예에 따른 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법(이하 '잡초 판별 방법'이라 함)은 영상처리단계(S10) 및 판별단계를 포함할 수 있다.Referring to FIG. 1 , a method for determining a weed to which a deep learning structure is applied with a maximizing or minimizing number of parameters according to an embodiment of the present invention (hereinafter referred to as a 'weed determination method') may include an image processing step (S10) and a determination step have.
여기서 판별단계는 사용되는 딥러닝 구조에 따라, 최대화 파라미터 수 딥러닝 구조를 이용하여 잡초 데이터셋에서 잡초를 판별하는 판별단계(S21) 또는 최소화 파라미터 수 딥러닝 구조를 이용하여 잡초 데이터셋에서 잡초를 판별하는 판별단계(S22)를 포함할 수 있다.Here, the determination step is a determination step (S21) of discriminating weeds from the weed dataset using the deep learning structure with the maximum number of parameters, or the weeds from the weed dataset using the minimum number of parameters deep learning structure, depending on the deep learning structure used. It may include a determination step (S22) of determining.
먼저, S21 단계를 통한 잡초 판별 방법에 대하여 자세히 설명하기로 한다.First, a detailed description will be given of a method for determining weeds through step S21.
구체적으로, 영상처리단계(S10)는 하나 이상의 잡초가 촬영된 영상 데이터를 하나 이상의 잡초 데이터셋으로 처리하는 단계로, 영상 데이터를 그대로 사용하여 잡초를 판별할 순 있으나, 해상도를 낮추고 객체(잡초) 이외의 잡음, 아웃포커싱 이상 등을 해결하여 원활한 학습이 이루어지도록 함으로써 판별 정확도가 향상되도록 하기 위한 단계이다.Specifically, the image processing step (S10) is a step of processing image data in which one or more weeds are photographed into one or more weed datasets, and weeds can be determined using the image data as it is, but the resolution is lowered and the object (weeds) This is a step to improve discrimination accuracy by solving other noises, out-of-focus abnormalities, etc. to enable smooth learning.
도 2를 참조하면, S10 단계는 잡초 이미지를 생성하는 단계(S100), 잡초 이미지를 압축시키는 단계(S101) 및 잡초 데이터셋으로 처리하는 단계(S102)을 포함할 수 있다.Referring to Figure 2, step S10 may include generating a weed image (S100), compressing the weed image (S101) and processing the weed dataset (S102).
잡초 이미지를 생성하는 단계(S100)는 고해상도의 영상 데이터에서 잡초(객체)로 볼 수 있는 잎, 꽃, 열매 및 전초를 구분하여 특징에 맞게 잘라내 하나 이상의 잡초 이미지를 생성할 수 있다.The step of generating a weed image (S100) may generate one or more weed images by classifying leaves, flowers, fruits and outposts that can be seen as weeds (objects) in high-resolution image data and cutting them according to characteristics.
잡초 이미지를 압축시키는 단계(S101)는 S100 단계에서 생성된 하나 이상의 잡초 이미지를 각각 압축시켜, 단일 분류 모델에 입력시키기에 바람직한 형태로 만들 수 있다.Compressing the weed image (S101) can be made into a desirable form for input to a single classification model by compressing each of the one or more weed images generated in step S100.
여기서, 잡초 이미지를 정의된 규격에 따라 가로, 세로, 깊이에 맞춰 압축시킬 수 있으며, 정사각형으로 압축시키는 것이 바람직하나, 이에 한정되지 않는다.Here, the weed image can be compressed according to the defined standard horizontally, vertically, and in depth, preferably compressed in a square shape, but is not limited thereto.
또한, S101 단계는 잡초 이미지를 정사각형으로 압축시키게 되면 잡초 특성 상 잡초 종에 대한 길이나 비율이 가지는 특징이 사라질 수 있기 때문에 압축 후, 압축에 의해 발생한 남은 작은 공간을 미러링 또는 객체에 영향을 주지않는 특정값(예: 0값)을 통해 채울 수 있다.In addition, in step S101, if the weed image is compressed into a square, the characteristic of the length or ratio for the weed species may disappear due to the characteristics of the weed. It can be filled via values (eg zero values).
잡초 데이터셋으로 처리하는 단계(S102)는 S101 단계에서 압축된 하나 이상의 잡초 이미지를 각각 데이터 증강 기법을 이용하여 잡초 데이터셋으로 처리함으로써, 하나 이상의 잡초 데이터셋을 생성할 수 있다. Processing as a weed dataset (S102) may generate one or more weed datasets by processing one or more weed images compressed in step S101 as a weed dataset using a data augmentation technique, respectively.
이는 S101 단계에서 잡초 이미지를 압축시키더라도 전 세계에 존재하는 잡초 이미지를 전부 획득할 수 없기 때문에 데이터 증강 방법을 통해 잡초 데이터셋으로 만들어 이를 단일 분류 모델에 입력시킴으로써 원활한 학습, 즉 판별이 이루어지도록 할 수 있는 것이다.This is because even if weed images are compressed in step S101, all weed images that exist in the world cannot be acquired. it can be
좀더 구체적으로, S102 단계는 잡초 이미지를 데이터 증강 기법으로 좌우반전, 상하반전, 3차원 비틀기, 이동 및 회전 중 하나 이상의 방식을 이용하여 처리함으로써, 최종적인 잡초 데이터셋으로 생성할 수 있다.More specifically, step S102 can be generated as a final weed dataset by processing the weed image by using one or more methods of left and right inversion, vertical inversion, three-dimensional twist, movement and rotation as a data augmentation technique.
이때, 이동 및 회전 방식은 빈 픽셀은 0으로 처리하여 이루어질 수 있다.In this case, the movement and rotation method may be performed by treating empty pixels as 0.
판별단계(S21)는 최대화 파라미터 수 딥러닝 구조를 이용하여 하나 이상의 잡초 데이터셋에서 잡초를 판별할 수 있다.The determination step (S21) can determine the weeds from one or more weed datasets using the deep learning structure of the maximum number of parameters.
최대화 파라미터 수 딥러닝 구조는 도 3에 도시된 바와 같이 구현된 것으로, 최대화 파라미터 수를 사용하여 정확도를 향상시키고자 하는 것이다. 이러한 딥러닝 구조는 예를 들면, 잡초 판별을 하는 전문가(단일 분류 모델)를 여러 명 모아서 잡초에 대한 이미지를 보고 각각의 의견을 내고, 이를 종합 해보는 구조라고 할 수 있다.The maximum number of parameters The deep learning structure is implemented as shown in FIG. 3, and it is intended to improve the accuracy by using the maximum number of parameters. Such a deep learning structure, for example, can be said to be a structure that gathers several experts (single classification model) to identify weeds, sees images of weeds, gives individual opinions, and synthesizes them.
즉, 2개 이상의 단일 분류 모델을 함께 사용함으로써, 하나의 단일 분류 모델을 사용하는 경우 보다 잡초 판별의 정확도를 향상시킬 수 있으며, 사용되는 단일 분류 모델의 수 증가에 따라 보다 더 정확도가 높게 나타나도록 할 수 있다.That is, by using two or more single classification models together, the accuracy of weed identification can be improved than when using one single classification model, and as the number of single classification models used increases, the accuracy becomes higher. can do.
여기서, 단일 분류 모델은 컨벌루션 뉴럴 네트워크 모델(Convolutional Neural Network, CNN)로, VGGNet 모델, ResNet 모델, Inception-Resnet 모델, MobileNet 모델, NASNet 모델, MobileNetV2 모델일 수 있으나, 이에 한정되지 않는다.Here, the single classification model is a convolutional neural network model (CNN), which may be a VGGNet model, a ResNet model, an Inception-Resnet model, a MobileNet model, a NASNet model, or a MobileNetV2 model, but is not limited thereto.
도 4를 참조하면, S21 단계는 학습단계(S210), 입력단계(S211), 가중치 설정 단계(S212) 및 혼합단계(S213)를 포함할 수 있다.Referring to FIG. 4 , step S21 may include a learning step S210 , an input step S211 , a weight setting step S212 , and a mixing step S213 .
학습단계(S210)는 두 개 이상의 단일 분류 모델을 학습시키는 단계로, 잡초 데이터를 학습시켜, 잡초 데이터셋 입력 시 잡초를 판별하도록 할 수 있다.The learning step (S210) is a step of learning two or more single classification models, and by learning weed data, it is possible to discriminate weeds when a weed dataset is input.
여기서, 두 개 이상의 단일 분류 모델은 서로 다른 모델일 수 있으나, 이에 한정되지 않는다.Here, the two or more single classification models may be different models, but is not limited thereto.
또한, 잡초 데이터는 과와 종으로 분류된 다수의 이미지일 수 있으나, 이에 한정되지 않고, 종으로만 분류된 다수의 이미지일 수도 있다.In addition, the weed data may be a plurality of images classified into families and species, but is not limited thereto, and may be a plurality of images classified only by species.
이때, 잡초 데이터에 이용되는 이미지도 잡초 데이터셋을 생성하는 S10 단계와 동일하게 처리되어 생성된 것일 수 있다.At this time, the image used for the weed data may be generated by processing the same as the step S10 of generating the weed data set.
예를 들어, 잡초 데이터는 하기 표 1과 같이 구성될 수 있으며, 이는 예에 불과하므로 이에 한정되지는 않는다.For example, weed data may be configured as shown in Table 1 below, which is not limited thereto because it is merely an example.
또한, S210 단계는 잡초 데이터를 학습시키기 전에, 이미지넷 1000개 분류군으로 전이학습을 할 수도 있다. In addition, in step S210, before learning the weed data, transfer learning may be performed with 1000 image net taxa.
이는 1000개 분류군 중 339000장의 이미지는 식물 및 꽃과 관련이 있기 때문에, 이미지넷 1000개 분류군으로 사전 학습을 시킴으로써 잡초 데이터에 대한 학습이 보다 효율적으로 이루어지도록 하기 위한 것이다.This is to make learning on weed data more efficient by pre-learning with 1000 taxa on ImageNet because 339000 images out of 1000 taxa are related to plants and flowers.
입력단계(S211)는 S210 단계에서 잡초 데이터가 학습된 두 개 이상의 단일 분류 모델에 각각 잡초 데이터셋을 입력하여 학습시킴으로써 확률 벡터를 얻을 수 있다.In the input step (S211), a probability vector can be obtained by inputting and learning each weed dataset to two or more single classification models from which weed data is learned in step S210.
가중치 설정 단계(S212)는 S211 단계에서 잡초 데이터셋을 입력하여 확률 벡터가 구해진 두개 이상의 단일 분류 모델의 가중치(αn)를 각각 설정할 수 있다. 여기서 가중치를 단일 분류 모델마다 각각 구하는 것은 다른 확률 벡터를 가지는 단일 분류 모델의 가중치가 모두 똑같으면 오류가 높아질 수 있기 때문에, 단일 분류 모델의 가중치를 각각 구해 정확도를 높이는 것이다. The weight setting step (S212) may set the weights (α n ) of two or more single classification models from which the probability vectors are obtained by inputting the weed dataset in the step S211, respectively. Here, calculating the weights for each single classification model is to increase the accuracy by calculating the weights of each single classification model, since an error may increase if the weights of a single classification model having different probability vectors are all the same.
S212 단계에서 가중치(αn)는 1 또는 1이 아닌 수로 설정될 수 있다.In step S212 , the weight α n may be set to 1 or a number other than 1.
S212 단계는 1이 아닌 수로 가중치(αn)를 설정할 경우, 비학습 또는 학습방법을 통해 가중치(αn)를 설정할 수 있다.In step S212, when the weight α n is set to a number other than 1, the weight α n may be set through a non-learning or learning method.
구체적으로, 비학습 방법을 통해 가중치(αn)를 설정할 경우, S212 단계는 2 가지 방법으로 나누어 질 수 있다.Specifically, when the weight α n is set through the non-learning method, step S212 may be divided into two methods.
첫째, S212 단계는 랜덤으로 임의의 값을 정해, 임의의 값을 가중치(αn)로 설정할 수 있다.First, in step S212, an arbitrary value may be determined at random, and the arbitrary value may be set as the weight (α n ).
둘째, S212 단계는 가중치(αn)를 하기 수학식 1을 통해 계산하여 설정할 수 있다.Second, in step S212, the weight α n may be calculated and set through
[수학식 1][Equation 1]
여기서, n은 단일 분류 모델 개수, MAX는 단일 분류 모델의 최종 클래스 별 확률값 중 최대값이다.Here, n is the number of single classification models, and MAX is the maximum value among the probability values for each final class of the single classification model.
또한, S212 단계는 학습 방법을 통해 가중치(αn)를 설정할 경우, 도 5와 같은 구조를 갖는 다중 레이어 퍼셉트론(Multi-Layer Perceptron)을 통해 가중치(αn)를 계산하여 설정할 수 있다. 이는 가중치(αn)를 사용자가 선정하도록 하는 것이 아닌 학습을 통해 최적화된 가중치를 사용하도록 할 수 있다.In addition, step S212 may be set by calculating a weight (α n) with a weighting (α n), is also a multi-layered perceptron (Multi-Layer Perceptron) having a structure such as a 5 when set through learning. This makes it possible to use an optimized weight through learning rather than allowing the user to select the weight α n .
이러한 다중 레이어 퍼셉트론(Multi-Layer Perceptron)을 적용시키기 위해서는 단일 벡터인 신뢰값(실수값)이 필요한데, 엔트로피 방법 또는 최대차이 방법을 통해 신뢰값(실수값)을 구할 수 있다.In order to apply such a multi-layer perceptron, a confidence value (real value), which is a single vector, is required, and the confidence value (real value) can be obtained through the entropy method or the maximum difference method.
신뢰값은 최종 분류 결정을 내리기 전에 확률 벡터의 신뢰도를 측정하기 위한 값이다. 예를 들어, A=[0.900;0.050;0.020;0.015;0.015]와 B=[0.500;0.400;0.050;0.030;0.020]으로 나온 확률 벡터가 있다고 하면 A에서는 최대값인 0.900을 선택했을 때 신뢰도가 보장되지만, B에서는 최대값인 0.500을 선택한다고 하더라도 그 다음 값인 0.400과 별차이가 없어 신뢰도가 떨어지게 될 수 있다. The confidence value is a value for measuring the reliability of a probability vector before making a final classification decision. For example, if there is a probability vector with A = [0.900;0.050;0.020; 0.015; 0.015] and B = [0.500;0.400;0.050;0.030; Although guaranteed, even if the maximum value of 0.500 is selected in B, there is no significant difference from the next value of 0.400, so the reliability may be lowered.
B와 같은 경우 가중치를 변화시켜 신뢰도를 높이는 것이 바람직한데, 사용자가 가중치를 선정하는 방법(비학습 방법)에서는 수정이 어려우나 다중 레이어 퍼셉트론(Multi-Layer Perceptron)을 통해 학습으로 가중치를 설정하는 경우에는 가중치를 변화시키는 최적화가 가능한 장점이 있다.In the case of B, it is desirable to increase the reliability by changing the weights. It is difficult to modify in the method in which the user selects the weights (non-learning method), but when setting the weights by learning through the multi-layer perceptron, There is an advantage that optimization by changing the weight is possible.
즉, S212 단계는 다중 레이어 퍼셉트론(Multi-Layer Perceptron)을 이용할 시, 엔트로피 방법 또는 최대차이 방법을 통해 각 단일 분류 모델의 확률 벡터를 다중 레이어 퍼셉트론의 입력값인 신뢰값(실수값)으로 변환하여, 다중 레이어 퍼셉트론(Multi-Layer Perceptron)을 적용시킬 수 있다.That is, in step S212, when using a multi-layer perceptron, the probability vector of each single classification model is converted into a confidence value (real value) that is an input value of the multi-layer perceptron through the entropy method or the maximum difference method. , a multi-layer perceptron can be applied.
여기서, 엔트로피 방법을 이용할 경우, 하기 수학식 2를 통해 신뢰값(실수값)을 구할 수 있다.Here, when using the entropy method, a confidence value (real value) can be obtained through
[수학식 2][Equation 2]
여기서, pi는 확률 벡터, C(pi)는 신뢰값이다.Here, p i is a probability vector and C(p i ) is a confidence value.
또한, 최대차이 방법을 이용할 경우, 하기 수학식 3을 통해 신뢰값(실수값)을 구할 수 있다.In addition, when the maximum difference method is used, a confidence value (real value) can be obtained through Equation 3 below.
[수학식 3][Equation 3]
여기서, pi는 확률 벡터, C(pi)는 신뢰값이다.Here, p i is a probability vector and C(p i ) is a confidence value.
혼합단계(S213)는 S212 단계를 통해 가중치(αn)가 설정되면, 각 단일 분류 모델의 가중치(αn)를 혼합하여 최종 판별 결과를 획득할 수 있다.The mixing step (S213) may be when the weight (α n) set by the step S212, a mixture of a weight (α n) of each single classification model obtain a final discrimination result.
S213 단계는 가중치 선형 결합 방법 또는 가중치 제곱 결합 방법을 통해 각 단일 분류 모델의 가중치(αn)를 혼합하여 최종 판별 결과를 획득할 수 있다.In step S213, a final determination result may be obtained by mixing the weights α n of each single classification model through a weighted linear combining method or a weighted squared combining method.
여기서, 가중치 선형 결합 방법을 이용할 경우, 가중치(αn)를 하기 수학식 4를 통해 혼합할 수 있다.Here, when the weighted linear combining method is used, the weights α n can be mixed through
[수학식 4][Equation 4]
여기서, B는 행렬, P는 확률 벡터의 묶음, W는 가중치 우선순위의 묶음, S는 B의 열에 있는 모든 원소를 더한 점수 벡터로, Si는 클래스 i에 해당하는 점수, n은 단일 분류 모델 개수이다.where B is a matrix, P is a set of probability vectors, W is a set of weight priorities, S is a score vector summing all elements in a column of B, S i is a score corresponding to class i, n is a single classification model is the number
이때, B는 c × n 사이즈의 행렬이고, c는 길이이며 분류 결과에 의해 결정될 수 있다.In this case, B is a matrix having a size of c × n, and c is a length, which may be determined by the classification result.
또한, 가중치 제곱 결합 방법을 이용할 경우, 가중치(αn)를 하기 수학식 5를 통해 혼합할 수 있다.In addition, when the weighted square combining method is used, the weights α n can be mixed through
[수학식 5][Equation 5]
여기서, B는 행렬, P는 확률 벡터의 묶음, W는 가중치 우선순위의 묶음, S는 B의 열에 있는 모든 원소를 더한 점수 벡터로, Si는 클래스 i에 해당하는 점수, n은 단일 분류 모델 개수이다.where B is a matrix, P is a set of probability vectors, W is a set of weight priorities, S is a score vector summing all elements in a column of B, S i is a score corresponding to class i, n is a single classification model is the number
이때, B는 c × n 사이즈의 행렬이고, c는 길이이며 B의 열에 있는 모든 원소를 곱한 것일 수 있다.In this case, B is a matrix of c × n size, c is a length, and may be a product of all elements in a column of B.
상기와 같은 방법을 통해 잡초 데이터셋의 잡초를 판별함으로써 정확도를 향상시킬 수 있다.Accuracy can be improved by determining the weeds of the weed dataset through the above method.
이하, S22 단계를 통한 잡초 판별 방법에 대하여 자세히 설명하기로 한다.Hereinafter, a method for determining weeds through step S22 will be described in detail.
도 6은 본 발명의 실시예에 따른 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법에서 사용되는 최소화 파라미터 수 딥러닝 구조를 도시한 개념도이고, 도 7은 도 1의 S22 단계를 개략적으로 도시한 흐름도이고, 도 8은 보강 딥러닝 구조에서 사용되는 문턱값을 설정하기 위해 부모분류기의 예측값에 따른 정확도를 나타낸 히스토그램이고, 도 9는 본 발명의 실시예에 따른 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법의 최소화 파라미터 수 딥러닝 구조에서 사용되는 보강 딥러닝 구조를 도시한 개념도이며, 도 10은 본 발명의 실시예에 따른 최대화 또는 최소화 파라미터 수 딥러닝 구조가 적용된 잡초 판별 방법에서 사용되는 종단간 학습의 최소화 파라미터 수 딥러닝 구조를 도시한 개념도이다.6 is a conceptual diagram illustrating a deep learning structure with a minimized number of parameters used in a method for determining a weed to which a maximizing or minimizing number of parameters deep learning structure is applied according to an embodiment of the present invention, and FIG. 7 schematically shows step S22 of FIG. 8 is a histogram showing the accuracy according to the prediction value of the parent classifier to set the threshold value used in the reinforcement deep learning structure, and FIG. 9 is the number of maximization or minimization parameters deep learning structure according to an embodiment of the present invention is a conceptual diagram showing a reinforcement deep learning structure used in a deep learning structure, the number of minimized parameters of the weed identification method applied It is a conceptual diagram showing the deep learning structure with the minimum number of parameters for end-to-end learning.
도 1에 도시된 바와 같이, S10 단계 후 S22 단계로 진행될 수도 있다.As shown in FIG. 1 , after step S10, step S22 may be performed.
판별단계(S22)는 최소화 파라미터 수 딥러닝 구조를 이용하여 하나 이상의 잡초 데이터셋에서 잡초를 판별할 수 있다.Determination step (S22) can determine the number of weeds from one or more weed datasets using a deep learning structure to minimize the number of parameters.
최소화 파라미터 수 딥러닝 구조는 도 6에 도시된 바와 같이 구현된 것으로, 최소화 파라미터 수를 사용하여 연산량과 연산속도를 줄이되, 일정 수준 이상의 정확도를 확보하고자 하는 것이다. The number of minimized parameters The deep learning structure is implemented as shown in FIG. 6, and it is intended to reduce the amount of computation and the computation speed by using the number of minimized parameters, but to secure a certain level of accuracy or more.
잡초는 분류학적으로 과(family)와 종(class)으로 구분될 수 있는데, 비슷한 특성을 가지는 종끼리는 과로 묶이게 되며, 과의 계측에서 구별할수록 시각적 특징이 두드러져 판별이 쉬워지고 종의 계측에서는 공유하는 특징이 많다.Weeds can be classified taxonomically into families and classes. Species with similar characteristics are grouped into families. There are many features.
최소화 파라미터 수 딥러닝 구조는 이를 이용한 것으로, 예를 들어 잡초의 과를 판별하는 전문가(단일 분류 모델-부모분류기)를 통해 과를 분류한 상태에서 해당 과의 종을 판별하는 전문가(단일 분류 모델-자식분류기)가 종을 판별하는 구조라고 할 수 있다.The minimum number of parameters deep learning structure uses this, for example, an expert (single classification model - single classification model - It can be said that the subclassifier) is a structure for discriminating species.
이를 통해 모든 종에 대한 잡초 데이터로 판별하는 것이 아닌 해당 과의 종에 대한 잡초 데이터로만 판별이 이루어지도록 하여 파라미터 수를 최소화 시킬 수 있고, 이에 따라 연산량 및 연산속도를 획기적으로 줄이면서도 정확도는 일정 수준 이상이 되도록 할 수 있다.Through this, the number of parameters can be minimized by allowing the discrimination to be made only with the weed data for the species of the relevant family rather than using the weed data for all species. can make it more than that.
도 7을 참조하면, S22 단계는 학습단계(S220), 과 판별단계(S221) 및 종 판별단계(S224)를 포함할 수 있다.Referring to FIG. 7 , step S22 may include a learning step ( S220 ), a fruit determination step ( S221 ), and a species determination step ( S224 ).
학습단계(S220)는 단일 분류 모델을 학습시키는 단계로, 잡초 데이터를 과와 종 데이터로 분류시킨 후, 단일 분류 모델에 잡초 데이터 중 과 데이터를 학습시켜 부모분류기로, 단일 분류 모델에 잡초 데이터 중 종 데이터를 종별로 각각 학습시켜 하나 이상의 자식분류기로 만들 수 있다.The learning step (S220) is a step of learning a single classification model, classifying weed data into family and species data, and then learning the family data among weed data in a single classification model as a parent classifier and among weed data in a single classification model. Species data can be trained individually for each species to make one or more subclassifiers.
여기서 사용되는 단일 분류 모델들은 동일한 모델일 수 있으나, 이에 한정되지는 않는다.The single classification models used herein may be the same model, but are not limited thereto.
또한, S220 단계는 과 데이터 또는 중 데이터를 학습시키기 전에, 단일 분류 모델에 이미지넷 1000개 분류군으로 전이학습을 시킬 수도 있다. In addition, in step S220, before learning over-data or medium-data, transfer learning may be performed on a single classification model with 1000 image net taxa.
과 판별단계(S221)는 부모분류기에 잡초 데이터셋을 입력시켜 과(family)를 판별할 수 있다.The family determination step (S221) may determine a family (family) by inputting a weed dataset to the parent classifier.
종 판별단계(S224)는 판별된 과에 해당하는 자식분류기를 통해 종(class)을 판별하여 최종 판별 결과를 획득할 수 있다.In the species determination step S224, a final determination result may be obtained by determining a species through a child classifier corresponding to the determined family.
이때, S224 단계는 부모분류기 및 자식분류기에서 구해진 값을 이용하여 하기 수학식 6을 통해 최종 판별 결과를 획득할 수 있다.In this case, in step S224, a final determination result may be obtained through Equation 6 below using the values obtained from the parent classifier and the child classifier.
[수학식 6][Equation 6]
여기서, W는 단일 분류 모델의 가중치, 는 자식분류기의 예측값, 는 부모분류기의 예측값, P는 부모분류기의 예측값에서의 자식분류기의 예측값의 확률이다.where W is the weight of a single classification model, is the predicted value of the subclassifier, is the predicted value of the parent classifier, and P is the probability of the predicted value of the child classifier in the predicted value of the parent classifier.
이와 같은 최소화 파라미터 수 딥러닝 구조를 통해 잡초가 판별되기 위해서, 잡초 데이터셋은 잡초의 과(family)와 종(class)에 관한 정보를 트리구조로 가지고 있어야 한다.In order to discriminate weeds through the deep learning structure of such a minimized number of parameters, the weed dataset must have information on the family and class of weeds in a tree structure.
또한, 판별단계(S22)는 과 판별단계(S221) 후에, 예측값 판단단계(S222)를 더 포함할 수 있다.In addition, the determination step (S22) may further include a prediction value determination step (S222) after the and determination step (S221).
예측값 판단단계(S222)는 과 판별단계(S221)에서 부모분류기가 정답을 정확히 예측했는지 틀렸는지를 문턱값을 이용하여 판단할 수 있다.The prediction value determination step S222 may determine whether the parent classifier correctly predicted the correct answer in the over determination step S221 using a threshold value.
여기서 사용되는 문턱값은 도 8과 같이 부모분류기의 예측값에 따른 정확도를 나타낸 히스토그램을 통해 설정될 수 있는데, 99%로 설정될 수 있으나, 이에 한정되지는 않는다.The threshold value used here may be set through a histogram showing the accuracy according to the prediction value of the parent classifier as shown in FIG. 8, and may be set to 99%, but is not limited thereto.
또한, 판별단계(S22)는 예측값 판단단계(S222) 후에, S222 단계에서 부모분류기가 정답을 틀리게 예측할 경우, 보강단계(S223)를 더 포함할 수 있다.In addition, the determination step S22 may further include a reinforcement step S223 when the parent classifier incorrectly predicts the correct answer in step S222 after the prediction value determination step S222.
보강단계(S223)는 도 9와 같이 오인식 부모분류기를 예측했을 때 보상을 주는 구조를 적용한 것으로, S222 단계에서 부모분류기가 정답을 틀리게 예측할 경우, 정답을 찾도록 할 수 있다.The reinforcement step S223 applies a structure that rewards when the misrecognized parent classifier is predicted as shown in FIG. 9, and when the parent classifier incorrectly predicts the correct answer in step S222, the correct answer can be found.
S223 단계는 S222 단계의 판단에 따라 하기 수학식 7 및 8을 통해, 부모분류기가 정답과 틀리게 예측할 경우 해당되는 하나 이상의 자식분류기의 정답 확률 벡터를 계산하여 가장 높은 값을 가지는 예측값을 도출할 수 있다.In step S223, according to the determination of step S222, if the parent classifier predicts wrongly from the correct answer through the following equations 7 and 8, the prediction value having the highest value can be derived by calculating the correct answer probability vector of one or more child classifiers. .
[수학식 7][Equation 7]
[수학식 8][Equation 8]
여기서, Y는 자식분류기, n은 자식분류기의 번호, I는 잡초 데이터셋, Fi는 부모분류기이다.Here, Y is the child classifier, n is the number of the child classifier, I is the weed dataset, and F i is the parent classifier.
이러한 S223 단계는 S222 단계에서 부모분류기가 정답을 정확히 예측했다고 판단될 경우, 에서 0으로 수렴시켜, 원래대로 판단된 과에 해당되는 자식분류기만을 사용하게 할 수 있다.In step S223, if it is determined that the parent classifier correctly predicted the correct answer in step S222, By converging to 0, it is possible to use only the child classifiers corresponding to the originally judged family.
도 10을 참조하면, 최소화 파라미터 수 딥러닝 구조를 이용하여 하나 이상의 잡초 데이터셋에서 잡초를 판별하는 판별단계(S22)는 도 7에 도시된 바와 같이, 부모분류기와 자식분류기가 계층적으로 나누어져 처리되는 것 외에, 종단간 학습의 최소화 파라미터 수 딥러닝 구조로 이루어져 과(family)와 종(class)을 동시에 판별할 수도 있다.Referring to FIG. 10 , in the determination step (S22) of discriminating weeds from one or more weed datasets using a deep learning structure with a minimized number of parameters, as shown in FIG. 7 , the parent classifier and the child classifier are hierarchically divided In addition to being processed, it is also possible to determine a family and a class at the same time as it consists of a deep learning structure with a minimum number of parameters for end-to-end learning.
이는 부모분류기에서 확률값만 구하고 이를 자식분류기에 바로 적용시킴으로써, 과(family)와 종(class)이 동시에 판별되도록 하는 것이다.This is to obtain only the probability value from the parent classifier and apply it directly to the child classifier, so that the family and the class can be discriminated at the same time.
구체적으로, 종단간 학습이 적용된 S22 단계는 부모분류기 및 자식분류기를 이용하여 하기 수학식 9를 통해 최종 판별 결과를 획득할 수 있다.Specifically, in step S22 to which end-to-end learning is applied, a final determination result may be obtained through Equation 9 below using a parent classifier and a child classifier.
[수학식 9][Equation 9]
여기서, 는 j번째 과의 k번째 종에 대한 확률값, 는 자식분류기 Yk의 예측값, 는 부모분류기 Fj의 예측값이다.here, is the probability value for the kth species of the jth family, is the predicted value of the subclassifier Y k , is the predicted value of the parent classifier F j .
상기와 같은 방법을 통해 잡초 데이터셋의 잡초를 판별함으로써 연산량 및 연산속도를 감소시킬 수 있다.By determining the weeds of the weed dataset through the above method, it is possible to reduce the amount of computation and the computation speed.
이하, 실시예에 의하여 본 발명을 더욱 상세히 설명하고자 한다.Hereinafter, the present invention will be described in more detail by way of Examples.
단, 하기 실시예는 본 발명을 예시하는 것일 뿐, 본 발명의 내용이 하기 실시예에 의해 한정되는 것은 아니다.However, the following examples are merely illustrative of the present invention, and the content of the present invention is not limited by the following examples.
[[ 실시예Example ] 최대화 또는 최소화 파라미터 수 ] Number of maximization or minimization parameters 딥러닝deep learning 구조 유용성 확인 Check structure usability
본 발명의 효과를 검증하기 위하여, 잡초 5개과 21개종을 대상으로 영상 데이터를 잡초 데이터셋으로 처리한 후 입력시켜 잡초를 판별하는 것으로, 컨벌루션 뉴럴 네트워크 단일 분류 모델과 본 발명의 최대화 및 최소화 파라미터 수 딥러닝 구조를 이용한 방법과 비교 분석하였다.In order to verify the effect of the present invention, the number of maximization and minimization parameters of a convolutional neural network single classification model and the present invention by processing image data for 5 weeds and 21 species as a weed dataset and then inputting it to determine weeds Methods using deep learning structures were compared and analyzed.
이때, 단일 분류 모델은 이미지넷 1000개 분류군을 전이학습한 상태에서 잡초 데이터를 학습시켰고, 잡초 데이터셋은 컬러 영상이며 크기는 224*224이다.At this time, the single classification model trained weed data in the state of transfer learning of 1000 taxa on ImageNet, and the weed dataset is a color image and the size is 224*224.
학습에 사용된 잡초 데이터는 표 1과 같다.Weed data used for learning are shown in Table 1.
1) 단일 분류 모델1) single classification model
그 결과, 컨벌루션 뉴럴 네트워크 단일 분류 모델(VGGNet, ResNet, Inception-Resnet, MobileNet, NASNet, MobileNetV2) 각각의 21개종 잡초에 대한 정확도 및 파라미터 수는 하기 표 2와 같이 나타났다.As a result, the accuracy and number of parameters for each of the convolutional neural network single classification models (VGGNet, ResNet, Inception-Resnet, MobileNet, NASNet, MobileNetV2) 21 species were shown in Table 2 below.
2) 최대화 파라미터 2) Maximize parameter 딥러닝deep learning 구조 structure
최대화 파라미터 딥러닝 구조의 경우 상기 단일 분류 모델 결과를 참고하여, 정확도가 높은 순서대로 NASNet, ResNet, VGGNet, Inception-Resnet, MobileNet 순으로 조합하여 사용하였다. 이때, MobileNetV2는 MobileNet과 겹치는 모델이라 사용하지 않았다.In the case of the maximization parameter deep learning structure, NASNet, ResNet, VGGNet, Inception-Resnet, and MobileNet were used in combination in the order of high accuracy, referring to the single classification model result. At this time, MobileNetV2 was not used because it was a model overlapping with MobileNet.
단일 분류 모델 개수에 따른 최대화 파라미터 딥러닝 구조의 정확도를 분석하였고, 최대화 파라미터 딥러닝 구조에서 사용할 수 있는 모든 조합 중 해당 단일 분류 모델 개수에서 가장 좋은 정확도를 보이는 조합의 결과는 하기 표 3과 같다.The accuracy of the maximization parameter deep learning structure according to the number of single classification models was analyzed, and the results of the combination showing the best accuracy in the number of single classification models among all combinations that can be used in the maximization parameter deep learning structure are shown in Table 3 below.
상기 표 3에 나타난 바와 같이, 2개 이상의 단일 분류 모델을 사용한 최대화 파라미터 딥러닝 구조의 정확도는 단일 분류 모델에서 정확도가 가장 높은 NASNet 모델보다 높은 것을 확인할 수 있었으며, 단일 분류 모델 개수가 늘어남에 따라 정확도가 향상되는 것을 확인할 수 있었다.As shown in Table 3 above, it was confirmed that the accuracy of the maximization parameter deep learning structure using two or more single classification models was higher than that of the NASNet model with the highest accuracy in a single classification model, and as the number of single classification models increases, the accuracy could be seen to improve.
3) 최소화 파라미터 3) Minimization parameters 딥러닝deep learning 구조 structure
<최소화 파라미터 딥러닝 구조><Minimized parameter deep learning structure>
최소화 파라미터 딥러닝 구조 또한 상기 단일 분류 모델 결과를 참고하여, 파라미터 수가 적은 MobileNetV2를 사용하였다. 이때, 잡초 데이터 학습은 잡초 데이터를 과(family) 데이터와 종(class) 데이터로 분류하고, 과 데이터를 학습시킨 부모분류기, 종별로 각각 종 데이터를 학습시킨 5개의 자식분류기로 만들어 사용하였다.For the minimization parameter deep learning structure, MobileNetV2 with a small number of parameters was used by referring to the single classification model result. At this time, weed data learning was used by classifying weed data into family data and class data, a parent classifier that learned the family data, and five child classifiers that learned species data for each species.
이를 통해 종을 판별하는 자식분류기는 최대 11개의 종(class)을 분류하는 구조로, 기존의 단일 분류 모델에서 분류해야 했던 21개의 종(class)보다 절반이 줄어든 구조가 구현되었다.Through this, the subclassifier that discriminates species has a structure that classifies up to 11 classes, and the structure is reduced by half compared to the 21 classes that had to be classified in the existing single classification model.
이와 같이 구현된 MobileNetV2 기반의 최소화 파라미터 딥러닝 구조는 표 4와 같으며, 이를 ResNet 모델과 비교하였다.The mobileNetV2-based minimization parameter deep learning structure implemented in this way is shown in Table 4, and it was compared with the ResNet model.
상기 표 4를 보면 알 수 있듯이, ResNet 모델은 파라미터 수 21,298,010을 사용하면서 정확도가 98.0%를 보였고, 최소화 파라미터 딥러닝 구조는 파라미터 수 4,897,010을 사용하면서 정확도가 97.23%로 나타나는 것을 확인할 수 있었다.As can be seen from Table 4, the ResNet model showed 98.0% accuracy while using the number of parameters 21,298,010, and the minimized parameter deep learning structure used the number of parameters 4,897,010. It was confirmed that the accuracy was 97.23%.
정확도는 0.7% 미만으로 미미한 차이가 났으나 파라미터 수는 3배 이상 감소시킨 것을 확인할 수 있었다.Although the accuracy was less than 0.7%, there was a slight difference, but it was confirmed that the number of parameters was reduced by more than 3 times.
<보강 딥러닝 구조가 적용된 최소화 파라미터 딥러닝 구조><Minimum parameter deep learning structure with reinforcement deep learning structure applied>
최소화 파라미터 딥러닝 구조에 문턱값을 이용하여 부모분류기가 정답을 예측했는지 판단하고, 부모분류기에서 정답을 예측하지 못할 경우 보강단계를 통해 해당되는 하나 이상의 자식분류기의 정답 확률 벡터를 계산하여 가장 높은 값을 가지는 예측값을 도출하여 정답을 찾는 구조를 적용하였다.It is determined whether the parent classifier predicted the correct answer by using the threshold value in the minimization parameter deep learning structure. A structure to find the correct answer was applied by deriving a predicted value with .
그 결과 파라미터 수와 정확도가 하기 표 5와 같이 나타났다.As a result, the number of parameters and accuracy were shown in Table 5 below.
상기 표 5를 보면 알 수 있듯이, 보강 딥러닝 구조가 적용된 최소화 파라미터 딥러닝 구조 또한 ResNet 모델보다 파라미터 수는 3배 이상 감소시키면서도, 기존의 최소화 파라미터 딥러닝 구조보다 다소 정확도가 향상된 것을 확인할 수 있었다.As can be seen from Table 5 above, it was confirmed that the minimization parameter deep learning structure to which the reinforcement deep learning structure is applied also reduces the number of parameters by more than 3 times compared to the ResNet model, while improving the accuracy somewhat compared to the existing minimization parameter deep learning structure.
<종단간 학습의 최소화 파라미터 딥러닝 구조><Deep learning structure with minimal parameters of end-to-end learning>
종단간 학습의 최소화 파라미터 딥러닝 구조를 적용하여 파라미터 수와 정확도를 비교 분석하였다. 그 결과는 하기 표 6과 같다.The number of parameters and the accuracy were compared and analyzed by applying the parameter deep learning structure to minimize the end-to-end learning. The results are shown in Table 6 below.
상기 표 6을 보면 알 수 있듯이, 기존의 최소화 파라미터 딥러닝 구조보다 다소 정확도가 감소하였으나, 파라미터 수를 약 3배 정도 더 감소시킨 것을 확인할 수 있었으며, ResNet 모델보다는 약 10배가 감소된 것을 확인할 수 있었다.As can be seen from Table 6, it was confirmed that the accuracy was slightly reduced compared to the existing minimized parameter deep learning structure, but the number of parameters was further reduced by about 3 times, and it was confirmed that it was reduced by about 10 times than the ResNet model. .
이에 따라, 최소화 파라미터 딥러닝 구조를 이용할 경우, 파라미터 수를 최소화하여 연산량 및 연산속도를 감소시킬 수 있는 것으로 판단된다.Accordingly, it is determined that when using the minimized parameter deep learning structure, the number of parameters can be minimized to reduce the amount of computation and the computation speed.
이상에서 설명한 본 발명의 실시예는 장치 및/또는 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하기 위한 프로그램, 그 프로그램이 기록된 기록 매체 등을 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시예의 기재로부터 본 발명이 속하는 기술분야의 전문가라면 쉽게 구현할 수 있는 것이다.The embodiment of the present invention described above is not implemented only through an apparatus and/or method, but may be implemented through a program for realizing a function corresponding to the configuration of the embodiment of the present invention, a recording medium in which the program is recorded, etc. Also, such an implementation can be easily implemented by those skilled in the art to which the present invention pertains from the description of the above-described embodiments.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improved forms of the present invention are also provided by those skilled in the art using the basic concept of the present invention as defined in the following claims. is within the scope of the right.
Claims (15)
최대화 파라미터 수 딥러닝 구조를 이용하여 잡초 데이터셋에서 잡초를 판별하는 판별단계를 포함하고,
상기 판별단계는,
잡초 데이터셋을 입력하여 확률 벡터가 구해진 두개 이상의 단일 분류 모델의 가중치(αn)를 각각 설정하는 가중치 설정 단계 및
설정된 가중치(αn)를 혼합하여 최종 판별 결과를 획득하는 혼합단계를 포함하고,
상기 가중치 설정 단계는,
다중 레이어 퍼셉트론을 통해 가중치(αn)를 계산하여 설정하며,
엔트로피 방법 또는 최대차이 방법을 통해 각 단일 분류 모델의 확률 벡터를 상기 다중 레이어 퍼셉트론의 입력값인 신뢰값(실수값)으로 변환하는 것을 특징으로 하는 잡초 판별 방법.
In the weed identification method to which the deep learning structure is applied, the number of maximizing or minimizing parameters,
Including a discrimination step of discriminating weeds from a weed dataset using the maximizing number of parameters deep learning structure,
The determination step is
A weight setting step of setting the weights (α n ) of two or more single classification models from which probability vectors are obtained by inputting a weed dataset, respectively;
Including a mixing step of mixing the set weight (α n ) to obtain a final determination result,
The weight setting step is
It is set by calculating the weight (α n ) through the multi-layer perceptron,
Weed discrimination method, characterized in that by converting the probability vector of each single classification model into a confidence value (real value) that is an input value of the multi-layer perceptron through the entropy method or the maximum difference method.
상기 판별단계 전에,
영상 데이터를 하나 이상의 잡초 데이터셋으로 처리하는 영상처리단계를 더 포함하는 잡초 판별 방법.
According to claim 1,
Before the determination step,
Weed identification method further comprising an image processing step of processing the image data into one or more weed datasets.
상기 영상처리단계는,
영상 데이터에서 잡초(객체)로 볼 수 있는 잎, 꽃, 열매 및 전초를 구분하여 잘라내 하나 이상의 잡초 이미지를 생성하는 단계;
생성된 잡초 이미지를 압축시키는 단계 및
압축된 잡초 이미지를 데이터 증강 기법을 이용하여 잡초 데이터셋으로 처리하는 단계를 포함하는 잡초 판별 방법.
3. The method of claim 2,
The image processing step is
generating one or more weed images by dividing and cutting leaves, flowers, fruits, and outposts that can be seen as weeds (objects) from the image data;
Compressing the generated weed image and
Weed identification method comprising the step of processing the compressed weed image as a weed dataset using a data augmentation technique.
상기 혼합단계는,
가중치 선형 결합 방법 또는 가중치 제곱 결합 방법을 통해 각 단일 분류 모델의 가중치(αn)를 혼합하여 최종 판별 결과를 획득하는 것을 특징으로 하는 잡초 판별 방법.
According to claim 1,
The mixing step is
Weed discrimination method, characterized in that by mixing the weights (α n ) of each single classification model through a weighted linear combining method or a weighted squared combining method to obtain a final discrimination result.
최소화 파라미터 수 딥러닝 구조를 이용하여 잡초 데이터셋에서 잡초를 판별하는 판별단계를 포함하고,
상기 판별단계는,
부모분류기에 잡초 데이터셋을 입력시켜 과(family)를 판별하는 과 판별단계;
판별된 과에 해당하는 자식분류기를 통해 종(class)을 판별하여 최종 판별 결과를 획득하는 종 판별단계;
상기 과 판별단계에서 상기 부모분류기가 정답을 정확히 예측했는지 틀렸는지를 문턱값을 이용하여 판단하는 예측값 판단단계 및
상기 예측값 판단단계에서 부모분류기가 정답을 틀리게 예측할 경우 정답을 찾는 보강단계를 포함하고,
상기 종 판별단계는,
상기 부모분류기 및 자식분류기에서 구해진 값을 이용하여 하기 수학식 6을 통해 최종 판별 결과를 획득하며,
상기 보강단계는,
상기 예측값 판단단계에서 판단에 따라 하기 수학식 7 및 8을 통해, 부모분류기가 정답을 정확히 예측할 경우 에서 0으로 수렴하고, 부모분류기가 정답과 틀리게 예측할 경우 해당되는 하나 이상의 자식분류기의 정답 확률 벡터를 계산하여 가장 높은 값을 가지는 예측값을 도출하는 것을 특징으로 하는 잡초 판별 방법.
[수학식 6]
(여기서, W는 단일 분류 모델의 가중치, 는 자식분류기의 예측값, 는 부모분류기의 예측값, P는 부모분류기의 예측값에서의 자식분류기의 예측값의 확률이다)
[수학식 7]
[수학식 8]
(여기서, Y는 자식분류기, n은 자식분류기의 번호, I는 잡초 데이터셋, Fi는 부모분류기이다)
In the weed identification method to which the deep learning structure is applied, the number of maximizing or minimizing parameters,
Including a discrimination step of discriminating weeds from a weed dataset using a deep learning structure with a minimum number of parameters,
The determination step is
A family determination step of determining a family by inputting a weed dataset to the parent classifier;
a species identification step of obtaining a final determination result by determining a species through a child classifier corresponding to the determined family;
A prediction value determination step of judging whether the parent classifier correctly predicted the correct answer or wrong using a threshold in the over-determining step, and
a reinforcing step of finding the correct answer when the parent classifier incorrectly predicts the correct answer in the predictive value determination step;
The species identification step is
A final determination result is obtained through Equation 6 below using the values obtained from the parent classifier and the child classifier,
The reinforcement step is
When the parent classifier accurately predicts the correct answer through the following Equations 7 and 8 according to the determination in the prediction value determination step converges to 0, and when the parent classifier predicts wrongly from the correct answer, the method for determining the weed, characterized in that the prediction value with the highest value is derived by calculating the correct probability vector of the corresponding one or more child classifiers.
[Equation 6]
(where W is the weight of a single classification model, is the predicted value of the subclassifier, is the predicted value of the parent classifier, P is the probability of the predicted value of the child classifier in the predicted value of the parent classifier)
[Equation 7]
[Equation 8]
(where Y is the child classifier, n is the number of the child classifier, I is the weed dataset, and F i is the parent classifier)
상기 잡초 데이터셋은,
잡초의 과(family)와 종(class)에 관한 정보를 트리구조로 가지고 있는 것을 특징으로 하는 잡초 판별 방법.
11. The method of claim 10,
The weed dataset is,
Weed identification method, characterized in that it has information about the weed family (family) and species (class) in a tree structure.
최소화 파라미터 수 딥러닝 구조를 이용하여 잡초 데이터셋에서 잡초를 판별하는 판별단계를 포함하고,
상기 판별단계는,
부모분류기 및 자식분류기를 이용하여 하기 수학식 9를 통해 최종 판별 결과를 획득하여,
과(family)와 종(class)을 동시에 판별하는 것을 특징으로 하는 잡초 판별 방법.
[수학식 9]
(여기서, 는 j번째 과의 k번째 종에 대한 확률값, 는 자식분류기 Yk의 예측값, 는 부모분류기 Fj의 예측값이다)
In the weed identification method to which the deep learning structure is applied, the number of maximizing or minimizing parameters,
Including a discrimination step of discriminating weeds from a weed dataset using a deep learning structure with a minimum number of parameters,
The determination step is
By using the parent classifier and the child classifier to obtain the final determination result through Equation 9 below,
Weed identification method, characterized in that the identification of the family (family) and species (class) at the same time.
[Equation 9]
(here, is the probability value for the kth species of the jth family, is the predicted value of the subclassifier Y k , is the predicted value of the parent classifier F j )
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190179503A KR102291164B1 (en) | 2019-12-31 | 2019-12-31 | Method for determining weeds with maximum or minimum parameters deep learning structure |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190179503A KR102291164B1 (en) | 2019-12-31 | 2019-12-31 | Method for determining weeds with maximum or minimum parameters deep learning structure |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210086886A KR20210086886A (en) | 2021-07-09 |
KR102291164B1 true KR102291164B1 (en) | 2021-08-18 |
Family
ID=76865177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190179503A KR102291164B1 (en) | 2019-12-31 | 2019-12-31 | Method for determining weeds with maximum or minimum parameters deep learning structure |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102291164B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016168046A (en) * | 2015-03-09 | 2016-09-23 | 学校法人法政大学 | Plant disease diagnostic system, plant disease diagnostic method, and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120051441A (en) * | 2010-11-12 | 2012-05-22 | 경희대학교 산학협력단 | Method for classifying a weed from a weed image, and apparatus thereof |
KR101942173B1 (en) * | 2017-01-20 | 2019-04-11 | 이화여자대학교 산학협력단 | Image analyzing method based on random tree cnn and image analyzing method based on forest cnn |
-
2019
- 2019-12-31 KR KR1020190179503A patent/KR102291164B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016168046A (en) * | 2015-03-09 | 2016-09-23 | 学校法人法政大学 | Plant disease diagnostic system, plant disease diagnostic method, and program |
Non-Patent Citations (1)
Title |
---|
보 호앙 트롱외 4인, 다양한 합성곱 신경망 접근법을 이용한 잡초 이미지 분류, 대한전자공학회 학술대회, 368-371, 2018.11.30. 1부.* |
Also Published As
Publication number | Publication date |
---|---|
KR20210086886A (en) | 2021-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111583263B (en) | Point cloud segmentation method based on joint dynamic graph convolution | |
CN105488528B (en) | Neural network image classification method based on improving expert inquiry method | |
CN107392919B (en) | Adaptive genetic algorithm-based gray threshold acquisition method and image segmentation method | |
CN108038859B (en) | PCNN graph segmentation method and device based on PSO and comprehensive evaluation criterion | |
CN109272107A (en) | A method of improving the number of parameters of deep layer convolutional neural networks | |
CN103914705B (en) | Hyperspectral image classification and wave band selection method based on multi-target immune cloning | |
Surya et al. | Cassava leaf disease detection using convolutional neural networks | |
CN110490265B (en) | Image steganalysis method based on double-path convolution and feature fusion | |
Pinto et al. | Crop disease classification using texture analysis | |
CN112580662A (en) | Method and system for recognizing fish body direction based on image features | |
CN112819063B (en) | Image identification method based on improved Focal loss function | |
CN113963410A (en) | Face recognition optimization method based on improved genetic algorithm | |
CN113807176A (en) | Small sample video behavior identification method based on multi-knowledge fusion | |
Correa et al. | Design and Implementation of a CNN architecture to classify images of banana leaves with diseases | |
CN114782761A (en) | Intelligent storage material identification method and system based on deep learning | |
KR102291164B1 (en) | Method for determining weeds with maximum or minimum parameters deep learning structure | |
CN117853807A (en) | Wheat pest detection method based on improved YOLOv5 model | |
CN112200208B (en) | Cloud workflow task execution time prediction method based on multi-dimensional feature fusion | |
CN112800968A (en) | Method for identifying identity of pig in drinking area based on feature histogram fusion of HOG blocks | |
CN116935125A (en) | Noise data set target detection method realized through weak supervision | |
Rishita et al. | Dog breed classifier using convolutional neural networks | |
WO2022242471A1 (en) | Neural network configuration parameter training and deployment method and apparatus for coping with device mismatch | |
CN114662568A (en) | Data classification method, device, equipment and storage medium | |
CN109308936B (en) | Grain crop production area identification method, grain crop production area identification device and terminal identification equipment | |
Alajas et al. | Grape pseudocercospora leaf specked area estimation using hybrid genetic algorithm and recurrent neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |