KR20220108865A - Object classfication and counting method using Genetic Algorithm and CNN - Google Patents

Object classfication and counting method using Genetic Algorithm and CNN Download PDF

Info

Publication number
KR20220108865A
KR20220108865A KR1020210011571A KR20210011571A KR20220108865A KR 20220108865 A KR20220108865 A KR 20220108865A KR 1020210011571 A KR1020210011571 A KR 1020210011571A KR 20210011571 A KR20210011571 A KR 20210011571A KR 20220108865 A KR20220108865 A KR 20220108865A
Authority
KR
South Korea
Prior art keywords
image
cnn
genetic algorithm
objects
learning
Prior art date
Application number
KR1020210011571A
Other languages
Korean (ko)
Other versions
KR102550869B1 (en
Inventor
강상길
김현석
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020210011571A priority Critical patent/KR102550869B1/en
Publication of KR20220108865A publication Critical patent/KR20220108865A/en
Application granted granted Critical
Publication of KR102550869B1 publication Critical patent/KR102550869B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Physiology (AREA)
  • Genetics & Genomics (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an object classification and aggregation method using genetic algorithm and CNN, and more specifically, to an object detection method using genetic algorithm and CNN, wherein in a general object detection process, an object aggregation and classification process, which are concurrently performed, are separated into two steps, and the genetic algorithm is used in the process of aggregating objects, and a CNN is used in the process of classifying the objects, so that the amount of computation and optimization time can be greatly reduced, and the accuracy of object classification can be improved.

Description

유전 알고리즘 및 CNN을 이용한 물체 분류 및 집계 방법{Object classfication and counting method using Genetic Algorithm and CNN}Object classfication and counting method using Genetic Algorithm and CNN}

본 발명은 유전 알고리즘 및 CNN을 이용한 물체 분류 및 집계 방법에 관한 것으로, 보다 상세하게는 일반적인 물체 탐지(object detection) 과정에서 동시에 진행되는 물체의 집계와 분류 과정을 두 단계로 분리하여 진행하되, 물체의 집계 과정에서는 유전 알고리즘을 이용하고, 물체의 분류 과정에서는 CNN을 이용하여 연산량 및 최적화 시간을 대폭 단축시킬 수 있도록 함과 동시에 물체 분류의 정확성을 향상시킬 수 있도록 하는 유전 알고리즘과 CNN을 이용한 물체 탐지 방법에 관한 것이다.The present invention relates to an object classification and aggregation method using a genetic algorithm and CNN, and more particularly, the aggregation and classification process simultaneously performed in a general object detection process is performed by dividing the object aggregation and classification process into two steps, Object detection using a genetic algorithm and CNN that uses a genetic algorithm in the aggregation process of it's about how

일반적으로, 물체 탐지(object detection)는 촬영된 이미지나 동영상에서 사람, 동물, 차량 등 의미 있는 물체의 종류와 그 위치를 정확하게 찾기 위한 컴퓨터 비전 기술을 뜻하는 것으로, 이미지 또는 영상에서 관심 대상이 되는 물체를 인식하기 위해 일반적으로 검출 대상에 대한 후보 영역을 찾고 그 후보 영역에 대한 물체의 종류와 위치를 학습된 모델을 통해 예측하는 방식을 주로 사용한다.In general, object detection refers to computer vision technology for accurately finding the type and location of a meaningful object such as a person, animal, or vehicle in a photographed image or video. In general, in order to recognize an object, a method of finding a candidate area for a detection target and predicting the type and location of the object in the candidate area through a learned model is mainly used.

이러한 과정을 위해서는 영상 또는 이미지 및 영상 또는 이미지 내의 물체 종류(class)와 물체 위치(bounding box) 정보가 필요하다.For this process, information on the image or image and the object class and the object position (bounding box) within the image or image is required.

상기와 같은 물체 탐지는 영상 복구, 비디오 감시를 포함한 수많은 컴퓨터 비전 분야에 응용되고 있는데, 물체 탐지를 위한 방식은 일반적으로 기계 학습 기반 접근 또는 딥 러닝 기반 접근으로 분류되고 최근에는 그 중에서도 딥 러닝 기법 중 콘볼루션 신경망(CNN; Convolutinal Neural Network)을 기반으로 하는 물체 탐지 기술이 많이 사용되고 있다.Object detection as described above is applied in numerous computer vision fields including image recovery and video surveillance. Methods for object detection are generally classified into machine learning-based approaches or deep learning-based approaches, and recently, among them, An object detection technique based on a convolutional neural network (CNN) is widely used.

상기 콘볼루션 신경망(이하, 'CNN'이라 한다)은 심층 신경망(DNN: Deep Neural Network)의 한 종류로, 하나 또는 여러 개의 콘볼루션 계층(convolutional layer)과 통합 계층(pooling layer), 완전하게 연결된 계층(fully connected layer)들로 구성되고, 2차원 데이터의 학습에 적합한 구조를 가지고 있으며, 역전달(Backpropagation algorithm)을 통해 훈련될 수 있다.The convolutional neural network (hereinafter, referred to as 'CNN') is a type of deep neural network (DNN), and is completely connected to one or several convolutional layers and a pooling layer. It is composed of fully connected layers, has a structure suitable for learning two-dimensional data, and can be trained through a backpropagation algorithm.

이러한 CNN은 영상 내 물체 분류, 물체 탐지 등 다양한 응용 분야에 폭넓게 활용되고 있는데, 최근에는 제조 공장이나 물류 센터 등에서 물체를 탐지하여 분류함과 동시에 분류된 물체들의 개수를 집계할 수 있도록 하는 방법으로 CNN을 활용하는 방법이 연구되고 있다.Such CNNs are widely used in various application fields such as object classification in images and object detection. Recently, CNN is a method that detects and classifies objects in manufacturing plants or distribution centers and aggregates the number of classified objects at the same time. How to use it is being studied.

하지만, CNN을 이용하여 물체의 분류와 집계 즉, 개수 파악을 동시에 진행하는 경우 분류 작업만 진행하는 것에 비해 훈련 과정에 많은 시간이 더 소요되고, 훈련시 연산량 또한 막대하여 실제 적용이 어렵다는 단점이 있다.However, when classification and aggregation of objects, that is, counting the number of objects, are simultaneously performed using CNN, the training process takes a lot more time than just the classification task, and the amount of computation during training is also huge, making it difficult to apply in practice. .

또한, 물체 분류의 정확도는 높지만 빛, 그림자와 같은 광학적인 조건에 의해 물체로 인식되는 경우 등 집계 과정에서 오류가 발생되거나 정확도가 크게 떨어질 수 있는 문제점이 있다.In addition, although the accuracy of object classification is high, there is a problem in that an error may occur or the accuracy may be greatly reduced in the counting process, such as when an object is recognized as an object by optical conditions such as light and shadow.

이와 같은 문제점을 해결하기 위해서는 별도의 이미지 전처리 작업이 수행되어야 하는데, 이미지 프로세싱을 이용한 이미지 전처리 작업은 최적화되기까지 오랜 시간이 소요되고, 최적화된 전처리 과정이 특정 데이터에 대해서만 동작하게 되어 다양한 상품의 분류 및 집계에 동시에 사용되기 어렵다는 단점이 있다.In order to solve such a problem, a separate image pre-processing task must be performed. Image pre-processing using image processing takes a long time to be optimized, and the optimized pre-processing process operates only on specific data to classify various products. and it is difficult to be used simultaneously for aggregation.

또한, 훈련에 사용되는 입력과 출력이 모두 이미지이기 때문에 해당 결과물을 사용한 훈련 및 검증 과정을 추가로 거쳐야만 평가가 가능하므로 전처리 결과물의 효율성 평가가 어렵다는 문제점도 있다.In addition, since both the input and output used for training are images, it is difficult to evaluate the efficiency of the preprocessing result because evaluation is possible only through additional training and verification processes using the corresponding result.

1. 대한민국 등록특허공보 제10-1828011호(2018. 02. 21. 공고)1. Republic of Korea Patent Publication No. 10-1828011 (2018. 02. 21. Announcement) 2. 대한민국 등록특허공보 제10-2097905호(2020. 04. 06. 공고)2. Republic of Korea Patent Publication No. 10-2097905 (2020. 04. 06. Announcement)

본 발명은 상기와 같은 종래기술의 문제점들을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 물체의 집계와 분류 과정을 두 단계로 분리하여 진행하되, 물체의 집계 과정에서는 유전 알고리즘을 이용하고, 물체의 분류 과정에서는 CNN을 이용하여 연산량 및 최적화 시간을 대폭 단축시킬 수 있도록 함과 동시에 물체 분류의 정확성을 향상시킬 수 있도록 하는 유전 알고리즘과 CNN을 이용한 물체 탐지 방법을 제공함에 있다.The present invention has been devised to solve the problems of the prior art as described above, and an object of the present invention is to separate the object aggregation and classification process into two steps, but in the object aggregation process, a genetic algorithm is used, and the object In the classification process of , it is to provide a genetic algorithm and an object detection method using CNN that can significantly reduce the amount of computation and optimization time using CNN and improve the accuracy of object classification at the same time.

또한, 본 발명은 유전 알고리즘을 이용한 학습을 통해 물체의 이미지를 이용한 이미지 프로세싱 과정의 하이퍼파라미터와 연산의 종류 및 순서 등을 자동으로 구성하고 최적화시킬 수 있도록 하는 유전 알고리즘과 CNN을 이용한 물체 탐지 방법을 제공함에 다른 목적이 있다.In addition, the present invention provides an object detection method using a genetic algorithm and CNN that automatically configures and optimizes hyperparameters of an image processing process using an image of an object and types and sequences of operations through learning using a genetic algorithm. There is another purpose to providing.

또한, 본 발명은 최적화된 이미지 프로세싱 과정에 의해 처리된 이미지를 CNN을 이용한 물체 종류의 분류 작업에 사용할 수 있도록 함으로써 물체 분류의 정확성을 향상시킬 수 있도록 하는 유전 알고리즘과 CNN을 이용한 물체 탐지 방법을 제공함에 또 다른 목적이 있다. In addition, the present invention provides a genetic algorithm and an object detection method using CNN that can improve the accuracy of object classification by enabling the image processed by the optimized image processing process to be used for object type classification using CNN. has another purpose.

상기와 같은 목적들을 달성하기 위한 본 발명은,The present invention for achieving the above objects,

유전 알고리즘에 의해 최적화된 이미지 프로세싱을 통해 다수 개의 물체가 포함된 이미지 내에 존재하는 물체의 개수를 집계하는 제1단계와, 물체의 개별 이미지를 이용하여 훈련된 CNN에 의해 상기 다수 개의 물체가 포함된 이미지 내에 존재하는 물체의 종류를 분류하는 제2단계를 포함하는 것을 특징으로 한다.A first step of counting the number of objects present in an image containing a plurality of objects through image processing optimized by a genetic algorithm, and a CNN trained using individual images of objects and a second step of classifying the types of objects present in the image.

이때, 상기 다수 개의 물체가 포함된 이미지는 가로 또는 세로 방향으로 적층된 상태의 물체를 포함하는 이미지인 것을 특징으로 한다.In this case, the image including the plurality of objects is characterized in that it is an image including the objects stacked in a horizontal or vertical direction.

또한, 상기 제2단계는 제1단계에서 최적화된 이미지 프로세싱을 통해 획득된 이미지를 입력받아 훈련된 CNN에 의해 물체의 종류를 분류하는 것을 특징으로 한다.In addition, the second step is characterized in that the type of object is classified by the trained CNN by receiving the image obtained through the image processing optimized in the first step.

그리고, 상기 제1단계는, 다수 개의 물체가 포함된 이미지를 획득하는 제1이미지 획득단계와, 획득된 이미지에 대한 이미지 프로세싱에 사용되는 연산의 종류 및 연산에 사용되는 파라미터들을 각각 염색체 및 유전자로 사용한 유전 알고리즘 학습을 통해 이미지 프로세싱의 최적화 과정을 자동화시키는 제1학습단계와, 상기 제1학습단계에서 최적화된 이미지 프로세싱에 의해 상기 획득된 이미지를 처리하여 물체의 개수를 집계하는 집계단계를 포함하는 것을 특징으로 한다.In addition, the first step includes a first image acquisition step of acquiring an image including a plurality of objects, and a type of operation used for image processing for the acquired image and parameters used for the operation into chromosomes and genes, respectively. A first learning step of automating the optimization process of image processing through learning the genetic algorithm used, and an aggregation step of counting the number of objects by processing the image obtained by the image processing optimized in the first learning step characterized in that

또한, 상기 집계단계는 최적화된 이미지 프로세싱에 의해 처리된 이미지에 윤곽선 검출을 수행하여 각 물체의 개별 이미지를 추출하는 개별 이미지 추출단계를 포함하는 것을 특징으로 한다.In addition, the aggregation step is characterized in that it comprises an individual image extraction step of extracting an individual image of each object by performing contour detection on the image processed by the optimized image processing.

또한, 상기 제1학습단계에서 유전 알고리즘에 의해 학습된 최적화된 이미지 프로세싱 방법은 상기 다수 개의 물체가 포함된 이미지에 흐림 효과를 적용시키는 blur 연산단계와, 흐림 효과가 적용된 이미지에 침식 연산을 수행하는 erode 연산단계, 침식 연산이 수행된 이미지를 백색화 시키는 whitening 연산단계, 백색화된 이미지에 팽창 연산을 수행하는 dilate 연산단계, 팽창 연산이 수행된 이미지를 흑색과 백색으로 이진화하는 binary 연산단계 및 이진화된 이미지에 닫힘 연산을 수행하는 close 연산단계를 포함하는 것을 특징으로 한다.In addition, the optimized image processing method learned by the genetic algorithm in the first learning step includes a blur operation step of applying a blur effect to the image including the plurality of objects, and an erosion operation on the image to which the blur effect is applied. The erode operation step, the whitening operation step for whitening the image on which the erosion operation has been performed, the dilate operation step for performing the dilation operation on the whitened image, the binary operation step for binarizing the image on which the dilation operation has been performed into black and white, and binarization It is characterized in that it includes a close operation step of performing a closing operation on the image.

그리고, 상기 제2단계는, 다수 개의 물체가 포함된 이미지로부터 개별 물체의 이미지를 잘라내어 획득하는 제2이미지 획득단계와, 획득된 개별 물체의 이미지를 이용한 CNN 학습을 수행하는 제2학습단계와, 상기 제1단계에서 유전 알고리즘에 의해 최적화된 이미지 프로세싱을 통해 처리된 이미지에 포함된 물체의 종류를 상기 제2학습단계에서 훈련된 CNN을 이용하여 분류하는 분류단계를 포함하는 것을 특징으로 한다.In addition, the second step includes a second image acquisition step of cutting and obtaining an image of an individual object from an image including a plurality of objects, and a second learning step of performing CNN learning using the acquired image of the individual object; and a classification step of classifying the type of object included in the image processed through image processing optimized by the genetic algorithm in the first step using the CNN trained in the second learning step.

본 발명에 따르면, 일반적인 물체 탐지(object detection) 과정에서 동시에 진행되는 물체의 집계와 분류 과정을 두 단계로 분리하여 진행하되, 물체의 집계 과정에서는 유전 알고리즘을 이용하여 연산량을 줄일 수 있도록 함과 동시에 최적화에 소요되는 시간을 대폭 단축시킬 수 있고, 물체의 분류 과정에서는 최적화된 이미지 프로세싱 과정에 의해 처리된 이미지를 CNN을 이용한 물체 분류 작업에 사용할 수 있도록 함으로써 물체 분류의 정확성을 향상시킬 수 있도록 하는 뛰어난 효과를 갖는다.According to the present invention, the aggregation and classification process of objects, which are simultaneously performed in the general object detection process, is divided into two steps, and the amount of computation can be reduced by using a genetic algorithm in the object aggregation process. The time required for optimization can be greatly reduced, and in the object classification process, the image processed by the optimized image processing process can be used for object classification using CNN. have an effect

도 1은 본 발명에 따른 유전 알고리즘 및 CNN을 이용한 물체 분류 및 집계 방법을 개념적으로 나타낸 블록도.
도 2는 본 발명에 따른 유전 알고리즘 및 CNN을 이용한 물체 분류 및 집계 방법을 순차적으로 나타낸 흐름도.
도 3은 도 2에 나타낸 본 발명 중 제1학습단계에서의 학습결과 최적화된 이미지 프로세싱 과정을 개념적으로 나타낸 도면.
1 is a block diagram conceptually illustrating an object classification and aggregation method using a genetic algorithm and CNN according to the present invention.
2 is a flowchart sequentially illustrating an object classification and aggregation method using a genetic algorithm and CNN according to the present invention.
3 is a diagram conceptually illustrating an image processing process optimized as a learning result in the first learning step of the present invention shown in FIG. 2 .

이하, 첨부된 도면을 참고로 하여 본 발명에 따른 유전 알고리즘 및 CNN을 이용한 물체 분류 및 집계 방법의 바람직한 실시예들을 상세히 설명하기로 한다.Hereinafter, preferred embodiments of an object classification and aggregation method using a genetic algorithm and CNN according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 유전 알고리즘 및 CNN을 이용한 물체 분류 및 집계 방법을 개념적으로 나타낸 블록도이고, 도 2는 본 발명에 따른 유전 알고리즘 및 CNN을 이용한 물체 분류 및 집계 방법을 순차적으로 나타낸 흐름도이며, 도 3은 도 2에 나타낸 본 발명 중 제1학습단계에서의 학습결과 최적화된 이미지 프로세싱 과정을 개념적으로 나타낸 도면이다.1 is a block diagram conceptually illustrating an object classification and aggregation method using a genetic algorithm and CNN according to the present invention, and FIG. 2 is a flowchart sequentially illustrating an object classification and aggregation method using a genetic algorithm and CNN according to the present invention. , FIG. 3 is a diagram conceptually illustrating an image processing process optimized as a learning result in the first learning step of the present invention shown in FIG. 2 .

본 발명은 일반적인 물체 탐지(object detection) 과정에서 동시에 진행되는 물체의 집계와 분류 과정을 두 단계로 분리하여 진행하되, 물체의 집계 과정에서는 유전 알고리즘을 이용하고, 물체의 분류 과정에서는 CNN을 이용하여 연산량 및 최적화 시간을 대폭 단축시킬 수 있도록 함과 동시에 물체 분류의 정확성을 향상시킬 수 있도록 하는 유전 알고리즘과 CNN을 이용한 물체 탐지 방법에 관한 것으로, 그 구성은 도 2에 나타낸 바와 같이, 크게 제1단계(S100)와 제2단계(S200)를 포함하여 이루어진다.The present invention divides the aggregation and classification process of objects simultaneously in the general object detection process into two steps, but uses a genetic algorithm in the object aggregation process and CNN in the object classification process. It relates to an object detection method using a genetic algorithm and CNN that can significantly reduce the amount of computation and optimization time and improve the accuracy of object classification, and the configuration of which is largely the first step, as shown in FIG. (S100) and a second step (S200).

먼저, 상기 제1단계(S100)는 다수 개의 물체가 포함된 이미지를 이미지 프로세싱에 의해 처리하여 이미지 내에 존재하는 물체의 개수를 집계하는 단계에 관한 것으로, 이때 사용되는 이미지 프로세싱 과정은 유전 알고리즘(Genetic Algorithm)을 이용한 학습에 의해 최적화될 수 있고, 상기 제1단계(S100)에서는 유전 알고리즘에 의한 학습을 통해 최적화된 이미지 프로세싱 과정을 거친 후, 이미지 내에 존재하는 물체의 개수를 정확히 집계할 수 있다.First, the first step (S100) relates to a step of processing an image including a plurality of objects by image processing to count the number of objects present in the image, and the image processing process used in this case is a genetic algorithm (Genetic). Algorithm), and in the first step ( S100 ), the number of objects present in the image can be accurately counted after an image processing process optimized through learning by a genetic algorithm is performed.

이때, 상기 이미지 내에 포함된 다수 개의 물체는 가로 또는 세로 방향으로 적층된 상태의 물체일 수 있는데, 여기서 가로 방향으로 적층된 물체는 도 3에 나타낸 바와 같이, 다수 개의 물체들이 가로 방향으로 놓여진 상태에서 상,하 방향으로 적층되어 있는 상태를 의미하고, 세로 방향으로 적층된 물체는 책꽂이 등에 정렬된 책들과 같이 다수 개의 물체들이 세로 방향으로 세워진 상태에서 좌,우 방향으로 적층되어 있는 상태를 의미한다.At this time, the plurality of objects included in the image may be objects in a state of being stacked in a horizontal or vertical direction, where the objects stacked in the horizontal direction are in a state in which a plurality of objects are placed in a horizontal direction as shown in FIG. 3 . It means a state in which the objects are stacked in the up and down directions, and the vertically stacked object means a state in which a plurality of objects are stacked in the left and right directions, such as books arranged on a bookshelf, in a vertical direction.

이하에서는, 가로 또는 세로 방향으로 적층된 물체를 적층된 물체로 통칭하여 표현하기로 한다.Hereinafter, an object stacked in a horizontal or vertical direction will be collectively referred to as a stacked object.

또한, 본 발명에서의 물체 분류 및 집계시 빛이나 그림자와 같은 광학적인 조건에 의해 물체로 인식되어 집계 과정에서 오류가 발생되거나 정확도가 크게 떨어질 수 있는 문제를 발생시키는 것은 상기 이미지 내에 포함된 다수 개의 물체들이 적층된 상태로 있는 경우가 대부분이므로, 이하에서는 이미지 프로세싱에 사용되는 이미지, 즉 다수 개의 물체가 포함된 이미지가 다수 개의 적층된 물체들을 포함하는 이미지인 것을 기준으로 설명하기로 한다.In addition, when classifying and counting objects in the present invention, it is recognized as an object by optical conditions such as light or shadow, causing an error in the counting process or a problem that the accuracy may be greatly reduced. Since most of the objects are in a stacked state, an image used for image processing, that is, an image including a plurality of objects, will be described based on an image including a plurality of stacked objects.

한편, 상기 제1단계(S100)는 제1이미지 획득단계(S110), 제1학습단계(S120) 및 집계단계(S130)를 포함할 수 있는데, 상기 제1이미지 획득단계(S110)는 카메라 등의 촬영수단에 의해 촬영된 다수 개의 물체가 적층된 상태의 영상 또는 이미지, 즉 적층된 물체의 영상 또는 이미지를 획득하는 단계로, 이와 같이 획득된 영상 또는 이미지는 이미지 프로세싱 처리를 위한 컴퓨터로 입력될 수 있다.On the other hand, the first step (S100) may include a first image acquisition step (S110), a first learning step (S120) and an aggregation step (S130), wherein the first image acquisition step (S110) is a camera, etc. A step of acquiring an image or image of a state in which a plurality of objects photographed by the photographing means of can

이때, 상기 컴퓨터로 입력된 형태가 촬영수단에 의해 촬영된 동영상일 경우, 캡쳐된 이미지 형태로 이미지 프로세싱 프로그램으로 공급될 수 있고, 포토샵 등 통상의 이미지 편집 프로그램을 이용하여 상기 이미지에 포함된 다른 요소들을 모두 제거하고 적층된 물체의 이미지만을 이미지 프로세싱 프로그램으로 공급할 수도 있다.At this time, when the form input to the computer is a moving picture captured by a photographing means, it may be supplied to an image processing program in the form of a captured image, and other elements included in the image using a normal image editing program such as Photoshop It is also possible to remove all of them and supply only the image of the stacked object to the image processing program.

다음, 상기 제1학습단계(S120)는 제1이미지 획득단계(S110)를 통해 입력된 적층된 물체 이미지에 대한 이미지 프로세싱의 최적화 과정을 학습을 통해 자동화시키는 단계로, 이러한 학습에는 전술한 바와 같이 유전 알고리즘이 사용될 수 있다.Next, the first learning step (S120) is a step of automating the optimization process of image processing for the stacked object image input through the first image obtaining step (S110) through learning. A genetic algorithm may be used.

보다 상세히 설명하면, 상기 유전 알고리즘은 생물의 진화과정을 모방하여 주어진 문제에 대해 최적의 솔루션을 찾는 것을 목적으로 하는 메타휴리스틱(Meta Heuristic) 계열의 알고리즘으로 문제해결 과정에서 임의성이 포함되므로 비교적 빠른 시간 안에 최적의 솔루션을 찾을 수 있는 장점이 있다.More specifically, the genetic algorithm is a meta-heuristic-based algorithm that aims to find an optimal solution to a given problem by imitating the evolutionary process of living things. It has the advantage of being able to find the optimal solution within.

이와 같은 유전 알고리즘은 크게 초기 세대 생성, 초기 세대 적합도 평가, 다음 세대 생성을 위한 초기 세대 교배 및 돌연변이, 다음 세대 적합도 평가 및 다음 세대 생성을 위한 현재 세대 교배 및 돌연변이의 5단계를 포함할 수 있는데, 이러한 유전 알고리즘의 보다 구체적인 학습 방법은 기존의 다양한 최적화 문제에서 사용되고 있는 방법과 동일할 수 있으므로 이에 대한 상세한 설명은 생략하기로 한다.Such a genetic algorithm can largely include five steps: generation of the initial generation, evaluation of fitness of the first generation, crossing and mutation of the first generation for generation of the next generation, evaluation of fitness of the next generation, and crossing and mutation of the current generation for generation of the next generation. Since a more specific learning method of such a genetic algorithm may be the same as a method used in various existing optimization problems, a detailed description thereof will be omitted.

본 발명에서는 이미지 프로세싱의 최적화를 유전 알고리즘으로 얻고자 하는 솔루션으로 하고 있으므로, 이미지 프로세싱에 사용되는 연산의 종류를 염색체로 하고, 연산에 사용되는 파라미터들을 유전자로 하는 유전 알고리즘을 학습시킴으로써 이미지 프로세싱의 최적화 과정을 자동화할 수 있고, 유전 알고리즘의 학습이 완료될 경우 물체의 이미지를 이용한 이미지 프로세싱 과정의 하이퍼파라미터와 연산의 종류 및 순서 등을 자동으로 구성하고 최적화시킬 수 있다.In the present invention, since the optimization of image processing is a solution to be obtained with a genetic algorithm, the optimization of image processing is achieved by learning a genetic algorithm using the chromosome as the type of operation used for image processing and the gene as the parameters used for the operation. The process can be automated, and when the learning of the genetic algorithm is completed, hyperparameters of the image processing process using the image of an object, the type and sequence of operations, etc. can be automatically configured and optimized.

다음, 상기 집계단계(S130)는 제1학습단계(S120)에서 학습된 유전 알고리즘에 의해 최적화된 이미지 프로세싱 기법을 이용하여 상기 제1이미지 획득단계(S110)를 통해 입력되는 이미지를 처리하여 물체의 개수를 집계하는 단계로, 다수 개의 물체가 적층된 상태의 이미지가 입력되면 학습된 유전 알고리즘은 최적화된 이미지 프로세싱 과정을 자동으로 생성하여 입력된 이미지를 처리하게 되고, 처리된 결과물로부터 물체의 개수를 파악하여 집계하도록 구성될 수 있다.Next, in the aggregation step ( S130 ), the image input through the first image acquisition step ( S110 ) is processed using the image processing technique optimized by the genetic algorithm learned in the first learning step ( S120 ). In the step of counting the number, when an image of a state in which a plurality of objects are stacked is input, the learned genetic algorithm automatically creates an optimized image processing process to process the input image, and calculates the number of objects from the processed result. It may be configured to identify and aggregate.

보다 상세히 설명하면, 도 3은 상기 제1학습단계(S120)에서 학습된 유전 알고리즘에 의해 자동으로 생성된 최적화된 이미지 프로세싱 과정의 일례를 나타낸 것으로, 제1이미지 획득단계(S110)를 통해 입력되는 적층된 물체 이미지에 흐림 효과를 적용시키는 blur 연산단계와, 흐림 효과가 적용된 이미지에 침식 연산을 수행하는 erode 연산단계, 침식 연산이 수행된 이미지를 백색화시키는 whitening 연산단계, 백색화된 이미지에 팽창 연산을 수행하는 dilate 연산단계, 팽창 연산이 수행된 이미지를 흑색과 백색으로 이진화하는 binary 연산단계 및 이진화된 이미지에 닫힘 연산을 수행하는 close 연산단계가 순차적으로 포함될 수 있다.More specifically, FIG. 3 shows an example of an optimized image processing process automatically generated by the genetic algorithm learned in the first learning step (S120), which is input through the first image acquisition step (S110). A blur operation step of applying a blur effect to the stacked object image, an erode operation step of performing an erosion operation on the image to which the blur effect has been applied, a whitening operation step of whitening the image on which the erosion operation has been performed, and an expansion operation on the whitened image A dilate operation step of performing , a binary operation step of binarizing the image on which the dilation operation is performed into black and white, and a close operation step of performing a closing operation on the binarized image may be sequentially included.

상기와 같은 이미지 프로세싱 과정의 연산단계들은 이미 다양한 분야에서 이미지 프로세싱, 즉 획득된 이미지의 전처리를 위해 사용되는 연산들이므로 이에 대한 보다 구체적인 설명은 생략하기로 한다.Since the operation steps of the image processing process as described above are already used for image processing in various fields, that is, pre-processing of an acquired image, a more detailed description thereof will be omitted.

또한, 도시하지는 않았으나, 상기 제1이미지 획득단계(S110)를 통해 입력되는 이미지에 포함된 적층된 물체의 색상, 크기 등에 따라 이미지 프로세싱 과정에서 수행되는 연산들의 순서가 변경되거나 상기에 예시되지 않은 공지의 다른 연산들이 추가적으로 수행될 수도 있다.In addition, although not shown, the order of operations performed in the image processing process is changed or not illustrated according to the color, size, etc. of the stacked object included in the image input through the first image obtaining step S110 Other operations of may be additionally performed.

상기와 같이 자동으로 생성된 최적화 이미지 프로세싱 과정에 의해 처리된 적층된 물체 이미지는 적층된 물체의 개수 파악에 사용되는데, 이를 위해 상기 집계단계(S130)는 적층된 물체의 개별 이미지를 추출하는 개별 이미지 추출단계(S132)를 더 포함할 수 있다.The stacked object image processed by the automatically generated optimization image processing process as described above is used to determine the number of stacked objects. It may further include an extraction step (S132).

보다 상세히 설명하면, 상기 개별 이미지 추출단계(S132)는 최적화 이미지 프로세싱 과정에 의해 처리된 적층된 물체 이미지에 윤곽선 검출(contour detection)을 수행하여 물체의 개별 이미지를 추출하는 단계로, 이와 같이 윤곽선 검출을 통해 개별 이미지를 추출할 경우 물체의 개수 집계의 정확성을 더욱 향상시킬 수 있다.In more detail, the individual image extraction step ( S132 ) is a step of extracting individual images of an object by performing contour detection on the stacked object image processed by the optimization image processing process to extract individual images of the object. When individual images are extracted through , the accuracy of counting the number of objects can be further improved.

또한, 상기와 같이 추출된 물체의 개별 이미지는 후술할 제2단계(S200)에서의 물체의 종류 분류에 사용될 수 있는데, 이에 대해서는 후술하기로 한다.In addition, the individual images of the objects extracted as described above may be used to classify the types of objects in the second step S200 to be described later, which will be described later.

다음, 상기 제2단계(S200)는 적층된 물체의 이미지에 포함된 물체의 종류를 분류하기 위한 단계로, 제2단계(S200)에서는 콘볼루션 신경망, 즉 CNN(Convolutinal Neural Network)을 사용할 수 있다.Next, the second step (S200) is a step for classifying the type of object included in the image of the stacked object. In the second step (S200), a convolutional neural network, that is, a CNN (Convolutinal Neural Network) can be used .

보다 상세히 설명하면, 상기 제2단계(S200)는 제2이미지 획득단계(S210), 제2학습단계(S220) 및 분류단계(S230)를 포함할 수 있는데, 먼저 상기 제2이미지 획득단계(S210)는 적층된 물체의 이미지로부터 개별 물체의 이미지를 잘라내어 획득하는 단계로, 획득되는 개별 물체의 이미지는 제2학습단계(S220)에서의 CNN 학습에 사용될 수 있다.In more detail, the second step (S200) may include a second image acquisition step (S210), a second learning step (S220), and a classification step (S230). First, the second image acquisition step (S210) ) is a step of cutting and obtaining an image of an individual object from an image of a stacked object, and the obtained image of an individual object may be used for CNN learning in the second learning step (S220).

즉, 상기 제2이미지 획득단계(S210)에서는 제1이미지 획득단계(S110)에서 획득된 적층된 물체의 이미지로부터 개별 물체의 이미지를 포토샵 등의 이미지 편집 프로그램을 이용하여 잘라내어(crop) CNN 학습을 위한 프로그램에 입력할 수 있다.That is, in the second image acquisition step (S210), from the image of the stacked object obtained in the first image acquisition step (S110), images of individual objects are cropped using an image editing program such as Photoshop, and CNN learning is performed. can be entered into the program for

다음, 상기 제2학습단계(S220)는 제2이미지 획득단계(S210)를 통해 획득된 개별 물체의 이미지를 이용한 CNN 학습을 수행하는 단계로 전술한 바와 같이, CNN 학습을 기반으로 하는 물체 탐지 기술이 많이 사용되고 있으므로 이에 대한 상세한 설명은 생략하기로 한다.Next, the second learning step (S220) is a step of performing CNN learning using the image of an individual object obtained through the second image obtaining step (S210). As described above, object detection technology based on CNN learning Since it is widely used, a detailed description thereof will be omitted.

단, 본 발명에서는 제1이미지 획득단계(S110)에서 획득된 적층된 물체의 이미지를 이용한 제1학습단계(S120), 즉 유전 알고리즘을 통한 학습과, 제2이미지 획득단계(S210)에서 획득된 개별 물체의 이미지를 이용한 제2학습단계(S220), 즉 CNN 학습이 동시에 이루어질 수 있으므로, 물체의 분류 및 집계의 자동화에 필요한 전체적인 학습 시간을 단축시킬 수 있다.However, in the present invention, the first learning step (S120) using the image of the stacked object obtained in the first image obtaining step (S110), that is, learning through a genetic algorithm, and the second image obtaining step (S210) Since the second learning step (S220) using images of individual objects, that is, CNN learning, can be performed simultaneously, the overall learning time required for automating object classification and aggregation can be shortened.

다음, 상기 분류단계(S230)는 제2학습단계(S220)에서 학습, 즉 훈련된 CNN을 이용하여 이미지에 포함된 물체의 종류를 분류하는 단계로, 전술한 바와 같이, 제1단계(S100)에서 유전 알고리즘에 의해 최적화된 이미지 프로세싱을 통해 처리된 이미지를 활용할 수 있다.Next, the classification step (S230) is a step of classifying the type of object included in the image using the learning, that is, the trained CNN in the second learning step (S220). As described above, the first step (S100) can utilize the processed image through image processing optimized by the genetic algorithm.

보다 상세히 설명하면, 상기 제1단계(S100)에서 유전 알고리즘에 의해 자동으로 최적화된 이미지 프로세싱 과정을 통해 처리된 적층된 물체 이미지는 개별 이미지 추출단계(S132)에서 윤곽선 검출에 의해 개별 이미지로 추출되어 물체의 개수 집계에 사용됨과 동시에 CNN을 수행하기 위한 프로그램으로 자동으로 입력되어 상기 분류단계(S230)에서 CNN에 의한 물체의 종류 분류에 사용되도록 구성될 수 있다.More specifically, the stacked object image processed through the image processing process automatically optimized by the genetic algorithm in the first step (S100) is extracted as an individual image by contour detection in the individual image extraction step (S132). It is used for counting the number of objects and is automatically input into a program for performing CNN at the same time and may be configured to be used for classification of object types by CNN in the classification step (S230).

그에 따라, 최적화된 이미지 프로세싱 과정에 의해 처리된 이미지를 CNN을 이용한 물체 종류의 분류 작업에 사용할 수 있으므로 물체 분류의 정확성을 더욱 향상시킬 수 있게 된다.Accordingly, since the image processed by the optimized image processing process can be used for classification of object types using CNN, the accuracy of object classification can be further improved.

따라서, 전술한 바와 같은 본 발명에 따른 유전 알고리즘 및 CNN을 이용한 물체 분류 및 집계 방법에 의하면 일반적인 물체 탐지(object detection) 과정에서 동시에 진행되는 물체의 집계와 분류 과정을 두 단계로 분리하여 진행하되, 물체의 집계 과정에서는 유전 알고리즘을 이용하여 연산량을 줄일 수 있도록 함과 동시에 최적화에 소요되는 시간을 대폭 단축시킬 수 있고, 물체의 분류 과정에서는 최적화된 이미지 프로세싱 과정에 의해 처리된 이미지를 CNN을 이용한 물체 분류 작업에 사용할 수 있도록 함으로써 물체 분류의 정확성을 향상시킬 수 있는 등의 다양한 장점을 갖는 것이다.Therefore, according to the object classification and aggregation method using the genetic algorithm and CNN according to the present invention as described above, the aggregation and classification process of objects simultaneously performed in the general object detection process is divided into two steps, In the object aggregation process, the amount of computation can be reduced by using a genetic algorithm, and the time required for optimization can be greatly reduced. In the object classification process, the image processed by the optimized image processing process can be It has various advantages such as being able to improve the accuracy of object classification by allowing it to be used for classification tasks.

전술한 실시예들은 본 발명의 가장 바람직한 예에 대하여 설명한 것이지만, 상기 실시예에만 한정되는 것은 아니며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 변형이 가능하다는 것은 당업자에게 있어서 명백한 것이다.Although the above-described embodiments have been described with respect to the most preferred examples of the present invention, it is not limited to the above-described embodiments, and it is apparent to those skilled in the art that various modifications are possible without departing from the technical spirit of the present invention.

본 발명은 유전 알고리즘 및 CNN을 이용한 물체 분류 및 집계 방법에 관한 것으로, 보다 상세하게는 일반적인 물체 탐지(object detection) 과정에서 동시에 진행되는 물체의 집계와 분류 과정을 두 단계로 분리하여 진행하되, 물체의 집계 과정에서는 유전 알고리즘을 이용하고, 물체의 분류 과정에서는 CNN을 이용하여 연산량 및 최적화 시간을 대폭 단축시킬 수 있도록 함과 동시에 물체 분류의 정확성을 향상시킬 수 있도록 하는 유전 알고리즘과 CNN을 이용한 물체 탐지 방법에 관한 것이다.The present invention relates to an object classification and aggregation method using a genetic algorithm and CNN, and more particularly, the aggregation and classification process simultaneously performed in a general object detection process is performed by dividing the object aggregation and classification process into two steps, Object detection using a genetic algorithm and CNN that uses a genetic algorithm in the aggregation process of it's about how

S100 : 제1단계 S110 : 제1이미지 획득단계
S120 : 제1학습단계 S130 : 집계단계
S132 : 개별이미지 추출단계 S200 : 제2단계
S210 : 제2이미지 획득단계 S220 : 제2학습단계
S230 : 분류단계
S100: first step S110: first image acquisition step
S120: first learning step S130: counting step
S132: individual image extraction step S200: second step
S210: second image acquisition step S220: second learning step
S230: Classification stage

Claims (7)

유전 알고리즘에 의해 최적화된 이미지 프로세싱을 통해 다수 개의 물체가 포함된 이미지 내에 존재하는 물체의 개수를 집계하는 제1단계와,
물체의 개별 이미지를 이용하여 훈련된 CNN에 의해 상기 다수 개의 물체가 포함된 이미지 내에 존재하는 물체의 종류를 분류하는 제2단계를 포함하는 것을 특징으로 하는 유전 알고리즘 및 CNN을 이용한 물체 분류 및 집계 방법.
A first step of counting the number of objects present in an image including a plurality of objects through image processing optimized by a genetic algorithm;
Object classification and aggregation method using a genetic algorithm and CNN, characterized in that it comprises a second step of classifying the type of object existing in the image including the plurality of objects by a CNN trained using individual images of the object .
제 1항에 있어서,
상기 다수 개의 물체가 포함된 이미지는 가로 또는 세로 방향으로 적층된 상태의 물체를 포함하는 이미지인 것을 특징으로 하는 유전 알고리즘 및 CNN을 이용한 물체 분류 및 집계 방법.
The method of claim 1,
The object classification and counting method using a genetic algorithm and CNN, characterized in that the image including the plurality of objects is an image including the objects in a state of being horizontally or vertically stacked.
제 1항에 있어서,
상기 제2단계는 제1단계에서 최적화된 이미지 프로세싱을 통해 획득된 이미지를 입력받아 훈련된 CNN에 의해 물체의 종류를 분류하는 것을 특징으로 하는 유전 알고리즘 및 CNN을 이용한 물체 분류 및 집계 방법.
The method of claim 1,
The second step is an object classification and aggregation method using a genetic algorithm and CNN, characterized in that the type of object is classified by a trained CNN by receiving the image obtained through the image processing optimized in the first step.
제 1항에 있어서,
상기 제1단계는,
다수 개의 물체가 포함된 이미지를 획득하는 제1이미지 획득단계와,
획득된 이미지에 대한 이미지 프로세싱에 사용되는 연산의 종류 및 연산에 사용되는 파라미터들을 각각 염색체 및 유전자로 사용한 유전 알고리즘 학습을 통해 이미지 프로세싱의 최적화 과정을 자동화시키는 제1학습단계와,
상기 제1학습단계에서 최적화된 이미지 프로세싱에 의해 상기 획득된 이미지를 처리하여 물체의 개수를 집계하는 집계단계를 포함하는 것을 특징으로 하는 유전 알고리즘 및 CNN을 이용한 물체 분류 및 집계 방법.
The method of claim 1,
The first step is
A first image acquisition step of acquiring an image including a plurality of objects;
A first learning step of automating the optimization process of image processing through genetic algorithm learning using the type of operation used for image processing for the acquired image and parameters used for the operation as chromosomes and genes, respectively;
Object classification and aggregation method using a genetic algorithm and CNN, characterized in that it comprises an aggregation step of processing the obtained image by image processing optimized in the first learning step and counting the number of objects.
제 4항에 있어서,
상기 집계단계는 최적화된 이미지 프로세싱에 의해 처리된 이미지에 윤곽선 검출을 수행하여 각 물체의 개별 이미지를 추출하는 개별 이미지 추출단계를 포함하는 것을 특징으로 하는 유전 알고리즘 및 CNN을 이용한 물체 분류 및 집계 방법.
5. The method of claim 4,
The aggregation step is an object classification and aggregation method using a genetic algorithm and CNN, characterized in that it comprises an individual image extraction step of extracting an individual image of each object by performing contour detection on the image processed by the optimized image processing.
제 4항에 있어서,
상기 제1학습단계에서 유전 알고리즘에 의해 학습된 최적화된 이미지 프로세싱 방법은 상기 다수 개의 물체가 포함된 이미지에 흐림 효과를 적용시키는 blur 연산단계와, 흐림 효과가 적용된 이미지에 침식 연산을 수행하는 erode 연산단계, 침식 연산이 수행된 이미지를 백색화 시키는 whitening 연산단계, 백색화된 이미지에 팽창 연산을 수행하는 dilate 연산단계, 팽창 연산이 수행된 이미지를 흑색과 백색으로 이진화하는 binary 연산단계 및 이진화된 이미지에 닫힘 연산을 수행하는 close 연산단계를 포함하는 것을 특징으로 하는 유전 알고리즘 및 CNN을 이용한 물체 분류 및 집계 방법.
5. The method of claim 4,
The optimized image processing method learned by the genetic algorithm in the first learning step includes a blur operation step of applying a blur effect to the image including the plurality of objects, and an erode operation that performs an erosion operation on the image to which the blur effect is applied. step, a whitening operation step of whitening the image on which the erosion operation has been performed, a dilate operation step of performing a dilation operation on the whitened image, a binary operation step of binarizing the image on which the dilation operation has been performed into black and white, and the binarized image Object classification and aggregation method using a genetic algorithm and CNN, characterized in that it includes a close operation step of performing a closing operation on the .
제 1항에 있어서,
상기 제2단계는,
다수 개의 물체가 포함된 이미지로부터 개별 물체의 이미지를 잘라내어 획득하는 제2이미지 획득단계와,
획득된 개별 물체의 이미지를 이용한 CNN 학습을 수행하는 제2학습단계와,
상기 제1단계에서 유전 알고리즘에 의해 최적화된 이미지 프로세싱을 통해 처리된 이미지에 포함된 물체의 종류를 상기 제2학습단계에서 훈련된 CNN을 이용하여 분류하는 분류단계를 포함하는 것을 특징으로 하는 유전 알고리즘 및 CNN을 이용한 물체 분류 및 집계 방법.




The method of claim 1,
The second step is
A second image acquisition step of cutting out and acquiring an image of an individual object from an image including a plurality of objects;
A second learning step of performing CNN learning using the acquired image of an individual object;
Genetic algorithm comprising a classification step of classifying the type of object included in the image processed through image processing optimized by the genetic algorithm in the first step using the CNN trained in the second learning step and object classification and aggregation method using CNN.




KR1020210011571A 2021-01-27 2021-01-27 Object classfication and counting method using Genetic Algorithm and CNN KR102550869B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210011571A KR102550869B1 (en) 2021-01-27 2021-01-27 Object classfication and counting method using Genetic Algorithm and CNN

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210011571A KR102550869B1 (en) 2021-01-27 2021-01-27 Object classfication and counting method using Genetic Algorithm and CNN

Publications (2)

Publication Number Publication Date
KR20220108865A true KR20220108865A (en) 2022-08-04
KR102550869B1 KR102550869B1 (en) 2023-07-05

Family

ID=82836867

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210011571A KR102550869B1 (en) 2021-01-27 2021-01-27 Object classfication and counting method using Genetic Algorithm and CNN

Country Status (1)

Country Link
KR (1) KR102550869B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100845230B1 (en) * 1999-06-29 2008-07-09 코닌클리케 필립스 일렉트로닉스 엔.브이. Image classification using evolved parameters
KR101828011B1 (en) 2016-08-11 2018-02-21 서울대학교산학협력단 Method and apparatus for classifying state of object included in image
KR102097905B1 (en) 2019-06-04 2020-04-06 주식회사 딥엑스 Apparatus and method for recognizing one or more objects in images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100845230B1 (en) * 1999-06-29 2008-07-09 코닌클리케 필립스 일렉트로닉스 엔.브이. Image classification using evolved parameters
KR101828011B1 (en) 2016-08-11 2018-02-21 서울대학교산학협력단 Method and apparatus for classifying state of object included in image
KR102097905B1 (en) 2019-06-04 2020-04-06 주식회사 딥엑스 Apparatus and method for recognizing one or more objects in images

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Automatically Designing CNN Architectures Using Genetic Algorithm for Image Classification", arXiv:1808.03818v3 [cs.NE], 2020.03.27.* *
"유전자 알고리즘을 이용한 반자동 영상분할 시스템 개발", 한국컴퓨터정보학회 논문집 제11권 제4호, 2006.09.22. *
"유전적 알고리즘이 데이터셋 생성에 미치는 영향에 대한 연구", 디지털콘텐츠학회논문지 Vol.20 No.1(pp. 127-133), 2019.01. *

Also Published As

Publication number Publication date
KR102550869B1 (en) 2023-07-05

Similar Documents

Publication Publication Date Title
US10282589B2 (en) Method and system for detection and classification of cells using convolutional neural networks
CN106960195B (en) Crowd counting method and device based on deep learning
CN111178197B (en) Mass R-CNN and Soft-NMS fusion based group-fed adherent pig example segmentation method
Shustanov et al. CNN design for real-time traffic sign recognition
CN108562589B (en) Method for detecting surface defects of magnetic circuit material
CN109492706B (en) Chromosome classification prediction device based on recurrent neural network
Andrea et al. Precise weed and maize classification through convolutional neuronal networks
CN111079674B (en) Target detection method based on global and local information fusion
CN112016591A (en) Training method of image recognition model and image recognition method
WO2018052586A1 (en) Method and system for multi-scale cell image segmentation using multiple parallel convolutional neural networks
Zhu et al. Hierarchical convolutional neural network with feature preservation and autotuned thresholding for crack detection
CN110633738B (en) Rapid classification method for industrial part images
CN102779157A (en) Method and device for searching images
CN112749675A (en) Potato disease identification method based on convolutional neural network
CN108345835B (en) Target identification method based on compound eye imitation perception
Kok et al. Obscured tree branches segmentation and 3D reconstruction using deep learning and geometrical constraints
CN111104855A (en) Workflow identification method based on time sequence behavior detection
CN112446417B (en) Spindle-shaped fruit image segmentation method and system based on multilayer superpixel segmentation
CN115690570B (en) Fish shoal feeding intensity prediction method based on ST-GCN
Madessa et al. Leveraging an instance segmentation method for detection of transparent materials
KR102550869B1 (en) Object classfication and counting method using Genetic Algorithm and CNN
CN115409938A (en) Three-dimensional model construction method, device, equipment and storage medium
CN113850166A (en) Ship image identification method and system based on convolutional neural network
Saidi et al. Application of pixel selection in pixel-based classification for automatic white blood cell segmentation
Ambata et al. Foreground background separation and tracking

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant