KR102243125B1 - Method and apparatus for classifying complex characteristics of images using neural network model - Google Patents

Method and apparatus for classifying complex characteristics of images using neural network model Download PDF

Info

Publication number
KR102243125B1
KR102243125B1 KR1020200095774A KR20200095774A KR102243125B1 KR 102243125 B1 KR102243125 B1 KR 102243125B1 KR 1020200095774 A KR1020200095774 A KR 1020200095774A KR 20200095774 A KR20200095774 A KR 20200095774A KR 102243125 B1 KR102243125 B1 KR 102243125B1
Authority
KR
South Korea
Prior art keywords
class
classes
layer
pooling
output
Prior art date
Application number
KR1020200095774A
Other languages
Korean (ko)
Inventor
금지수
오상일
Original Assignee
주식회사 웨이센
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 웨이센 filed Critical 주식회사 웨이센
Priority to KR1020200095774A priority Critical patent/KR102243125B1/en
Application granted granted Critical
Publication of KR102243125B1 publication Critical patent/KR102243125B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Provided are a method and an apparatus for classifying complex features by using a neural network model that can accurately predict complex features. According to an embodiment of the present invention, the method for classifying the complex features of an image by using a neural network model comprises: (a) a convolution step of performing a convolution operation on an input image by using a convolution layer; (b) a pooling step of performing pooling by using a pooling layer on the output of the convolution step; and (c) a class-specific complete combining step of outputting a value obtained by multiplying the output of the pooling step by a class weight (w_(fc)(T_t)) by using a fully connected layers for each of a plurality of classes corresponding to each of the plurality of classes into which complex features are classified.

Description

신경망 모델을 이용한 영상의 복합 특성 분류 방법 및 장치{METHOD AND APPARATUS FOR CLASSIFYING COMPLEX CHARACTERISTICS OF IMAGES USING NEURAL NETWORK MODEL}Method and apparatus for classifying image complex characteristics using neural network model {METHOD AND APPARATUS FOR CLASSIFYING COMPLEX CHARACTERISTICS OF IMAGES USING NEURAL NETWORK MODEL}

본 발명은 신경망 모델을 이용한 영상의 복합 특성 분류 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for classifying complex characteristics of an image using a neural network model.

도 1의 (a)는 종래기술에 따른 신경망 모델을 나타낸 것이다.1A shows a neural network model according to the prior art.

도 1의 (a)를 참조하면, 신경망 모델은 입력층, 하나 이상의 컨볼루션층, 풀링층 및 완전결합층을 포함한다. 이러한 신경망 모델을 이용하여, 어떠한 입력이 있을 때, A, B, C, D의 네 가지 특성 중 하나의 결과값, 또는 각 특성에 해당하는 확률을 출력할 수 있다. 이때 결과값의 총 합은 100퍼센트일 수 있다.Referring to (a) of FIG. 1, the neural network model includes an input layer, one or more convolutional layers, a pooling layer, and a fully coupled layer. Using such a neural network model, when there is any input, a result value of one of the four characteristics of A, B, C, and D, or a probability corresponding to each characteristic can be output. In this case, the total sum of the result values may be 100%.

그러나, 어떠한 입력은 복수의 결과가 가능한 복합 특성을 가질 수 있다. 예를 들어, A는 남성, B는 여성의 특성이고, C는 동양인, D는 비동양인의 특성인 경우, 결과값으로서 A와 C가 동시에 가능할 수 있다.However, some inputs can have complex properties that allow multiple outcomes. For example, when A is a male, B is a female characteristic, C is an Asian, and D is a non-Asian characteristic, A and C may be simultaneously possible as a result value.

그러나, 종래의 신경망 모델의 의하는 경우, 결과값의 총 합이 100퍼센트가 되도록 판단하기 때문에, 이러한 복합 특성이 제대로 반영되기 어렵다.However, in the case of the conventional neural network model, since the total sum of the result values is determined to be 100%, it is difficult to properly reflect such complex characteristics.

특허등록공보 제10-2095335호 (2020.03.25)Patent Registration Publication No. 10-2095335 (2020.03.25)

본 발명의 실시예는 복합 특성을 제대로 예측할 수 있는 신경망 모델을 이용한 복합 특성 분류 방법 및 장치를 제공하고자 한다.An embodiment of the present invention is to provide a method and apparatus for classifying complex characteristics using a neural network model capable of properly predicting complex characteristics.

본 발명의 실시예에 따른, 각 단계가 프로세서에 의해 수행되는, 신경망 모델을 이용한 영상의 복합 특성 분류 방법은, (a) 입력 영상에 대해 컨볼루션층을 이용하여 컨볼루션 연산을 수행하는 컨볼루션 단계; (b) 상기 컨볼루션 단계의 출력에 대해 풀링(pooling)층을 이용하여 풀링을 수행하는 풀링 단계; 및 (c) 복합 특성이 분류되는 복수의 클래스 각각에 대응하는 복수의 클래스별 완전결합층(fully connected layer)을 이용하여, 상기 풀링 단계의 출력에 대해 클래스별 가중치(wfc(Tt))를 곱한 값을 출력하는 클래스별 완전결합 단계를 포함한다. According to an embodiment of the present invention, a method for classifying complex characteristics of an image using a neural network model in which each step is performed by a processor includes: (a) a convolution operation for performing a convolution operation on an input image using a convolution layer step; (b) a pooling step of performing pooling using a pooling layer on the output of the convolution step; And (c) a weight for each class (w fc (T t )) for the output of the pooling step by using a fully connected layer for each class corresponding to each of a plurality of classes in which the complex characteristics are classified. It includes a complete combining step for each class that outputs the multiplied value of.

상기 방법은, (d) 상기 컨볼루션 단계의 출력에 기초하여 복수의 클래스별 관찰 지도를 연산하는 단계; 및 (e) 상기 복수의 클래스별 관찰 지도에 기초하여 상기 복수의 완전 결합층에 공통되는 공통 관찰 지도를 생성하는 단계를 더 포함할 수 있다.The method includes the steps of: (d) calculating observation maps for each class based on the output of the convolution step; And (e) generating a common observation map common to the plurality of fully coupled layers based on the observation maps for each of the plurality of classes.

상기 공통 관찰 지도는 상기 클래스별 관찰 지도의 평균값일 수 있다.The common observation map may be an average value of the observation maps for each class.

상기 (d) 단계에서, 상기 클래스별 관찰 지도는 하기의 식에 의해 산출될 수 있다.In the step (d), the observation map for each class may be calculated by the following equation.

Figure 112020080517186-pat00001
Figure 112020080517186-pat00001

(단, Tt는 클래스, wfc(Tt)는 클래스별 완전결합층의 가중치, oconv는 상기 (a) 단계의 출력, C는 채널 수를 나타냄)(However, T t is the class, w fc (T t ) is the weight of the fully coupled layer for each class, o conv is the output of step (a), and C is the number of channels)

상기 방법은, (f) 상기 복수의 클래스별 완전결합층에 각각 대응하는 복수의 클래스별 분류기를 이용하여 각 클래스별 완전결합층의 출력에 따라 클래스별 특성 확률을 연산하는 단계를 더 포함할 수 있다.The method may further include (f) calculating a characteristic probability for each class according to the output of the fully coupled layer for each class by using a plurality of class-specific classifiers respectively corresponding to the plurality of fully coupled layers for each class. have.

상기 풀링층은 전체 평균 풀링층(global average pooling layer)일 수 있다.The pooling layer may be a global average pooling layer.

본 발명의 실시예에 따른 영상의 복합 특성 분류 장치는, 신경망 모델이 저장되는 메모리; 및 프로세서를 포함하고, 상기 신경망 모델은, 컨볼루션층과, 상기 컨볼루션층의 출력에 대해 풀링을 수행하기 위한 풀링층과, 복합 특성이 분류되는 복수의 클래스에 각각 대응하는 복수의 클래스별 완전결합층을 포함하고, 상기 프로세서는, 입력 영상에 대해 상기 컨볼루션층을 이용하여 컨볼루션 연산을 수행하고, 상기 컨볼루션 연산이 수행된 결과에 대해 상기 풀링층을 이용하여 풀링을 수행하고, 상기 풀링 단계의 출력에 대해 클래스별 가중치(wfc(Tt))를 곱한 값을 출력한다.An apparatus for classifying a complex characteristic of an image according to an embodiment of the present invention includes: a memory storing a neural network model; And a processor, wherein the neural network model includes a convolutional layer, a pooling layer for performing pooling on the output of the convolutional layer, and a plurality of classes each corresponding to a plurality of classes into which complex characteristics are classified. A combination layer is included, and the processor performs a convolution operation on an input image using the convolution layer, performs pooling on a result of the convolution operation performed using the pooling layer, and the The output of the pooling step is multiplied by the weight of each class (w fc (T t )).

상기 프로세서는, 상기 컨볼루션층의 출력에 기초하여 복수의 클래스별 관찰 지도를 연산하고, 상기 복수의 클래스별 관찰 지도에 기초하여 상기 복수의 클래스별 완전 결합층에 공통되는 공통 관찰 지도를 생성할 수 있다.The processor may calculate an observation map for each of a plurality of classes based on the output of the convolutional layer, and generate a common observation map common to the completely combined layer for each of the plurality of classes based on the observation maps for each of the plurality of classes. I can.

본 발명의 실시예에 의하면, 복합 특성을 제대로 분류할 수 있다.According to an embodiment of the present invention, it is possible to properly classify complex characteristics.

본 발명의 실시예에 의하면, 클래스간의 연관성이 반영될 수 있다.According to an embodiment of the present invention, the association between classes may be reflected.

본 발명의 실시예에 의하면, 복합 특성간의 공통 국소화가 이루어질 수 있다.According to an embodiment of the present invention, common localization between complex characteristics can be achieved.

도 1의 (a)는 종래기술에 따른 일대일 모델을 나타낸 것이고, 도 1의 (b)는 비교예에 따른 일대일 분류 모델을 2개 사용한 것을 나타낸 것이고, 도 1의 (c)는 본 발명의 실시예에 따른 일대다 모델을 나타낸 것이다.
도 2는 본 발명의 실시예에 따른 신경망 모델(1)의 구조를 나타내는 도면이다.
도 3은 본 발명의 실시예에 따른 신경망 모델의 인퍼런스 방법을 나타낸 순서도이다.
도 4는 도 3의 공통 관찰 지도를 생성하는 단계를 설명하기 위한 도면이다.
도 5는 도 2의 신경망 모델에서 도 3의 각 단계에 해당하는 부분을 표시한 것이다.
도 6은 본 발명의 실시예에 따른 복합 특성 분류 장치의 구성을 나타내는 도면이다.
Figure 1 (a) shows a one-to-one model according to the prior art, Figure 1 (b) shows the use of two one-to-one classification models according to a comparative example, Figure 1 (c) is an implementation of the present invention. It shows a one-to-many model according to an example.
2 is a diagram showing the structure of a neural network model 1 according to an embodiment of the present invention.
3 is a flowchart illustrating an inference method of a neural network model according to an embodiment of the present invention.
FIG. 4 is a diagram for describing a step of generating the common observation map of FIG. 3.
FIG. 5 shows parts corresponding to each step of FIG. 3 in the neural network model of FIG. 2.
6 is a diagram showing the configuration of a complex characteristic classification apparatus according to an embodiment of the present invention.

발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 명세서 및 청구범위에 사용된 용어나 단어는 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.Based on the principle that the inventor can appropriately define the concept of terms in order to describe his own invention in the best way, terms or words used in the present specification and claims are consistent with the technical idea of the present invention. It should be interpreted as meaning and concept.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다. 또한, 한 구성요소가 다른 구성요소에 "연결", "전송", "송신", "수신" 또는 "전달"된다고 할 때, 이는 직접적으로 연결, 전송, 송신, 수신 또는 전달되는 경우뿐만 아니라 다른 구성요소를 개재하여 간접적으로 연결, 전송, 송신, 수신 는 전달되는 경우도 포함한다. 또한, 명세서에 기재된 "…부", "…기", "모듈", "장치" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary. In addition, when one component is said to be "connected", "transmitted", "transmitted", "received" or "transmitted" to another component, it is not only the case that is directly connected, transmitted, transmitted, received or transmitted, but also Indirect connection, transmission, transmission, and reception through components are also included. In addition, terms such as "...unit", "...group", "module", and "device" described in the specification mean units that process at least one function or operation, which is hardware or software, or a combination of hardware and software. It can be implemented as

이하, 도면을 참조하여 본 발명의 구체적인 실시예에 대하여 설명한다.Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.

도 1의 (b)는 비교예에 따른 일대일 분류 모델을 2개 사용한 것을 나타낸 것이고, 도 1의 (c)는 본 발명의 실시예에 따른 일대다 모델을 나타낸 것이다.FIG. 1(b) shows the use of two one-to-one classification models according to a comparative example, and FIG. 1(c) shows a one-to-many model according to an embodiment of the present invention.

도 1에서 A와 B는 클래스 Ⅰ에 속하는 특성들을 나타내고, C와 D는 클래스 Ⅱ에 속하는 특성들을 나타낸다. 클래스 Ⅰ의 분류 기준과 클래스 Ⅱ의 분류 기준은 상이할 수 있다. 이와 같이 복수의 클래스에 속하는 특성들을 본 명세서에서는 복합 특성이라 칭한다. 복합 특성을 갖는 입력은 복수의 특성, 즉 각 클래스별로 특성을 가질 수 있다.In FIG. 1, A and B denote characteristics belonging to class I, and C and D denote characteristics belonging to class II. The classification criteria for Class I and Class II may be different. In this specification, characteristics belonging to a plurality of classes are referred to as complex characteristics. Inputs with complex characteristics may have a plurality of characteristics, that is, characteristics for each class.

도 1의 (b)를 참조하면, 2개의 일대일 분류 모델이 사용되는 경우, 특성 A와 B의 예측 확률의 합은 100퍼센트이고, 특성 C와 D의 예측 확률의 합은 100퍼센트이다. 이 경우, 예측 결과는 정확할 수 있지만 2개의 모델을 학습해야 하므로 계산량이 증가할 수 있다. 또한, 2개의 모델이 독립적으로 학습되기 때문에 클래스간의 연관성이 반영되기 어렵다.Referring to FIG. 1B, when two one-to-one classification models are used, the sum of the prediction probabilities of the features A and B is 100%, and the sum of the prediction probabilities of the features C and D is 100%. In this case, the prediction result may be accurate, but since two models must be trained, the amount of computation may increase. Also, since the two models are trained independently, it is difficult to reflect the relationship between classes.

도 1의 (c)를 참조하면, 일대다 모델에서는 일부의 층, 즉 컨볼루션층과 풀링층이 클래스간에 공유되고, 완전결합층은 클래스별로 제공된다. 이때, 완전결합층이 클래스별로 제공되기 때문에, 특성 A와 B의 예측 확률의 합은 100퍼센트이고, 특성 C와 D의 예측 확률의 합은 100퍼센트이다. 따라서, 클래스 Ⅰ에서의 예측 결과와 클래스 Ⅱ에서의 예측 결과가 각각 제공되기 때문에 도 1의 (a)에 비해 정확한 예측 결과를 얻을 수 있다. 또한, 컨볼루션층이 클래스간에 공유되기 때문에 도 1의 (b)의 모델에 비해 계산량을 감소시키면서도 클래스간의 연관성을 반영시킬 수 있다.Referring to (c) of FIG. 1, in the one-to-many model, some layers, that is, a convolutional layer and a pooling layer, are shared between classes, and a fully coupled layer is provided for each class. At this time, since the fully coupled layer is provided for each class, the sum of the predicted probabilities of the features A and B is 100%, and the sum of the predicted probabilities of the features C and D is 100%. Therefore, since the prediction result in class I and the prediction result in class II are provided respectively, it is possible to obtain an accurate prediction result compared to FIG. 1A. In addition, since the convolution layer is shared between classes, the correlation between classes can be reflected while reducing the amount of computation compared to the model of FIG. 1B.

도 2는 본 발명의 실시예에 따른 신경망 모델(1)의 구조를 나타내는 도면이다. 도 2에서 NT개의 클래스(T1, T2, ... Tt, ... TNT)가 존재하고, 클래스 T1에는 2가지의 특성이 속하고, 클래스 T2에는 2가지의 특성이 속하고, 클래스 Tt에는 n가지의 특성이 속하고, 클래스 TNT에는 3가지의 특성이 속하는 것으로 가정하였다.2 is a diagram showing the structure of a neural network model 1 according to an embodiment of the present invention. In FIG. 2, there are N T classes (T 1 , T 2 , ... T t , ... T NT ), two characteristics belong to class T 1 , and two characteristics belong to class T 2 It is assumed that this belongs, n kinds of characteristics belong to class T t , and three characteristics belong to class T NT.

도 2를 참조하면, 본 발명의 실시예에 따른 신경망 모델(1)은, 입력 영상(xi)에 대해 컨볼루션 연산을 수행하기 위한 컨볼루션층(10)과, 상기 컨볼루션층(10)의 출력(oconv)에 대해 풀링을 수행하기 위한 풀링층(20)과, 복합 특성이 분류되는 복수의 클래스에 각각 대응하며, 상기 풀링층(20)의 출력에 대해 클래스별 가중치(wfc(Tt))를 곱한 값을 출력하는 복수의 클래스별 완전결합층(30)을 포함한다. Referring to FIG. 2, a neural network model 1 according to an embodiment of the present invention includes a convolution layer 10 for performing a convolution operation on an input image x i, and the convolution layer 10. Each corresponding to a pooling layer 20 for performing pooling on the output of (o conv ) and a plurality of classes into which complex characteristics are classified, and a weight for each class (w fc ( It includes a plurality of fully coupled layers 30 for each class outputting a value multiplied by T t )).

신경망 모델(1)은, 상기 복수의 클래스별 완전결합층(30)에 각각 대응하며 각 클래스별 완전결합층(30)의 출력에 따라 클래스별 특성 확률을 연산하는 복수의 클래스별 분류기(40)를 더 포함할 수 있다. The neural network model (1) corresponds to each of the plurality of fully coupled layers 30 for each class and calculates a characteristic probability for each class according to the output of the fully coupled layer 30 for each class. It may further include.

컨볼루션층(10)은 입력 영상에 대해 복수의 컨볼루션 필터를 이용하여 컨볼루션 연산을 수행함으로써 특징맵을 추출한다. 도 2에 도시된 바와 같이 컨볼루션 연산은 복수회 수행될 수 있다. 컨볼루션층(10)의 출력, 즉 특징맵(oconv)은 높이(H), 너비(W), 채널 수(C)를 갖는 것으로 가정하였다.The convolution layer 10 extracts a feature map by performing a convolution operation on an input image using a plurality of convolution filters. As shown in FIG. 2, the convolution operation may be performed a plurality of times. It is assumed that the output of the convolutional layer 10, that is, the feature map (o conv ), has a height (H), a width (W), and the number of channels (C).

풀링층(20)은 컨볼루션층(10)과 완전결합층(30)의 사이에 위치하며, 특징맵(oconv)의 크기를 감소시켜 후술하는 완전결합층(30)에서 필요한 연산을 감소시키고, 오버피팅을 방지하는 역할을 한다. 풀링층(20)은 특징맵(oconv)의 각 채널에 대해 평균값을 출력하는 전체 평균 풀링(global average pooling)을 수행할 수 있다.The pooling layer 20 is located between the convolutional layer 10 and the fully coupled layer 30, and reduces the size of the feature map (o conv ) to reduce the operation required in the fully coupled layer 30 to be described later. , It serves to prevent overfitting. The pooling layer 20 may perform global average pooling in which an average value is output for each channel of the feature map (o conv ).

클래스별 완전결합층(30)은 풀링층(20)의 출력에 클래스별 가중치(wfc(T1), wfc(T2), ... wfc(Tt), ... wfc(TNT))를 곱한 값을 출력한다. 이때, 클래스별 가중치(wfc(T1), wfc(T2), ... wfc(Tt), ... wfc(TNT))의 각각은 채널 수에 해당하는 복수의 값일 수 있다. The class-specific fully coupled layer 30 has weights for each class (w fc (T 1 ), w fc (T 2 ), ... w fc (T t ), ... w fc) on the output of the pooling layer 20 (T NT )) multiplied by it. At this time, each of the weights for each class (w fc (T 1 ), w fc (T 2 ), ... w fc (T t ), ... w fc (T NT )) is a plurality of Can be a value.

클래스별 분류기(40)는 클래스별 완전결합층(30)에 각각 대응하며, 클래스별 완전결합층(30)의 출력에 따라 클래스별 특성 확률을 연산한다. 도 2를 참조하면, 클래스 T1에 해당하는 분류기는 클래스 T1에 속하는 특성들 각각에 해당하는 확률(P1(T1), P2(T1))을 연산하고, 클래스 T2에 해당하는 분류기는 클래스 T2에 속하는 특성들 각각에 해당하는 확률(P1(T2), P2(T2))을 연산하고, 클래스 Tt에 해당하는 분류기는 클래스 Tt에 속하는 특성들 각각에 해당하는 확률(P1(Tt), P2(Tt), ... Pn(Tt))을 연산하고, 클래스 TNT에 해당하는 분류기는 클래스 TNT에 속하는 특성들 각각에 해당하는 확률(P1(TNT), P2(TNT), P3(TNT))을 연산한다. 클래스별 분류기(40)로서 예를 들어 Softmax 함수, Sigmoid 함수 등이 이용될 수 있다.The classifiers 40 for each class correspond to each of the fully coupled layers 30 for each class, and calculate a characteristic probability for each class according to the output of the fully coupled layer 30 for each class. 2, the classifier for the class T 1 corresponds to the class T probability corresponding to the characteristic of belonging to the 1 (P 1 (T 1) , P 2 (T 1)) computing a, and class T 2 classifier to classifier for the class T 2 probability (P 1 (T 2), P 2 (T 2)) computing a, and class T t for the characteristics belonging to the each of the characteristics belongs to the class T t probability that corresponds to the sorter for calculating the (P 1 (t t), P 2 (t t), ... P n (t t)) and corresponds to the class t NT is each of the attributes belonging to the class t NT Calculate the corresponding probabilities (P 1 (T NT ), P 2 (T NT ), P 3 (T NT )). As the class-specific classifier 40, for example, a Softmax function, a Sigmoid function, or the like may be used.

다음으로, 도 3~도 5를 참조하여 본 발명의 실시예에 따른 신경망 모델을 이용한 복합 특성 분류 방법에 대하여 설명한다.Next, a method of classifying a complex feature using a neural network model according to an embodiment of the present invention will be described with reference to FIGS. 3 to 5.

도 3은 본 발명의 실시예에 따른 복합 특성 분류 방법을 나타낸 순서도이고, 도 4는 도 3의 공통 관찰 지도를 생성하는 단계(S150)를 설명하기 위한 도면이고, 도 5는 도 2의 신경망 모델에서 도 3의 각 단계에 해당하는 부분을 표시한 것이다. 본 발명의 실시예에 따른 신경망 모델의 학습 방법은 도 2의 신경망 모델이 사용되며, 각 단계는 프로세서에 의해 수행된다.3 is a flowchart illustrating a method for classifying a complex characteristic according to an embodiment of the present invention, FIG. 4 is a diagram for explaining the step of generating the common observation map of FIG. 3 (S150), and FIG. 5 is a neural network model of FIG. In Fig. 3, the corresponding part of each step is indicated. The neural network model of FIG. 2 is used as a learning method of a neural network model according to an embodiment of the present invention, and each step is performed by a processor.

도 3 및 도 5a를 참조하면, 먼저 입력 영상 xi 에 대해 컨볼루션층(10)을 이용하여 컨볼루션 연산이 수행된다(S100).Referring to FIGS. 3 and 5A, first , a convolution operation is performed on an input image x i using the convolution layer 10 (S100).

다음으로, 도 3 및 도 5b를 참조하면, 컨볼루션층(10)의 출력(oconv)에 대해 풀링층(20)을 이용하여 풀링이 수행된다(S110).Next, referring to FIGS. 3 and 5B, pooling is performed using the pooling layer 20 on the output (o conv) of the convolutional layer 10 (S110).

다음으로, 도 3 및 도 5c를 참조하면, 복합 특성이 분류되는 복수의 클래스 각각에 대응하는 복수의 클래스별 완전결합층(30)을 이용하여, 풀링층(20)의 출력에 대해 클래스별 가중치(wfc(Tt))를 곱한 값이 출력된다(S120).Next, referring to FIGS. 3 and 5C, weights for each class for the output of the pooling layer 20 by using a plurality of class-specific fully coupled layers 30 corresponding to each of a plurality of classes into which the complex characteristics are classified. A value multiplied by (w fc (T t )) is output (S120).

다음으로, 도 3 및 도 5d를 참조하면, 복수의 클래스별 완전결합층에 각각 대응하는 복수의 클래스별 분류기(40)를 이용하여 각 클래스별 완전결합층의 출력에 따라 클래스별 특성 확률(Pn(Tt))을 연산한다(S130). 이에 따라 클래스별 특성 확률(Pn(Tt))이 제공될 수 있다.Next, referring to FIG. 3 and FIG. 5D, using a plurality of class-specific classifiers 40 respectively corresponding to a plurality of class-specific fully-coupled layers, according to the output of each class-specific fully-coupled layer, the characteristic probability (P) n (T t )) is calculated (S130). Accordingly, a characteristic probability P n (T t ) for each class may be provided.

한편, 도 3, 도 4 및 도 5e를 참조하면, 컨볼루션 단계(S100)의 출력(oconv)에 기초하여 복수의 클래스별 관찰 지도를 연산한다(S140).Meanwhile, referring to FIGS. 3, 4 and 5E, observation maps for each class are calculated based on the output (o conv) of the convolution step (S100) (S140).

관찰 지도는 분류 활성화 지도(Class Activation Map; CAM)라고도 하며, 입력 영상의 각 부분이 분류 결과에 얼마나 영향을 미쳤는지를 나타낸다. 본 실시예에서 관찰 지도는 클래스별로 연산된다. 도 4에 클래스별 관찰 지도의 예시를 나타내었다. 도 4는 입력 영상이 초음파 영상인 경우를 나타낸다.The observation map is also referred to as a Class Activation Map (CAM), and indicates how much each part of the input image has influenced the classification result. In this embodiment, the observation map is calculated for each class. 4 shows an example of an observation map for each class. 4 shows a case where the input image is an ultrasound image.

클래스별 관찰 지도는 컨볼루션 단계(S100)의 출력(oconv), 클래스별 완전결합층의 가중치(wfc(Tt)) 및 클래스별 특성 확률에 기초하여 산출될 수 있다. 예를 들어, 클래스별 관찰 지도는 하기의 식에 의해 산출될 수 있다.The observation map for each class may be calculated based on the output of the convolution step S100 (o conv ), the weight of the fully coupled layer for each class (w fc (T t )), and a characteristic probability for each class. For example, the observation map for each class can be calculated by the following equation.

Figure 112020080517186-pat00002
Figure 112020080517186-pat00002

단, Tt는 클래스, wfc(Tt)는 클래스별 완전결합층의 가중치, oconv는 컨볼루션층의 출력, C는 채널 수를 나타낸다. 특성 A와 특성 B가 동일한 클래스에 속하는 경우, 특성 A로 예측된 경우에는 특성 A에 속하는 클래스별 완전결합층의 가중치가 곱해지고, 특성 B로 예측된 경우에는 특성 B에 속하는 클래스별 완전결합층의 가중치가 곱해진다.However, T t is the class, w fc (T t ) is the weight of the fully coupled layer for each class, o conv is the output of the convolution layer, and C is the number of channels. When characteristic A and characteristic B belong to the same class, when characteristic A is predicted, the weight of the fully coupled layer for each class belonging to characteristic A is multiplied, and when characteristic B is predicted, the fully coupled layer for each class belonging to characteristic B The weight of is multiplied.

다음으로, 도 3, 도 4 및 도 5e를 참조하면, 복수의 클래스별 관찰 지도에 기초하여 복수의 클래스별 완전 결합층에 공통되는 공통 관찰 지도(

Figure 112020080517186-pat00003
)를 생성한다(S150). 이에 따라 복수의 클래스에 공통되는 국소화 영역이 제공된다.Next, referring to FIGS. 3, 4, and 5E, a common observation map common to a plurality of fully coupled layers for each class based on a plurality of observation maps for each class (
Figure 112020080517186-pat00003
) Is generated (S150). Accordingly, a localized area common to a plurality of classes is provided.

공통 관찰 지도는 클래스별 관찰 지도의 평균값일 수 있으며, 하기의 식에 의해 산출될 수 있다.The common observation map may be an average value of the observation map for each class, and may be calculated by the following equation.

Figure 112020080517186-pat00004
Figure 112020080517186-pat00004

여기서,

Figure 112020080517186-pat00005
는 전술한 클래스별 관찰 지도이고, NT는 클래스의 수를 나타낸다.here,
Figure 112020080517186-pat00005
Is the above-described observation map for each class, and N T represents the number of classes.

다만 이는 일 예이며, 각 클래스의 관찰 지도의 비율을 상이하게 하거나 전체 클래스 중 일부의 클래스의 관찰 지도에 기초하여 공통 관찰 지도를 산출할 수도 있다.However, this is only an example, and a common observation map may be calculated based on the observation map of some of the classes of each class or different ratios of the observation map of each class.

도 6은 본 발명의 실시예에 따른 영상의 복합 특성 분류 장치(1000)의 구성을 나타내는 도면이다.6 is a diagram illustrating a configuration of an apparatus 1000 for classifying a complex characteristic of an image according to an exemplary embodiment of the present invention.

복합 특성 분류 장치 장치(1000)는 신경망 모델이 저장되는 메모리(1100) 및 프로세서(1200)를 포함한다.The complex characteristic classification apparatus device 1000 includes a memory 1100 and a processor 1200 in which a neural network model is stored.

메모리(1100)에 저장되는 신경망 모델은 도 2를 참조하여 이미 설명한 바와 같다.The neural network model stored in the memory 1100 has already been described with reference to FIG. 2.

프로세서(1200)는 도 3 ~ 도 5를 참조하여 설명한 복합 특성 분류 방법을 수행한다. 즉, 프로세서(1200)는 입력 영상에 대해 컨볼루션층을 이용하여 컨볼루션 연산을 수행하고, 컨볼루션 연산이 수행된 결과에 대해 풀링층을 이용하여 풀링을 수행하고, 풀링 단계의 출력에 대해 클래스별 가중치(wfc(Tt))를 곱한 값을 출력한다. The processor 1200 performs the complex characteristic classification method described with reference to FIGS. 3 to 5. That is, the processor 1200 performs a convolution operation on the input image using the convolution layer, performs pooling on the result of the convolution operation using the pooling layer, and classifies the output of the pooling step. Outputs the multiplied by the star weight (w fc (T t )).

실시예에 따라, 프로세서는, 컨볼루션층의 출력에 기초하여 복수의 클래스별 관찰 지도를 연산하고, 복수의 클래스별 관찰 지도에 기초하여 복수의 클래스별 완전 결합층에 공통되는 공통 관찰 지도를 생성할 수 있다.According to an embodiment, the processor calculates an observation map for each of a plurality of classes based on the output of the convolutional layer, and generates a common observation map common to the fully coupled layers for each of a plurality of classes based on the observation maps for each of the plurality of classes. can do.

이상, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양하게 변경, 응용될 수 있음은 당해 기술분야의 통상의 기술자에게 자명하다. 따라서, 본 발명의 진정한 보호 범위는 다음의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술적 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다. As described above, the present invention has been described in detail through preferred embodiments, but the present invention is not limited thereto, and various changes and applications can be made without departing from the technical spirit of the present invention. It is self-explanatory to the technician. Therefore, the true scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

Claims (8)

(a) 복수의 단일 특성을 동시에 포함하는 복합 특성을 갖는 입력 영상에 대해 컨볼루션층을 이용하여 컨볼루션 연산을 수행하는 컨볼루션 단계;
(b) 상기 컨볼루션 단계의 출력에 대해 풀링(pooling)층을 이용하여 풀링을 수행하는 풀링 단계; 및
(c) 복합 특성이 분류되는 복수의 클래스 각각에 대응하는 복수의 클래스별 완전결합층(fully connected layer)을 이용하여, 상기 풀링 단계의 출력에 대해 클래스별 가중치(wfc(Tt))를 곱한 값을 출력하는 클래스별 완전결합 단계;
를 포함하고,
상기 복수의 클래스는 서로 상이한 기준에 의해 구별되는 상기 복수의 단일 특성에 각각 대응하고,
상기 복수의 클래스 각각은 복수의 클래스별 특성으로 분류되며,
상기 클래스별 완전결합 단계의 출력에 따라, 상기 복수의 클래스 각각의 클래스별 특성들에 대한 클래스별 특성 확률을 제공 가능한, 각 단계가 프로세서에 의해 수행되는, 신경망 모델을 이용한 영상의 복합 특성 분류 방법.
(a) a convolution step of performing a convolution operation on an input image having a complex characteristic including a plurality of single characteristics simultaneously using a convolution layer;
(b) a pooling step of performing pooling using a pooling layer on the output of the convolution step; And
(c) Using a fully connected layer for each class corresponding to each of a plurality of classes in which the complex characteristics are classified, a weight for each class (w fc (T t )) is calculated for the output of the pooling step. A complete combining step for each class outputting the multiplied value;
Including,
The plurality of classes respectively correspond to the plurality of single characteristics distinguished by different criteria,
Each of the plurality of classes is classified into characteristics of a plurality of classes,
A method for classifying composite features of an image using a neural network model in which each step is performed by a processor, capable of providing class-specific feature probabilities for class-specific features of each of the plurality of classes, according to the output of the complete combining step for each class .
제1항에 있어서,
(d) 상기 컨볼루션 단계의 출력에 기초하여 복수의 클래스별 관찰 지도를 연산하는 단계; 및
(e) 상기 복수의 클래스별 관찰 지도에 기초하여 상기 복수의 클래스별 완전 결합층에 공통되는 공통 관찰 지도를 생성하는 단계
를 포함하는 영상의 복합 특성 분류 방법.
The method of claim 1,
(d) calculating observation maps for each of a plurality of classes based on the output of the convolution step; And
(e) generating a common observation map common to the completely combined layers for each of the plurality of classes based on the observation maps for each of the plurality of classes.
A method for classifying complex characteristics of an image comprising a.
제2항에 있어서,
상기 공통 관찰 지도는 상기 클래스별 관찰 지도의 평균값인 것을 특징으로 하는 영상의 복합 특성 분류 방법.
The method of claim 2,
The common observation map is an average value of the observation maps for each class.
제2항에 있어서,
상기 (d) 단계에서, 상기 클래스별 관찰 지도는 하기의 식에 의해 산출되는 것을 특징으로 하는 영상의 복합 특성 분류 방법.
Figure 112020135114607-pat00006

(단, Tt는 클래스, wfc(Tt)는 클래스별 완전결합층의 가중치, oconv는 상기 (a) 단계의 출력, C는 채널 수를 나타냄)
The method of claim 2,
In step (d), the class-specific observation map is calculated by the following equation.
Figure 112020135114607-pat00006

(However, T t is the class, w fc (T t ) is the weight of the fully coupled layer for each class, o conv is the output of step (a), and C is the number of channels)
제1항에 있어서,
(f) 상기 복수의 클래스별 완전결합층에 각각 대응하는 복수의 클래스별 분류기를 이용하여 각 클래스별 완전결합층의 출력에 따라 클래스별 특성 확률을 연산하는 단계
를 더 포함하는 것을 특징으로 하는 영상의 복합 특성 분류 방법.
The method of claim 1,
(f) calculating a characteristic probability for each class according to the output of the fully coupled layer for each class using a plurality of class-specific classifiers respectively corresponding to the plurality of fully coupled layers for each class.
The method for classifying complex characteristics of an image, characterized in that it further comprises.
제1항에 있어서,
상기 풀링층은 전체 평균 풀링층(global average pooling layer)인 것을 특징으로 하는 영상의 복합 특성 분류 방법.
The method of claim 1,
And the pooling layer is a global average pooling layer.
신경망 모델이 저장되는 메모리; 및
프로세서
를 포함하는 영상의 복합 특성 분류 장치로서,
상기 신경망 모델은, 컨볼루션층과, 상기 컨볼루션층의 출력에 대해 풀링을 수행하기 위한 풀링층과, 복수의 단일 특성을 동시에 포함하는 복합 특성이 분류되는 복수의 클래스에 각각 대응하는 복수의 클래스별 완전결합층을 포함하고,
상기 프로세서는, 상기 복합 특성을 갖는 입력 영상에 대해 상기 컨볼루션층을 이용하여 컨볼루션 연산을 수행하고, 상기 컨볼루션 연산이 수행된 결과에 대해 상기 풀링층을 이용하여 풀링을 수행하고, 풀링을 수행한 결과에 대해 클래스별 가중치(wfc(Tt))를 곱한 값을 출력하고,
상기 복수의 클래스는 서로 상이한 기준에 의해 구별되는 상기 복수의 단일 특성에 각각 대응하고,
상기 복수의 클래스 각각은 복수의 클래스별 특성으로 분류되며,
상기 클래스별 완전결합층의 출력에 따라, 상기 복수의 클래스 각각의 클래스별 특성들에 대한 클래스별 특성 확률을 제공 가능한 영상의 복합 특성 분류 장치.
A memory in which the neural network model is stored; And
Processor
An apparatus for classifying a complex characteristic of an image comprising a,
The neural network model includes a convolutional layer, a pooling layer for performing pooling on the output of the convolutional layer, and a plurality of classes each corresponding to a plurality of classes into which complex characteristics including a plurality of single characteristics are classified. Including a star fully bonded layer,
The processor performs a convolution operation on the input image having the complex characteristic using the convolution layer, performs pooling on the result of the convolution operation performed using the pooling layer, and performs pooling. Outputs the value obtained by multiplying the result by class weight (w fc (T t )),
The plurality of classes respectively correspond to the plurality of single characteristics distinguished by different criteria,
Each of the plurality of classes is classified into characteristics of a plurality of classes,
An apparatus for classifying a composite feature of an image capable of providing class-specific feature probabilities for class-specific features of each of the plurality of classes according to the output of the class-specific complete coupling layer.
제7항에 있어서,
상기 프로세서는, 상기 컨볼루션층의 출력에 기초하여 복수의 클래스별 관찰 지도를 연산하고, 상기 복수의 클래스별 관찰 지도에 기초하여 상기 복수의 클래스별 완전 결합층에 공통되는 공통 관찰 지도를 생성하는 것을 특징으로 하는 영상의 복합 특성 분류 장치.

The method of claim 7,
The processor is configured to calculate a plurality of observation maps for each class based on the output of the convolution layer, and generate a common observation map common to the completely combined layers for each of the plurality of classes based on the observation maps for each class. An apparatus for classifying complex characteristics of an image, characterized in that.

KR1020200095774A 2020-07-31 2020-07-31 Method and apparatus for classifying complex characteristics of images using neural network model KR102243125B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200095774A KR102243125B1 (en) 2020-07-31 2020-07-31 Method and apparatus for classifying complex characteristics of images using neural network model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200095774A KR102243125B1 (en) 2020-07-31 2020-07-31 Method and apparatus for classifying complex characteristics of images using neural network model

Publications (1)

Publication Number Publication Date
KR102243125B1 true KR102243125B1 (en) 2021-04-22

Family

ID=75730942

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200095774A KR102243125B1 (en) 2020-07-31 2020-07-31 Method and apparatus for classifying complex characteristics of images using neural network model

Country Status (1)

Country Link
KR (1) KR102243125B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190038318A (en) * 2017-09-29 2019-04-08 인피니온 테크놀로지스 아게 Accelerating convolutional neural network computation throughput
KR102074406B1 (en) * 2019-07-25 2020-02-06 주식회사 딥노이드 Apparatus and Method for classifying Landmark of Image
KR102095335B1 (en) 2017-11-15 2020-03-31 에스케이텔레콤 주식회사 Apparatus and method for generating and using neural network model applying accelerated computation
JP2020080021A (en) * 2018-11-12 2020-05-28 富士通株式会社 Learning program, learning method, and learning device
KR20200061154A (en) * 2018-11-23 2020-06-02 네이버웹툰 주식회사 Method and apparatus of analyzing diagram containing visual and textual information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190038318A (en) * 2017-09-29 2019-04-08 인피니온 테크놀로지스 아게 Accelerating convolutional neural network computation throughput
KR102095335B1 (en) 2017-11-15 2020-03-31 에스케이텔레콤 주식회사 Apparatus and method for generating and using neural network model applying accelerated computation
JP2020080021A (en) * 2018-11-12 2020-05-28 富士通株式会社 Learning program, learning method, and learning device
KR20200061154A (en) * 2018-11-23 2020-06-02 네이버웹툰 주식회사 Method and apparatus of analyzing diagram containing visual and textual information
KR102074406B1 (en) * 2019-07-25 2020-02-06 주식회사 딥노이드 Apparatus and Method for classifying Landmark of Image

Similar Documents

Publication Publication Date Title
WO2022083536A1 (en) Neural network construction method and apparatus
CN110245655B (en) Single-stage object detection method based on lightweight image pyramid network
Ma et al. Facial expression recognition using constructive feedforward neural networks
US20190042892A1 (en) Cascaded convolutional neural network
US5963653A (en) Hierarchical information fusion object recognition system and method
US10699192B1 (en) Method for optimizing hyperparameters of auto-labeling device which auto-labels training images for use in deep learning network to analyze images with high precision, and optimizing device using the same
US7558772B2 (en) Information fusion predictor
WO2022193497A1 (en) Method and system for graph-based panoptic segmentation
US10943352B2 (en) Object shape regression using wasserstein distance
JP2020038664A (en) Method and device for providing integrated feature map by using ensemble of a plurality of outputs from convolutional neural network
WO2021064737A1 (en) Federated learning using heterogeneous model types and architectures
Hong et al. UAV search-and-rescue planning using an adaptive memetic algorithm
US20220309779A1 (en) Neural network training and application method, device and storage medium
Dai Real-time and accurate object detection on edge device with TensorFlow Lite
Dhuheir et al. Efficient real-time image recognition using collaborative swarm of uavs and convolutional networks
KR102243125B1 (en) Method and apparatus for classifying complex characteristics of images using neural network model
Naumenko et al. Information-Extreme Learning of On-Board System for Recognition of Ground Vehicles.
Lukic et al. Galaxy classifications with deep learning
KR102236615B1 (en) Neural network model learning method and apparatus for complex characteristic classification and common localization
US20230385656A1 (en) Method for adding prediction results as training data using ai prediction model
KR102249635B1 (en) Method for adding training data using two prediction results of AI(Artificial Intelligence) prediction model
JP7386462B2 (en) Computing unit and trained model
JP2020123292A (en) Evaluation method of neural network, generation method of neural network, program, and evaluation system
US20210350704A1 (en) Alarm device, alarm system including the same, and method of operating the same
US20230409676A1 (en) Embedding-based object classification system and method

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant