KR20210122538A - Classifier Using Context Information and Classification Method Thereof - Google Patents
Classifier Using Context Information and Classification Method Thereof Download PDFInfo
- Publication number
- KR20210122538A KR20210122538A KR1020200039818A KR20200039818A KR20210122538A KR 20210122538 A KR20210122538 A KR 20210122538A KR 1020200039818 A KR1020200039818 A KR 1020200039818A KR 20200039818 A KR20200039818 A KR 20200039818A KR 20210122538 A KR20210122538 A KR 20210122538A
- Authority
- KR
- South Korea
- Prior art keywords
- interest
- region
- background
- feature
- weight
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 21
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 14
- 238000011176 pooling Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G06K9/627—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G06K9/3233—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
본 출원은 문맥 정보를 활용하는 분류기 및 이의 분류 방법에 관한 것이다.The present application relates to a classifier utilizing context information and a classification method thereof.
분류기의 일 종인 단일 부류 분류기(one-class classifier)는 어떤 특정 부류를 분리하는 기술로서, 주로 고장진단, 외톨이(outlier) 데이터, 참신한(novelty) 데이터 등의 분류에 사용된다.A one-class classifier, which is a kind of classifier, is a technique for separating a specific class, and is mainly used for classification of fault diagnosis, outlier data, novelty data, and the like.
일반적으로 단일 부류 분류기는 분류를 위해 전체 콘텐츠의 전역 특징 정보를 활용하거나, 국부적인 특징 정보를 활용한다. 여기서, 특징 정보는 구별하고자 하는 특정 부류와 그 이외의 부류 사이의 차이는 크고, 구별하고자 하는 특정 부류의 차이는 작게 나도록 추출될 수 있다.In general, a single class classifier utilizes global feature information of the entire content or local feature information for classification. Here, the characteristic information may be extracted such that a difference between a specific class to be distinguished and other classes is large and a difference between a specific class to be distinguished is small.
도 1은 단일 부류 분류기의 특징 매핑 과정을 도시하는 도면으로, 도 1에 도시된 바와 같이 특징 정보는 단일 부류 분류 전에 다시 매핑되어 구분해 내려는 부류의 특징들은 서로 뭉치고 서로 다른 부류의 특징들은 구분하려는 부류의 특징으로부터 멀리 떨어지도록 한다.FIG. 1 is a diagram illustrating a feature mapping process of a single class classifier. As shown in FIG. 1, feature information is re-mapped before single class classification so that the features of the class to be distinguished are grouped together and the features of different classes are separated. Stay away from class features.
그러나, 종래의 단일 부류 분류기는 단순히 전역 특징 정보를 활용하거나, 대상 객체에 대한 특징 정보를 활용하여 분류를 하였을 뿐, 문맥 정보에 해당하는 배경 정보를 별도로 고려하려는 시도는 이루어지지 않았으며, 이에 분류기의 분류 정확도가 떨어지는 경우가 있다.However, the conventional single class classifier simply uses global feature information or uses feature information for a target object to classify, and no attempt is made to separately consider background information corresponding to context information, and thus the classifier In some cases, the classification accuracy of
따라서, 당해 기술분야에서는 분류기를 통해 입력 데이터를 분류함에 있어서 문맥 정보를 활용하여 그 성능을 개선하기 위한 방안이 요구되고 있다.Accordingly, in the art, there is a demand for a method for improving the performance by using context information in classifying input data through a classifier.
상기 과제를 해결하기 위해서, 본 발명의 일 실시예는 문맥 정보를 활용하는 분류기를 제공한다.In order to solve the above problems, an embodiment of the present invention provides a classifier utilizing context information.
상기 문맥 정보를 활용하는 분류기는, 입력 데이터로부터 특징을 추출하는 특징 추출부; 상기 입력 데이터에서 분류 대상이 되는 객체가 위치하는 관심영역과 상기 관심영역을 제외한 배경에 대한 가중치를 각각 생성하는 가중치 생성부; 상기 특징 추출부에 의해 추출된 특징과 상기 가중치 생성부에 의해 생성된 가중치를 기반으로 상기 관심영역 및 배경의 특징을 생성하는 특징 생성부; 및 상기 특징 생성부에 의해 생성된 관심영역 및 배경의 특징을 이용하여 분류를 수행하는 분류부를 포함할 수 있다.The classifier using the context information includes: a feature extracting unit for extracting features from input data; a weight generator for generating weights for a region of interest in which an object to be classified is located in the input data and a weight for a background excluding the region of interest; a feature generator for generating features of the region of interest and background based on the features extracted by the feature extractor and the weights generated by the weight generator; and a classification unit that performs classification using the characteristics of the region of interest and the background generated by the feature generating unit.
또한, 본 발명의 다른 실시예는 문맥 정보를 활용하는 분류기의 분류 방법을 제공한다.In addition, another embodiment of the present invention provides a classification method of a classifier using context information.
상기 문맥 정보를 활용하는 분류기의 분류 방법은, 입력 데이터로부터 특징을 추출하는 단계; 상기 입력 데이터에서 분류 대상이 되는 객체가 위치하는 관심영역과 상기 관심영역을 제외한 배경에 대한 가중치를 각각 생성하는 단계; 상기 추출된 특징과 생성된 가중치를 기반으로 상기 관심영역 및 배경의 특징을 생성하는 단계; 및 상기 관심영역 및 배경의 특징을 이용하여 분류를 수행하는 단계를 포함할 수 있다.A classification method of a classifier using the context information includes: extracting features from input data; generating weights for a region of interest in which the object to be classified is located in the input data and a background excluding the region of interest, respectively; generating the features of the region of interest and the background based on the extracted features and the generated weights; and performing classification using the characteristics of the region of interest and the background.
덧붙여 상기한 과제의 해결수단은, 본 발명의 특징을 모두 열거한 것이 아니다. 본 발명의 다양한 특징과 그에 따른 장점과 효과는 아래의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.Incidentally, the means for solving the above problems do not enumerate all the features of the present invention. Various features of the present invention and its advantages and effects may be understood in more detail with reference to the following specific embodiments.
본 발명의 일 실시예에 따르면, 분류기를 통해 입력 데이터를 분류함에 있어서 분류 대상 객체가 위치한 부분의 특징뿐만 아니라 해당 객체의 문맥에 대한 특징을 동시에 사용함으로써, 분류기의 성능을 개선할 수 있다.According to an embodiment of the present invention, in classifying input data through the classifier, the performance of the classifier can be improved by simultaneously using not only the characteristics of the part where the classification target object is located but also the characteristics of the context of the corresponding object.
도 1은 단일 부류 분류기의 특징 매핑 과정을 도시하는 도면이다.
도 2는 본 발명의 일 실시예에 따른 문맥 정보를 활용하는 분류기의 구성도이다.
도 3은 본 발명의 다른 실시예에 따른 문맥 정보를 활용하는 분류기의 분류 방법의 흐름도이다.
도 4는 본 발명의 일 실시예에 따라 관심영역 및 배경의 분리를 위해 사용되는 가우시안 마스크의 예를 도시하는 도면이다.1 is a diagram illustrating a feature mapping process of a single class classifier.
2 is a block diagram of a classifier using context information according to an embodiment of the present invention.
3 is a flowchart of a classification method of a classifier using context information according to another embodiment of the present invention.
4 is a diagram illustrating an example of a Gaussian mask used to separate a region of interest and a background according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.Hereinafter, preferred embodiments will be described in detail so that those of ordinary skill in the art can easily practice the present invention with reference to the accompanying drawings. However, in describing a preferred embodiment of the present invention in detail, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the same reference numerals are used throughout the drawings for parts having similar functions and functions.
덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 '간접적으로 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 '포함'한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.In addition, throughout the specification, when a part is 'connected' with another part, it is not only 'directly connected' but also 'indirectly connected' with another element interposed therebetween. include In addition, 'including' a certain component means that other components may be further included, rather than excluding other components, unless otherwise stated.
후술하는 실시예에서는 단일 부류 분류기가 영상 데이터를 입력 받아서 분류하는 경우에 대해서 구체적으로 설명하나, 본 발명의 실시예에 따른 분류기가 반드시 단일 부류 분류기 및 이에 의한 영상 데이터의 분류로 한정되는 것은 아니다. 다시 말해, 본 발명의 실시예에 따른 분류기는 다른 종류의 분류기일 수 있으며, 음향 데이터 또는 텍스트 데이터 등과 같은 데이터의 분류에도 동일하게 적용될 수 있다.A case in which a single class classifier receives and classifies image data will be described in detail in the following embodiment, but the classifier according to the embodiment of the present invention is not necessarily limited to a single class classifier and classification of image data by the single class classifier. In other words, the classifier according to the embodiment of the present invention may be a different type of classifier, and may be equally applied to classification of data such as sound data or text data.
도 2는 본 발명의 일 실시예에 따른 문맥 정보를 활용하는 분류기의 구성도이다.2 is a block diagram of a classifier using context information according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 일 실시예에 따른 분류기(100)는 특징 추출부(110), 가중치 생성부(120), 특징 생성부(130) 및 분류부(140)를 포함하여 구성될 수 있다.Referring to FIG. 2 , the
특징 추출부(110)는 입력 데이터, 예를 들어, 입력 영상으로부터 특징을 추출하기 위한 것이다.The
일 실시예에 따르면, 특징 추출부(110)는 기계학습 방법을 이용하여 특징을 추출할 수 있다. 일 예로, 특징 추출부(100)는 컨벌루션 뉴럴 네트워크 (Convolutional Neural Network; CNN)에 의해 입력 영상을 학습하여 특징을 추출하고 CNN 특징 맵(feature map)을 생성할 수 있다. 이 경우, 특징 추출부(100)는 짜냄과 강조(squeeze-and-excitation), 주의 기법(attention technique) 등의 기술을 활용하여 변별력이 강한 특징을 생성할 수 있다.According to an embodiment, the
다른 실시예에 따르면, 특징 추출부(110)는 외부 입력에 따라 지정된 특징을 사용할 수도 있다.According to another embodiment, the
가중치 생성부(120)는 입력 영상에서 분류 대상이 되는 객체가 위치하는 관심영역(Region of Interest; ROI)과 관심영역을 제외한 배경에 대한 가중치를 각각 생성하기 위한 것이다. 여기서, 관심영역이 특정되지 않은 경우와 관심영역이 특정된 경우로 분류될 수 있으며, 각 경우에 대해서 후술하는 바와 같이 가중치를 생성할 수 있다.The
우선, 관심영역이 특정되지 않은 경우, 가중치 생성부(120)는 객체가 입력 영상의 중앙부에 위치한다고 가정하고, 하기의 수학식 1 및 2에 따라 각각의 가중치를 생성할 수 있다. First, when the region of interest is not specified, the
예를 들어, 입력 영상의 가로 및 세로 크기가 각각 W, H이고, CNN에 의한 특징 추출의 최종단의 결과가 W', H'로 축소된다고 가정하면, 축소율은 , 이다.For example, assuming that the horizontal and vertical sizes of the input image are W and H, respectively, and the result of the final stage of feature extraction by CNN is reduced to W' and H', the reduction ratio is , am.
가중치 생성부(120)는 입력영상의 중심에 가까운 부분에서는 관심영역의 특징을 구할 때는 가중치를 크게 하고, 먼 부분에서는 가중치를 작게 할 수 있다. 다시 말해, CNN 특징 맵에서 영상 중심으로부터의 거리에 따라 음의 기울기를 가지는 가중치를 생성할 수 있다.The
입력 영상의 중심으로부터 가로 방향으로 w, 세로 방향으로 h 만큼 떨어진 위치, 즉 특징 맵의 좌표가 (h', v')인 위치에서의 관심영역 가중치는 수학식 1에 생성할 수 있다.The weight of the region of interest at a position separated by w in the horizontal direction and h in the vertical direction from the center of the input image, that is, at a position where the coordinates of the feature map are (h', v'), can be generated in Equation (1).
[수학식 1] [Equation 1]
또한, 배경의 가중치는 수학식 2에 따라 생성할 수 있다.Also, the weight of the background may be generated according to Equation (2).
[수학식 2][Equation 2]
여기서, kw, kh는 기울기를 결정하는 상수이다.Here, k w and k h are constants that determine the slope.
그러나, 상술한 수학식 1 및 2는 가중치들이 중심으로부터의 거리에 따라 선형적으로 변하는 일 예에 불과하며, 필요에 따라서 관심영역의 중심부와 배경의 가장자리 부분에 각각의 가중치를 크게 설정하고, 이로부터 멀어지면 작게 하는 방식 등과 같이 기 정해진 규칙에 따라 다양한 방식으로 가중치를 변경할 수 있다.However, the above-mentioned Equations 1 and 2 are only an example in which the weights change linearly according to the distance from the center. The weight can be changed in various ways according to a predetermined rule, such as a method of making it smaller when moving away from it.
한편, 관심영역이 특정된 경우, 가중치 생성부(120)는 하기의 수학식 3에 따라 관심영역 및 배경의 가중치를 생성할 수 있다.Meanwhile, when the region of interest is specified, the
[수학식 3][Equation 3]
여기서, 관심영역은 입력 신호에 따라 특정되거나, Faster R-CNN, YOLO, SSD 등의 자동 객체 검출(object detection) 장치에 의해 자동으로 특정된 것일 수 있다. 예를 들어, Faster R-CNN에 의해 객체가 검출되는 경우 해당 객체의 바운딩 박스들이 제공되는데, 해당 바운딩 박스들에서는 상술한 수학식 3에 따라 관심영역 가중치를 생성할 수 있다.Here, the region of interest may be specified according to an input signal or may be automatically specified by an automatic object detection device such as Faster R-CNN, YOLO, or SSD. For example, when an object is detected by Faster R-CNN, bounding boxes of the corresponding object are provided. In the corresponding bounding boxes, an ROI weight can be generated according to Equation 3 above.
다른 예에 따르면, 가중치 생성부(120)는 도 4에 도시된 바와 같은 가우시안 마스크를 사용하여 관심영역과 배경을 분리한 후 각각에 대한 가중치를 생성할 수도 있다. 예를 들어, 특징 추출부(110)에서의 네트워크의 중간 단 특징 출력값에 각각 관심영역 및 배경 마스크에 대한 곱 연산을 수행하는 방식으로 관심영역과 배경을 분리할 수 있으며, 여기서 배경 마스크는 도 4에 도시된 마스크를 사용하고, 관심영역 마스크는 도 4에 도시된 마스크의 역수를 사용할 수 있다.According to another example, the
특징 생성부(130)는 특징 추출부(110)에 의해 추출된 특징과 가중치 생성부(120)에 의해 생성된 가중치를 기반으로 관심영역 및 배경의 특징을 생성하기 위한 것이다.The
일 실시예에 따르면, 특징 생성부(130)는 가중화된 전역 평균 통합(Global Average Pooling; GAP) 등에 의해 관심영역과 배경의 특징을 별도로 생성할 수 있다.According to an embodiment, the
특징 생성부(130)는 하기의 수학식 4에 따라 관심영역과 배경의 특징을 생성할 수 있다.The
[수학식 4][Equation 4]
즉, CNN에 의한 특징 추출의 최종단에서 획득한 특징 맵의 채널 수가 c개라면, 각각의 채널의 특징은 수학식 4와 같으며, 전역 평균 통합을 수행한 전체 특징의 수는 2c개로 확장될 수 있다.That is, if the number of channels of the feature map obtained at the final stage of feature extraction by CNN is c, the features of each channel are the same as in Equation 4, and the total number of features on which global average integration has been performed will be expanded to 2c. can
필요에 따라(예를 들어, 학습 데이터가 충분한 경우), 공분산 총체화(covariance pooling)를 통해 각각의 특징을 c2차원의 특징으로 확장하여 변별력을 증가시킬 수 있다.If necessary (for example, when the training data is sufficient), each feature can be expanded to a c two- dimensional feature through covariance pooling to increase the discriminatory power.
분류부(140)는 특징 생성부(130)에 의해 생성된 관심영역 및 배경의 특징을 이용하여 분류를 수행하기 위한 것이다.The
일 실시예에 따르면, 분류부(140)는 서포트 벡터 머신(Support Vector Machine; SVM) 등과 같은 기계학습 방법을 활용하거나, 신경망 모델을 사용하는 딥러닝 방법 등에 의해 단일 부류 분류를 수행할 수 있다. According to an embodiment, the
일 예로, 분류부(140)는 딥러닝 방법을 활용한 분류기로 구현될 수 있으며, 분류하려는 부류의 특징은 뭉치고(즉, 분산 최소화) 다른 부류 특징은 흩어지게 하여 변별력을 최대로 하는 손실함수(loss function)를 사용할 수 있다.As an example, the
다른 예로, 분류부(140)는 생성적 적대 신경망(Generative Adversarial Network; GAN) 모델, 다층 퍼셉트론(Multilayer Perceptron) 등과 같은 신경망을 적용할 수도 있다.As another example, the
이 경우, 분류부(140)는 2c개의 특징을 인가하여 단일 부류 분류를 수행하거나, 또는 관심영역과 배경 특징을 분리하여 각각 c차원의 단일 부류 분류를 수행한 후 결과를 융합함으로써, 분류를 수행할 수 있다.In this case, the
또한, 분류부(140)는 2c개의 특징으로 분류하고자 하는 부류와 그렇지 않은 부류 각각에 대해 소프트맥스(softmax) 함수를 활용하여 관심영역과 배경 부분에 대해 CAM(class Activation Map)을 구성할 수도 있으며, 이를 통해 관심영역과 배경에 대해 어떠한 특징들이 단일 부류 분류에 적합한지 파악하도록 할 수 있다.In addition, the
도 3은 본 발명의 다른 실시예에 따른 문맥 정보를 활용하는 분류기의 분류 방법의 흐름도이다.3 is a flowchart of a classification method of a classifier using context information according to another embodiment of the present invention.
도 3을 참조하면, 우선, 입력 데이터로부터 특징을 추출하고(S310), 관심영역과 배경에 대한 가중치를 생성할 수 있다(S320).Referring to FIG. 3 , first, a feature may be extracted from input data ( S310 ), and weights may be generated for the region of interest and the background ( S320 ).
이후, 추출된 특징과 가중치를 기반으로 관심영역과 배경의 특징을 각각 생성한 후(S330), 생성된 관심영역과 배경의 특징을 이용하여 분류를 수행할 수 있다(S340).Thereafter, after generating the features of the region of interest and the background based on the extracted features and weights ( S330 ), classification may be performed using the generated features of the region of interest and the background ( S340 ).
각 단계의 구체적인 내용은 도 2를 참조하여 상술한 바와 동일하므로 이에 대한 중복적인 설명은 생략한다.Since the detailed contents of each step are the same as those described above with reference to FIG. 2 , a redundant description thereof will be omitted.
도 3을 참조하여 상술한 분류 방법은 도 2를 참조하여 상술한 분류기에 의해 수행될 수 있다.The classification method described above with reference to FIG. 3 may be performed by the classifier described above with reference to FIG. 2 .
상술한 본 발명의 실시예에 따른 단일 부류 분류기는 분류해 내고자 하는 단일 부류가 문맥 정보에 민감한 경우에 널리 활용될 수 있다. 즉, 영상, 음향 등과 같은 입력 데이터 중에서 검출하고자 하는 객체가 특별히 배경과 밀접한 관계를 가진 경우에 폭넓게 적용될 수 있다. The single class classifier according to the above-described embodiment of the present invention can be widely used when a single class to be classified is sensitive to context information. That is, it can be widely applied to a case in which an object to be detected among input data such as an image or sound has a close relationship with the background.
예를 들어, 식물의 병해영상을 분류하는 경우, 관심영역에 해당하는 병해 부분은 배경 정보에 해당하는 잎, 줄기, 과일 등의 부위에 따라 다르기 때문에 배경 정보 역시 중요한 시각 정보를 제공할 수 있다. For example, when classifying a disease image of a plant, the background information may also provide important visual information because the disease part corresponding to the region of interest differs according to the parts such as leaves, stems, and fruits corresponding to the background information.
따라서, 본 발명의 실시예에 따르면, 입력된 영상에서 관심영역과 배경을 분리하고 이들을 모두 고려하여 분류를 함으로써, 단순히 전체 영상을 대상으로 하는 경우에 비해서 분류 성능을 향상시킬 수 있다.Therefore, according to an embodiment of the present invention, classification performance can be improved compared to the case where the entire image is simply targeted by separating the region of interest and the background from the input image and performing classification in consideration of both.
본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다.The present invention is not limited by the above embodiments and the accompanying drawings. For those of ordinary skill in the art to which the present invention pertains, it will be apparent that the components according to the present invention can be substituted, modified and changed without departing from the technical spirit of the present invention.
100: 분류기
110: 특징 추출부
120: 가중치 생성부
130: 특징 생성부
140: 분류부100: classifier
110: feature extraction unit
120: weight generator
130: feature generating unit
140: classification unit
Claims (8)
상기 입력 데이터에서 분류 대상이 되는 객체가 위치하는 관심영역과 상기 관심영역을 제외한 배경에 대한 가중치를 각각 생성하는 가중치 생성부;
상기 특징 추출부에 의해 추출된 특징과 상기 가중치 생성부에 의해 생성된 가중치를 기반으로 상기 관심영역 및 배경의 특징을 생성하는 특징 생성부; 및
상기 특징 생성부에 의해 생성된 관심영역 및 배경의 특징을 이용하여 분류를 수행하는 분류부를 포함하는 문맥 정보를 활용하는 분류기.
a feature extracting unit for extracting features from input data;
a weight generator for generating weights for a region of interest in which an object to be classified is located in the input data and a weight for a background excluding the region of interest;
a feature generator for generating the features of the region of interest and the background based on the features extracted by the feature extractor and the weights generated by the weight generator; and
A classifier using context information, including a classifying unit that performs classification using the characteristics of the region of interest and the background generated by the feature generating unit.
상기 입력 데이터는 영상 데이터, 음향 데이터 및 텍스트 데이터 중 어느 하나인 것을 특징으로 하는 문맥 정보를 활용하는 분류기.
The method of claim 1,
The classifier using context information, characterized in that the input data is any one of image data, sound data, and text data.
상기 특징 추출부는 CNN(Convolutional Neural Network)에 의해 상기 입력 데이터를 학습하여 특징을 추출하고, CNN 특징 맵을 생성하는 것을 특징으로 하는 문맥 정보를 활용하는 분류기.
The method of claim 1,
The feature extraction unit learns the input data by a Convolutional Neural Network (CNN), extracts features, and generates a CNN feature map.
상기 관심영역이 특정되지 않은 경우,
상기 가중치 생성부는 상기 객체가 상기 입력 데이터의 중심에 위치한다고 가정하고, 상기 중심으로부터의 거리에 따라 기 정해진 규칙에 따라 감소하도록 관심영역 가중치를 생성하는 것을 특징으로 하는 문맥 정보를 활용하는 분류기.
4. The method of claim 3,
If the region of interest is not specified,
The weight generator assumes that the object is located at the center of the input data, and generates an ROI weight to decrease according to a predetermined rule according to a distance from the center.
상기 입력 데이터가 영상 데이터인 경우,
상기 가중치 생성부는 하기의 수학식,
,
에 따라 선형적으로 감소하도록 관심영역 및 배경 가중치를 각각 생성하며,
여기서, 및 는 각각 상기 CNN 특징 맵의 좌표가 (h', v')인 위치에서의 관심영역 가중치 및 배경 가중치이고, W 및 H는 각각 입력 영상의 가로 및 세로 크기이고, W' 및 H'는 각각 CNN에 의한 특징 추출의 최종단의 결과의 가로 및 세로 크기이며, , 인 것을 특징으로 하는 문맥 정보를 활용하는 분류기.
5. The method of claim 4,
When the input data is image data,
The weight generating unit is expressed by the following equation,
,
Generates a region of interest and a background weight, respectively, to decrease linearly according to
here, and are the region of interest weight and background weight at the location where the coordinates of the CNN feature map are (h', v'), respectively, W and H are the horizontal and vertical sizes of the input image, respectively, and W' and H' are the CNN are the horizontal and vertical sizes of the result of the final stage of feature extraction by , A classifier using contextual information, characterized in that
상기 관심영역이 특정된 경우,
상기 가중치 생성부는 하기의 수학식,
에 따라 관심영역 및 배경 가중치를 각각 생성하며,
여기서, 및 는 각각 상기 CNN 특징 맵의 좌표가 (h', v')인 위치에서의 관심영역 가중치 및 배경 가중치인 것을 특징으로 하는 문맥 정보를 활용하는 분류기.
4. The method of claim 3,
When the region of interest is specified,
The weight generating unit is expressed by the following equation,
ROI and background weights are generated according to
here, and A classifier using context information, characterized in that each of the ROI weights and the background weights at positions where the coordinates of the CNN feature map are (h', v').
상기 특징 생성부는 가중화된 전역 평균 통합(Global Average Pooling)에 의해 상기 관심영역 및 배경의 특징을 별도로 생성하는 것을 특징으로 하는 문맥 정보를 활용하는 분류기.
The method of claim 1,
and the feature generator separately generates the features of the region of interest and the background by weighted global average pooling.
상기 입력 데이터에서 분류 대상이 되는 객체가 위치하는 관심영역과 상기 관심영역을 제외한 배경에 대한 가중치를 각각 생성하는 단계;
상기 추출된 특징과 생성된 가중치를 기반으로 상기 관심영역 및 배경의 특징을 생성하는 단계; 및
상기 관심영역 및 배경의 특징을 이용하여 분류를 수행하는 단계를 포함하는 문맥 정보를 활용하는 분류기의 분류 방법.extracting features from the input data;
generating weights for a region of interest in which an object to be classified is located in the input data and a background excluding the region of interest, respectively;
generating the features of the region of interest and the background based on the extracted features and the generated weights; and
and performing classification using the characteristics of the region of interest and background.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200039818A KR102342967B1 (en) | 2020-04-01 | 2020-04-01 | Classifier Using Context Information and Classification Method Thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200039818A KR102342967B1 (en) | 2020-04-01 | 2020-04-01 | Classifier Using Context Information and Classification Method Thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210122538A true KR20210122538A (en) | 2021-10-12 |
KR102342967B1 KR102342967B1 (en) | 2021-12-24 |
Family
ID=78078675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200039818A KR102342967B1 (en) | 2020-04-01 | 2020-04-01 | Classifier Using Context Information and Classification Method Thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102342967B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102571815B1 (en) * | 2022-11-14 | 2023-08-28 | 주식회사 플랜티넷 | Method And Apparatus for Classifying Document Based on Object Clustering and Object Selection |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150118780A (en) * | 2014-04-15 | 2015-10-23 | 한국과학기술원 | Method and apparatus for generating scheduling information based on cost function optimized on the basis of user's profile information and context information |
KR20160112464A (en) * | 2015-03-19 | 2016-09-28 | 한국전자통신연구원 | Object Segmentation Apparatus and Method Using Graph Cut Based on Region |
KR101932008B1 (en) * | 2017-12-29 | 2018-12-24 | (주)제이엘케이인스펙션 | Image analysis apparatus and method based on feature and context of image |
KR20190114602A (en) * | 2018-03-30 | 2019-10-10 | 경일대학교산학협력단 | Apparatus for performing virtual fitting using multi-level artificial neural network, method thereof and computer recordable medium storing program to perform the method |
KR20190131206A (en) * | 2018-05-16 | 2019-11-26 | 한양대학교 산학협력단 | Deep learning-based object detection method and system utilizing global context feature of image |
-
2020
- 2020-04-01 KR KR1020200039818A patent/KR102342967B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150118780A (en) * | 2014-04-15 | 2015-10-23 | 한국과학기술원 | Method and apparatus for generating scheduling information based on cost function optimized on the basis of user's profile information and context information |
KR20160112464A (en) * | 2015-03-19 | 2016-09-28 | 한국전자통신연구원 | Object Segmentation Apparatus and Method Using Graph Cut Based on Region |
KR101932008B1 (en) * | 2017-12-29 | 2018-12-24 | (주)제이엘케이인스펙션 | Image analysis apparatus and method based on feature and context of image |
KR20190114602A (en) * | 2018-03-30 | 2019-10-10 | 경일대학교산학협력단 | Apparatus for performing virtual fitting using multi-level artificial neural network, method thereof and computer recordable medium storing program to perform the method |
KR20190131206A (en) * | 2018-05-16 | 2019-11-26 | 한양대학교 산학협력단 | Deep learning-based object detection method and system utilizing global context feature of image |
Also Published As
Publication number | Publication date |
---|---|
KR102342967B1 (en) | 2021-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9779354B2 (en) | Learning method and recording medium | |
US9911033B1 (en) | Semi-supervised price tag detection | |
JP6397986B2 (en) | Image object region recognition method and apparatus | |
Nguwi et al. | Detection and classification of road signs in natural environments | |
CN111860499A (en) | Feature grouping-based bilinear convolutional neural network automobile brand identification method | |
US8606022B2 (en) | Information processing apparatus, method and program | |
CN107463892A (en) | Pedestrian detection method in a kind of image of combination contextual information and multi-stage characteristics | |
Sheikh et al. | Traffic sign detection and classification using colour feature and neural network | |
CN110313017A (en) | The machine vision method classified based on subject component to input data | |
CN106156777B (en) | Text picture detection method and device | |
US11194330B1 (en) | System and method for audio classification based on unsupervised attribute learning | |
KR101268520B1 (en) | The apparatus and method for recognizing image | |
CN112990282A (en) | Method and device for classifying fine-grained small sample images | |
Asri et al. | A real time Malaysian sign language detection algorithm based on YOLOv3 | |
US11526705B2 (en) | Method of classificating outlier in object recognition and device and robot of classifying thereof | |
KR102342967B1 (en) | Classifier Using Context Information and Classification Method Thereof | |
CN113658222A (en) | Vehicle detection tracking method and device | |
Lin et al. | TagCLIP: A Local-to-Global Framework to Enhance Open-Vocabulary Multi-Label Classification of CLIP without Training | |
Moumen et al. | Real-time Arabic scene text detection using fully convolutional neural networks | |
JP6377214B2 (en) | Text detection method and apparatus | |
Salau et al. | Image-based number sign recognition for ethiopian sign language using support vector machine | |
CN115935257A (en) | Classification recognition method, computer device, and storage medium | |
CN112115977B (en) | Target detection algorithm based on scale invariance and feature fusion | |
CN116883820A (en) | Training method of fusion model, image recognition method and system | |
Singh et al. | Traffic control enhancement with video camera images using AI |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |