KR20150124825A - 2-Dependence Naive Bayes Classifier based Image Classification - Google Patents

2-Dependence Naive Bayes Classifier based Image Classification Download PDF

Info

Publication number
KR20150124825A
KR20150124825A KR1020140051890A KR20140051890A KR20150124825A KR 20150124825 A KR20150124825 A KR 20150124825A KR 1020140051890 A KR1020140051890 A KR 1020140051890A KR 20140051890 A KR20140051890 A KR 20140051890A KR 20150124825 A KR20150124825 A KR 20150124825A
Authority
KR
South Korea
Prior art keywords
image
classification
dependence
nbnn
naive bayes
Prior art date
Application number
KR1020140051890A
Other languages
Korean (ko)
Inventor
윤성의
밍양 순
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020140051890A priority Critical patent/KR20150124825A/en
Publication of KR20150124825A publication Critical patent/KR20150124825A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

According to the present invention, 2-dependence naive bayes (2-DNB) is designed based on solving a vulnerable assumption of conditional independence of a feature in an image in a simple naive bayes nearest neighbor (NBNN) image classifier. Unlike other image classification methods (spatial pyramid matching (SPM), bag of words (BOG)), the 2- DNB takes an advantage of the NBNN, so the same is very simple and does not need a further learning/educational stage. Also, the 2-DNB is a unique non-parameter classifier designed based on a unique image space since the feature extracted from one image of earth verification data is dependent more than a research in other fields or related thereto.

Description

화상분류 기반의 나이브 베이즈 분류기{2-Dependence Naive Bayes Classifier based Image Classification}2-Dependence Naive Bayes Classifier based Image Classification < RTI ID = 0.0 >

아래 실시예들은 단순 베이즈 최근접 이웃(Naive Bayes Nearest Neighbor) 이미지 분류기에 관한 것이다.The following embodiments relate to a simple Bayes Nearest Neighbor image classifier.

나이브 베이즈는 빠르고 쉽게 구현할 수 있기 때문에 1998년부터 널리 텍스트 분류의 기준으로 사용되었다. 단어가 정확히 일치할 수 있는 텍스트 분류와는 달리, 이미지 분류에 나이브 베이즈 분류기를 적용하는 것은 어렵다. 그러나, 2008년에, 보이맨 등은 이미지 분류에 있어서 새롭고 효율적이며 비 매개변수적 방법인 NBNN(Naive Bayes Nearest Neighbor) 분류를 제안하였다.Since 1998, Naive Bay has been widely used as the basis for text classification because it can be implemented quickly and easily. It is difficult to apply the Naïve Bayes classifier to image classification, unlike text classification, where words can be matched exactly. However, in 2008, Boyman et al. Proposed a new, efficient, and nonparametric method for image classification, NaBNN (Naive Bayes Nearest Neighbor) classification.

실시예들은 단순 베이즈 최근접 이웃에서 이미지 분류를 수행할 때 조건부 독립 가정의 문제를 해결하는 기술을 제공할 수 있다.Embodiments can provide a technique for solving the problem of conditionally independent assumptions when performing image classification in a simple Bay Nearest Neighbor.

일실시예에 따르면 2 의존 단순 베이즈 이미지 분류에 기초하여 이미지를 분류하는 방법이 제공될 수 있다.According to one embodiment, a method of classifying images based on a 2-dependent simple Bayesian image classification may be provided.

일실시예에 따르면, 단순 베이즈 최근접 이웃에서 이미지 분류를 수행할 때 조건부 독립 가정의 문제를 해결할 수 있다.According to one embodiment, the problem of conditionally independent assumptions can be solved when performing image classification in a simple Bay Nearest Neighbor.

도 1은 밀집 SIFT(Scale Invariant Feature Transform) 피처를 설명하기 위한 도면이다.
도 2 는 NBNN의 알고리즘을 설명하기 위한 도면이다.
도 3은 피처 공간에서 근위 점(proximal points)을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 2DNB의 알고리즘을 설명하기 위한 도면이다.
FIG. 1 is a diagram for explaining a dense SIFT (Scale Invariant Feature Transform) feature.
2 is a diagram for explaining an algorithm of the NBNN.
FIG. 3 is a view for explaining proximal points in the feature space. FIG.
4 is a diagram for explaining an algorithm of 2DNB according to an embodiment.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions of embodiments of the present invention disclosed herein are presented for the purpose of describing embodiments only in accordance with the concepts of the present invention, May be embodied in various forms and are not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Embodiments in accordance with the concepts of the present invention are capable of various modifications and may take various forms, so that the embodiments are illustrated in the drawings and described in detail herein. It should be understood, however, that it is not intended to limit the embodiments according to the concepts of the present invention to the particular forms disclosed, but includes all modifications, equivalents, or alternatives falling within the spirit and scope of the invention.

이미지 분류란 이미지의 콘텐츠 정보에 기초한 분류 방법인 컴퓨터 비전에서 패턴 인식의 항목을 말한다.Image classification is an item of pattern recognition in computer vision which is a classification method based on content information of an image.

컴퓨터 비전 및 이미지 처리에서 피쳐(feature)는 특정 어플리케이션과 관련된 컴퓨터 작업을 해결하는 것과 관련된 정보의 일부를 의미한다. 특히 피쳐는, 이미지에 적용된 일반적인 이웃 작업(피쳐 추출기 또는 피쳐 검출기)의 결과이거나, 간단한 구조점 또는 엣지에서 사물과 같은 더 복잡한 구조에 이르기 까지 이미지 자체에 있는 특정 구조가 될 수 있다.In computer vision and image processing, a feature is a piece of information related to solving a computer task associated with a particular application. In particular, a feature can be the result of a common neighborhood task (feature extractor or feature detector) applied to an image, or a specific structure in the image itself, from a simple structure point or edge to a more complex structure, such as an object.

조건부 독립이란 어떠한 조건이 있다는 가정하에 다른 사건이 일어날 확률을 말한다. 확률 이론에서, 주어진 Y의 조건부 확률 분포에서 B의 발생 또는 비발생과 Y의 발생 또는 비발생이 독립인 경우 주어진 세번째 이벤트 Y가 확실하면 R과 B 두 개의 이벤트는 조건부 독립 이다.Conditional independence refers to the probability that another event will occur under the assumption of certain conditions. In the probability theory, if the occurrence or non-occurrence of B and the occurrence or non-occurrence of B are independent in the conditional probability distribution of Y given that the given third event Y is positive, then the two events R and B are conditional independent.

확률 이론에서, 조건부 의존은 세 번째 이벤트가 발생하면 의존하는 복수 개의 이벤트 사이의 관계를 말한다.In probability theory, conditional dependence refers to the relationship between multiple events that depend on the occurrence of the third event.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

쿼리는 질의(inquiry)와 같은 뜻으로 사용된다. 파일의 내용 등을 알기 위해서 몇 개의 코드(code)나 키(key)를 기초로 질의하는 것을 가리킨다. 데이터 베이스에 존재하는 자료를 사용자가 원하는 조건을 통해 검색하고, 검색된 결과를 자유로이 조회할 수 있는 기능 등을 지원한다. Queries are used interchangeably with inquiries. It refers to a query based on some code or key to know the contents of the file. It supports the function of retrieving the data existing in the database through the condition that the user wants and retrieving the retrieved result freely.

디스크립터는 컴퓨터에서 프로그램 단위의 성질을 정하거나 파일의 각 블록마다 레코드마다의 특성을 정의(define)하는 데 쓰이는 용어이며 「기술자(記述子)」, 「기술어」로 번역된다. 이 기술자는 정보의 내용을 적절히 표시하는 짧은 단어이다. 파일 내에서 목적 레코드와 목적 프로그램 등을 발견하기 위한 키워드로서 사용되며, 어휘의 사용을 한정한 시스템 검사에 쓰여진다. 정보 검색에서는 데이터 베이스 중의 정보를 분류하거나 정보에 색인(index)을 붙이는 데 쓰여지는 이름과 종류명, 이러한 이름과 종류명을 키워드로 검색하고 목적한 것을 조사해낸다.A descriptor is a term used to define the properties of a program unit in a computer or to define the characteristics of each record in each block of a file, and it is translated into "descriptor" and "descriptor". This descriptor is a short word that properly indicates the content of the information. It is used as a keyword to find the objective record and the target program in the file, and it is used for the system check that limits the use of the vocabulary. In the information retrieval, the name and the type name used to classify the information in the database or to add an index to the information, and the name and the type name are searched by the keyword and the purpose is investigated.

Figure pat00001
Figure pat00001

여기서 Q는 쿼리 이미지이고, 그의 클래스 C를 찾으려고 한다. Di는 쿼리 이미지 Q의 디스크립터

Figure pat00002
중 하나를 의미한다. NBNN에서, 디스크립터들은 주어진 그의 클래스 C에 독립적인 것으로 간주된다. 이는 양자화 단계를 생략함으로써 효율적이고 단순할 뿐만 아니라 이미지 분류를 개선하였다. 알려진 바와 같이, 양자화 단계는 감독 분류 방법에 필수적인 이미지의 일부 고유한 피쳐를 제거한다. 예를 들어, Bag of Words(BoW), ImageNet 등이 있다.Here Q is a query image, and I want to find its class C. Di is the descriptor of the query image Q
Figure pat00002
≪ / RTI > In NBNN, descriptors are considered to be independent of their class C given. This improved efficiency and simplicity as well as image classification by omitting the quantization step. As is known, the quantization step removes some unique features of the image that are essential to the supervised classification method. For example, Bag of Words (BoW) and ImageNet.

그러나, NBNN은 여전히 다음과 같은 약점이 있다. 1) 테스트 중 계산의 복잡성이 높다; 2) 원래의 NBNN은 균형 잡힌 데이터 세트에서만 잘 작동한다; 3) 각 디스크립터들의 독립성의 가정은 NBNN 분류의 수행을 위반한다; 4) NBNN이 이미지 분류에서 현저하게 수행하더라도. 대형 이미지 검색을 위한 이미지 분류의 수행에 있어서 앞서 언급된 문제점들을 해결하기 위해 몇 최적화 방법(최적화 NBNN, 클래스 투 이미지 거리, NBNN 커널, 지역 NBNN)이 제안되었다. 그러나, NBNN에 가장 유해한 조건부 독립 가정의 문제를 해결하기 위한 작업은 수행되지 않았다.However, NBNN still has the following weaknesses: 1) the computational complexity is high during testing; 2) The original NBNN only works well on balanced data sets; 3) The assumption of independence of each descriptor violates the performance of the NBNN classification; 4) Although NBNN performs remarkably in image classification. Several optimization methods (optimized NBNN, class-to-image distance, NBNN kernel, local NBNN) have been proposed to solve the aforementioned problems in performing image classification for large image retrieval. However, no work has been done to address the problem of conditionally independent families that are most harmful to NBNN.

도 1은 밀집 SIFT(Scale Invariant Feature Transform) 피처를 설명하기 위한 도면이다.FIG. 1 is a diagram for explaining a dense SIFT (Scale Invariant Feature Transform) feature.

도 1을 참조하면, 피쳐는 어떤 개념이나 정보에 대해 리드하도록 의존 또는 관계가 있다. 특히 이미지가 속한 주어진 특정 클래스에서, 하나의 객체 또는 객체의 부분을 구성하는 이미지로부터 추출된 차별적인 피쳐들은 훨씬 더 의존적이다. 따라서, 이미지 분류에서, 이미지 피쳐는 훨씬 더 조건 의존적이고 이미지 피쳐의 조건 의존의 가정은 분류에 훨씬 더 위반할 수 있다. 게다가, 우리는 이미지로부터 추출된 근위 키 포인트가 가장 의존적이거나 상관 관계에 있는 것을 알 수 있다.Referring to FIG. 1, a feature is dependent or related to lead to some concept or information. In particular, given a particular class of images, the distinctive features extracted from the images that make up an object or part of an object are much more dependent. Thus, in image classification, the image features are much more condition dependent and the assumption of conditional dependence of image features can be much more violent to classification. In addition, we can see that the proximal key points extracted from the image are most dependent or correlated.

따라서, 조건부 독립 가정을 제거하는 대신, 우리는 나이브 베이즈 분류의 조건부 독립 가정을 해결하기 위해 이미지의 근위 피쳐의 의존도를 사용한다. Thus, instead of removing conditional independent assumptions, we use the dependence of the image's proximal features to solve the conditionally independent assumptions of the Naive Bay classification.

앞서 언급한 바와 같이, 조건부 독립의 단점을 해결하기 위해 나이브 베이트 텍스트 분류에서 일부 작업이 수행되었다. 해리 등의 논문에서, 로컬 의존 피쳐의 가능성을 계산하기 위해, 분류 결과의 정확성을 높이기 위한 증강 나이브 베이즈 분류(ANB)라 불리는 베이지안 네트워크를 사용하였다.As mentioned earlier, some work has been done in the Naive Beit text classification to address the drawbacks of conditional independence. In a paper by Harry et al., We used a Bayesian network called the Augmented Naive Bayes classification (ANB) to increase the accuracy of classification results to calculate the likelihood of locally dependent features.

속성 간의 부분 의존을 얻기 위해, 로컬 베이지안 네트워크에서 속성의 아버지 점(father point)을 알아야 한다. 그러나, 텍스트 분류와 달리, 이미지에 있는 속성은 텍스트 매칭처럼 정확할 수 없다. 따라서, 이미지 분류를 위해 ANB(augmented Naive Bayesian network) 모델링 하려는 경우, 어렵고 시간이 많이 소모되는 아버지 피쳐를 찾아야 한다. 해지 장은 속성 가운데 의존의 분포가 특정 조건을 만족하면, 비록 그들이 속성들 사이에 강한 의존이 존재하더라도, 나이브 베이즈 분류는 기본 ANB와 정확히 동일하다. 근위 피쳐들 사이의 2-의존과 함께, 우리는 이미지 분류기인 2-DNB를 설계했다.To obtain partial dependencies between attributes, you need to know the attribute's father point in the local bayesian network. However, unlike text classification, attributes in an image can not be as accurate as text matching. Therefore, if you want to model an augmented Naive Bayesian network (ANB) for image classification, you must find a difficult and time-consuming father feature. The cancellation chapter is exactly the same as the basic ANB, even if they have strong dependencies between properties, if the distribution of dependencies among properties satisfies certain conditions. With 2-dependence between proximal features, we designed the image classifier 2-DNB.

나이브 베이즈 근접 이웃Naive Bay Near Neighbors

2-DNB에 동기부여하고 정당화하기 위해, 원래 유도의 개요를 제공한다. 앞서 언급과 결합하여, 쿼리 이미지 Q는 수학식 2에 따라 클래스

Figure pat00003
에 속하는 것으로 분류된다.To motivate and justify 2-DNB, we provide an overview of the original induction. In conjunction with the foregoing, the query image Q is classified according to Equation (2)
Figure pat00003
. ≪ / RTI >

Figure pat00004
Figure pat00004

모든 클래스들에 앞서 균일함을 가정하고 베이즈 규칙을 적용한다.Assume uniformity before all classes and apply Bayes rules.

Figure pat00005
Figure pat00005

쿼리 이미지 Q에서 추출된 피쳐(디스크립터들)

Figure pat00006
의 조건 독립의 가정에 기초하여, 수학식 3은 수학식 4로 변환될 수 있다.The features extracted from the query image Q (descriptors)
Figure pat00006
(3) can be transformed into equation (4) based on the assumption of conditional independence of < RTI ID = 0.0 >

Figure pat00007
Figure pat00007

파젠 윈도우 측정기(parzen window estimator)에 의해, 커널 K, p는 수학식 5와 같다.By means of a parzen window estimator, the kernel K, p is given by Equation (5).

통계학에서, kernel density estimation(또는 Parzen window method, Emanuel Parzen의 이름을 딴)은 확률변수(random variable)의 확률밀도함수(probability density function, pdf)를 추정하는 비모수적(non-parametric) 방법이다. 한 예로, 모집단 표본에 대해 몇몇 자료가 주어졌을때, kernel density estimation은 외삽법(extrapolation)에 의한 전체의 모집단 추정을 가능케 한다.In statistics, kernel density estimation (or Parzen window method, named after Emanuel Parzen) is a non-parametric method of estimating the probability density function (pdf) of a random variable. For example, given some data for a population sample, the kernel density estimation allows for an overall population estimate by extrapolation.

Figure pat00008
Figure pat00008

클래스 C에 대한 트레이닝 세트에 L개의 디스크립터들이 존재하고,

Figure pat00009
는 클래스 C에서 j 번째로 가까운 디스크립터이다. NBNN에서, j는 가장 가까운 이웃
Figure pat00010
를 사용하여 극단적이 된다.There are L descriptors in the training set for class C,
Figure pat00009
Is the closest descriptor in class C. In NBNN, j is the closest neighbor
Figure pat00010
It becomes extreme using.

Figure pat00011
Figure pat00011

K는 가우시안 커널로 선택되고, 수학식 6은 수학식 7로 변형될 수 있다.K is selected as a Gaussian kernel, and Equation (6) can be transformed into Equation (7).

Figure pat00012
Figure pat00012

따라서, NBNN은 도 2와 같이 정리될 수 있다.Therefore, NBNN can be arranged as shown in FIG.

베이지안 분류기는 데이터의 확률분포함수를 미리 가정하고 이를 추정하여 분류에 활용하는 모수적 접근 방법을 취한다. 그러나 미리 가정된 확률 모델이 주어진 데이터 분포에 적합하지 않은 경우에는 좋은 성능을 기대하기 힘들다. 이러한 문제에 대한 대안으로 비모수적 밀도추정에 기반을 둔 K-근접이웃 분류기를 사용할 수 있다.The Bayesian classifier takes a parametric approach to estimate the probability distribution function of the data and apply it to classification. However, it is difficult to expect good performance if the pre-assumed probability model is not suitable for a given data distribution. An alternative to this problem is to use a K-neighborhood neighbor classifier based on non-parametric density estimates.

K-근접이웃 분류기는 주어진 데이터로부터 거리가 가까운 순서대로 K개의 데이터를 찾은 후, 그중 가장 많은 수의 데이터가 속한 클래스로 할당하는 방법이다. 이 분류기는 정규 베이즈 분류기에 비해 매우 비선형적인 결정경계를 가지며, 비모수적인 방법에 기반을 두므로 데이터의 분포 형태에 따라 성능이 크게 좌우되지는 않는다.
The K-neighborhood neighbor classifier finds K data in the order of closest distance from the given data, and assigns it to the class to which the largest number of data belongs. This classifier has a very nonlinear decision boundary and is based on a nonparametric method as compared with the regular Bayes classifier. Therefore, performance is not greatly influenced by the distribution of data.

K-근접이웃 분류기의 경우 새로운 데이터가 주어질 때마다 학습데이터 집합 전체와의 거리 계산을 통해 K개의 이웃 데이터를 선정해 주어야 하기 때문에 계산 시간이 오래 걸리며, 항상 학습데이터를 저장하고 있어야 하는 문제가 있다. K-근접이웃 분류기를 실제 적용할 때는 K 값을 어떻게 정해야 할지도 문제가 되는데, 만일 K=1인 경우는 가장 가까운 하나의 데이터에만 의존하여 클래스를 결정하기 때문에 노이즈에 민감한 결과를 얻게 된다. 반대로 K 값이 너무 커지면 주어진 데이터 주변의 영역만을 중심으로 분류가 수행되는 것이 아니라 전체 데이터 영역에서 각 클래스가 차지하는 비율에 따라 분류가 수행되기 때문에 선형결정경계와 형태가 유사한 결과를 얻는다. 보통 전체 데이터의 수가 N일 때 K=sqrt(N)을 사용할 수 있지만 검증데이터를 활용하여 분류를 수행해 봄으로써 가장 좋은 성능을 주는 값을 찾는 방법도 생각해 볼 수 있다.In the case of the K-nearest neighbors classifier, it takes a long time to calculate the K neighbor data by calculating the distance to the entire learning data set every time new data is given, and there is always a problem that the learning data must be stored . In the case of K-proximity neighbor classifier, how to determine K value is a problem. If K = 1, noise is sensitive because it depends on only the closest one data. On the contrary, if the value of K is too large, the classification is performed based on the ratio of each class in the entire data area, not on the basis of only the area around the given data. Usually, K = sqrt (N) can be used when the total number of data is N, but it is also possible to think about finding the best performance value by performing classification using verification data.

일실시예에 따라, 근위 피쳐의 의존도가 존재하는 것으로 가정하면, 우리는 피쳐 공간에 키 포인트를 짝 지을 수 있다.According to one embodiment, assuming that there is a dependency of the proximal feature, we can pair the key point to the feature space.

도 3을 참조하면, 점 쌍(A-B)는 의존도에 대해 정의하고 상기 쌍은 조건부 독립이다. 다른 분야의 연구와는 달리, 하나의 이미지에 있는 피쳐는 몇 개념이나 정보에 기여한다; 특히 그것이 속한 하나의 클래스를 제공한다. 따라서, 2-의존 베이지안을 수학식 8과 같이 정의한다.Referring to FIG. 3, the point pair (A-B) defines dependency and the pair is conditional independent. Unlike other field studies, features in an image contribute to some concepts or information; In particular, it provides a single class to which it belongs. Therefore, the 2-dependent bayesian is defined as Equation (8).

Figure pat00013
Figure pat00013

Figure pat00014
Figure pat00014

따라서, 디스크립터

Figure pat00015
과 함께 주어진 하나의 쿼리 이미지Q 이전의 고정형태는 수학식 9와 같이 변형될 수 있다.Therefore,
Figure pat00015
Can be transformed as shown in Equation (9). &Quot; (9) "

Figure pat00016
Figure pat00016

Figure pat00017
Figure pat00017

2-의존 베이지안(2-Dependece Bayesian)에 따라

Figure pat00018
또는
Figure pat00019
Figure pat00020
일 때, 수학식 10은 하기 수학식 11과 같이 되지만, 2-DNB에서 k 값을 통일하지 않는다.According to 2-Dependent Bayesian
Figure pat00018
or
Figure pat00019
And
Figure pat00020
, Equation (10) becomes Equation (11), but does not unify the value of k in 2-DNB.

Figure pat00021
Figure pat00021

일련의 변환으로, 우리는모든 클래스 사이에서 디스크립터

Figure pat00022
의 가장 가까운 이웃
Figure pat00023
을 찾아야하고,
Figure pat00024
가 속하는 모든 클래스 사이에서 디스크립터
Figure pat00025
의 최근접 이웃
Figure pat00026
을 찾을 것이다. 따라서, 2-DNB의 알고리즘은 도 4와 같이 나타날 수 있다.With a series of transformations, we can write descriptors
Figure pat00022
Nearest neighbor
Figure pat00023
However,
Figure pat00024
Between all the classes to which the descriptor belongs
Figure pat00025
Nearest neighbor
Figure pat00026
. Therefore, the algorithm of 2-DNB can be represented as shown in FIG.

지금까지, 이미지의 피쳐 공간에서 조건부 독립의 약한 가정을 해결하기 위한 작업은 없었다. 이미지 공간의 피쳐를 공부하면서, 우리는 하나의 이미지로부터 추출된 디스크립터들은 어떤 개체 또는 고체 부분을 구성하기 위해 함께 작용하는 것을 발견했다. 특히, 하나의 이미지에 속한 주어진 클래스에서, 이 클래스의 피처 구분은 더 의존적이다. 따라서, 조건부 독립 가정은 이미지 공간에서 더 많은 위반을 할 수 있다.So far, no work has been done to solve the weak assumption of conditional independence in the feature space of an image. As we study the features of image space, we have found that the descriptors extracted from one image act together to form an object or a solid part. In particular, for a given class belonging to one image, the feature classification of this class is more dependent. Thus, conditional independent assumptions can make more violations in image space.

위에서 언급한 영감에 따르면, 우리는 근위 피쳐 사이의 의존성을 이용한 2DNB(2-Dependence Naive Bayes)를 정의한다. 그리고 우리는 간단하게 2-DNB 분류기를 구축하여 피쳐 스페이스에서 독특하게 작동하는 2-의존 베이지안을 정의한다.According to the inspiration mentioned above, we define 2DN (2-Dependence Naive Bayes) using dependencies between proximal features. And we simply build a 2-DNB classifier to define a 2-dependent bayesian that works uniquely in feature space.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (1)

이미지 분류 방법에 있어서,
2 의존 단순 베이즈 이미지 분류에 기초하여 이미지를 분류하는
이미지 분류 방법.
In the image classification method,
2 Dependent simple Bayesian image classification based on image classification
Image classification method.
KR1020140051890A 2014-04-29 2014-04-29 2-Dependence Naive Bayes Classifier based Image Classification KR20150124825A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140051890A KR20150124825A (en) 2014-04-29 2014-04-29 2-Dependence Naive Bayes Classifier based Image Classification

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140051890A KR20150124825A (en) 2014-04-29 2014-04-29 2-Dependence Naive Bayes Classifier based Image Classification

Publications (1)

Publication Number Publication Date
KR20150124825A true KR20150124825A (en) 2015-11-06

Family

ID=54601101

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140051890A KR20150124825A (en) 2014-04-29 2014-04-29 2-Dependence Naive Bayes Classifier based Image Classification

Country Status (1)

Country Link
KR (1) KR20150124825A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330475A (en) * 2017-07-19 2017-11-07 北京化工大学 A kind of new model-free Bayes's classification forecast model flexible measurement method
KR102286322B1 (en) * 2020-05-29 2021-08-06 한국광기술원 Micro led inspection system and method
KR20230081249A (en) 2021-11-30 2023-06-07 한국전자통신연구원 Naive bayes classifier and method via latent-variable-based clustering

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330475A (en) * 2017-07-19 2017-11-07 北京化工大学 A kind of new model-free Bayes's classification forecast model flexible measurement method
KR102286322B1 (en) * 2020-05-29 2021-08-06 한국광기술원 Micro led inspection system and method
KR20230081249A (en) 2021-11-30 2023-06-07 한국전자통신연구원 Naive bayes classifier and method via latent-variable-based clustering

Similar Documents

Publication Publication Date Title
Shi et al. Knowledge Aware Semantic Concept Expansion for Image-Text Matching.
US9727821B2 (en) Sequential anomaly detection
US20200151155A1 (en) Classifying an unmanaged dataset
US20160307113A1 (en) Large-scale batch active learning using locality sensitive hashing
WO2016180308A1 (en) Video retrieval methods and apparatuses
Xiao et al. A truth discovery approach with theoretical guarantee
JP6417739B2 (en) Image tagging apparatus and image tagging method based on multi-modality
CN107844533A (en) A kind of intelligent Answer System and analysis method
CN110309251B (en) Text data processing method, device and computer readable storage medium
CN113661487A (en) Encoder for generating dense embedded vectors using machine-trained entry frequency weighting factors
US10135723B2 (en) System and method for supervised network clustering
US20130204835A1 (en) Method of extracting named entity
CN110858217A (en) Method and device for detecting microblog sensitive topics and readable storage medium
US10614379B2 (en) Robust classification by pre-conditioned lasso and transductive diffusion component analysis
Javed et al. An automated approach for software bug classification
CN112559747A (en) Event classification processing method and device, electronic equipment and storage medium
CN110751027A (en) Pedestrian re-identification method based on deep multi-instance learning
Lu et al. Discovering anomalies on mixed-type data using a generalized student-$ t $ based approach
Belilovsky et al. Joint embeddings of scene graphs and images
CN109271624A (en) A kind of target word determines method, apparatus and storage medium
JP2019086979A (en) Information processing device, information processing method, and program
US20220327394A1 (en) Learning support apparatus, learning support methods, and computer-readable recording medium
KR20150124825A (en) 2-Dependence Naive Bayes Classifier based Image Classification
CN103377381A (en) Method and device for identifying content attribute of image
Horn et al. Discovering topics in text datasets by visualizing relevant words

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid