KR101093107B1 - Image information classification method and apparatus - Google Patents

Image information classification method and apparatus Download PDF

Info

Publication number
KR101093107B1
KR101093107B1 KR1020090026977A KR20090026977A KR101093107B1 KR 101093107 B1 KR101093107 B1 KR 101093107B1 KR 1020090026977 A KR1020090026977 A KR 1020090026977A KR 20090026977 A KR20090026977 A KR 20090026977A KR 101093107 B1 KR101093107 B1 KR 101093107B1
Authority
KR
South Korea
Prior art keywords
image information
vector
ensemble
membership
feature vector
Prior art date
Application number
KR1020090026977A
Other languages
Korean (ko)
Other versions
KR20100108778A (en
Inventor
심정희
박기희
고병철
남재열
Original Assignee
계명대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 계명대학교 산학협력단 filed Critical 계명대학교 산학협력단
Priority to KR1020090026977A priority Critical patent/KR101093107B1/en
Publication of KR20100108778A publication Critical patent/KR20100108778A/en
Application granted granted Critical
Publication of KR101093107B1 publication Critical patent/KR101093107B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4023Decimation- or insertion-based scaling, e.g. pixel or line decimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Abstract

본 발명은 영상정보를 색상 특징 및 경계선 특징에 따라 분류하는 영상정보 분류방법 및 장치에 관한 것이다. 상기한 본 발명에 따른 영상정보 분류방법은, 영상정보를 입력받아 색 구조 기술자에 따른 제1특징 벡터를 검출하는 단계; 상기 영상정보를 입력받아 경계선 히스토그램 기술자에 따른 제2특징벡터를 검출하는 단계; 상기 제1 및 제2특징벡터를 다수의 클래스에 각각 대응되는 클래스 분류자 각각에 대해 어느 정도 근접한지를 나타내는 다수의 멤버십 스코어를 생성하는 단계;를 포함하며, 상기 멤버십 스코어들이 상기 영상정보의 분류정보가 된다. The present invention relates to an image information classification method and apparatus for classifying image information according to color features and boundary line features. The image information classification method according to the present invention comprises the steps of: receiving image information and detecting a first feature vector according to a color structure descriptor; Receiving the image information and detecting a second feature vector according to a boundary histogram descriptor; Generating a plurality of membership scores indicating how close the first and second feature vectors are to respective class classifiers corresponding to a plurality of classes, respectively, wherein the membership scores are classification information of the image information. Becomes

영상정보, 분류, 색 구조 기술자, 경계선 히스토그램 기술자Image information, classification, color structure descriptor, boundary histogram descriptor

Description

영상정보 분류방법 및 장치{Image information classification method and apparatus}Image information classification method and apparatus

본 발명은 영상정보 처리기술에 관한 것으로, 더욱 상세하게는 영상정보를 색상 특징 및 경계선 특징에 따라 분류하는 영상정보 분류방법 및 장치에 관한 것이다. The present invention relates to image information processing technology, and more particularly, to an image information classification method and apparatus for classifying image information according to color features and boundary line features.

의료 영상은 환자 진단, 의학 요법, 수술 계획, 의학 증명과 훈련 등에 중심적인 역할을 하고 있으며, 최근 의료 영상이 디지털화됨에 따라 의료 영상을 분류하고 검색하는 기술의 연구가 증가하고 있다. Medical imaging plays a central role in patient diagnosis, medical therapy, surgical planning, medical certification and training, and as the medical images are digitized recently, researches on technology for classifying and retrieving medical images are increasing.

이러한 요구를 반영하여 영상 처리, 통신, 데이터베이스 등의 다양한 기술을 바탕으로 만들어진 의료 지원 시스템인 PACS(Picture Archiving Communication System)[Ko, B., Seo, M. S. Nam. J-Y. "Frip: Microscopic Cell Nuclei Segmentation Based on Adaptive Attention Window." Journal of Digital Imaging, Published online, 1- 16, June 2008.]와 의료 영상용 표준 네트워크 프로토콜인 DICOM(Digital Image and Communication in Medicine) 등이 제정되었다. Reflecting these demands, PACS (Picture Archiving Communication System), a medical support system based on various technologies such as image processing, communication, and database [Ko, B., Seo, M. S. Nam. J-Y. "Frip: Microscopic Cell Nuclei Segmentation Based on Adaptive Attention Window." Journal of Digital Imaging, Published online, 1-16, June 2008.] and Digital Image and Communication in Medicine (DICOM), the standard network protocol for medical imaging, have been established.

그러나 검색을 위해서는 많은 수의 의료 영상에 대해 일일이 텍스트를 부여하고 그 종류에 따라 분류하여야 하므로, 작업이 매우 번거롭고 비효율적이었다. However, the retrieval was very cumbersome and inefficient because a large number of medical images had to be given texts and classified according to their types.

더욱이 의료 영상을 사람에 의해 분류하는 것은 작업자의 주관적인 관점이 반영되므로 문제를 발생시킬 수 있었으며, 시간과 비용이 많이 걸리는 단점이 있었다. 이러한 문제들을 해결하기 위해 다양한 유형의 분류와 검색 방법들이 제시되었다. Moreover, classifying medical images by people reflects the subjective point of view of the worker, which may cause problems, and has a disadvantage in that it takes time and cost. To solve these problems, various types of classification and retrieval methods have been proposed.

예를 들어, Liu[Liu Y., Dellaert F. "Classification Driven Medical Image Retrieval" Proceeding of the Int. Workshop on Image Understanding 1-7, 1998] 등은 영상 인덱스 특징 선택 룰을 사용하여 영상을 분류하였으며, 영상 의미 기반 유사성 측정을 이용한 분류 검색 중심의 영상 검색 프레임 워크를 제안하였다. For example, Liu [Liu Y., Dellaert F. "Classification Driven Medical Image Retrieval" Proceeding of the Int. Workshop on Image Understanding 1-7, 1998] classified images using image index feature selection rules and proposed a classification search-oriented image retrieval framework using image semantic based similarity measurement.

Mojsilovic[Mojsilovc A. and Gomes J. "Semantic based categorization, browsing and retrieval in medical image databases." Proceedings of the Int.Conf. on Image Processing 3, 145-148, 2002.] 등은 의료 영상의 여러 특징들을 사용하여 새로운 자동적 분류 방법을 제안하였다. 이 방법은 영상으로부터 획득한 특징들의 의미에 기반한 시각적 특징 집합을 이용하여 영상을 분류하는 방법이다. Mojsilovic, Mojsilovc A. and Gomes J. "Semantic based categorization, browsing and retrieval in medical image databases." Proceedings of the Int. Conf. on Image Processing 3, 145-148, 2002.] proposed a new automatic classification method using various features of medical images. This method classifies an image using a visual feature set based on the meaning of features acquired from the image.

Greenspan[Greenspan H. "Medical Image Categorization and Retrieval for PACS Using the GMM-KL Framework."IEEE Transactions on Information Technology in Bio Medicine 11, 190-202, 2007.]은 KL(Kullback-Leibler) 거리와 가우시안 혼합 모델(Gaussian Mixture Modeling)을 이용한 확률적인 영상 표현 방법을 제안하였다. Greenspan [Greenspan H. "Medical Image Categorization and Retrieval for PACS Using the GMM-KL Framework." IEEE Transactions on Information Technology in Bio Medicine 11, 190-202, 2007.) describes the KL (Kullback-Leibler) distance and Gaussian mixed model. We propose a stochastic image representation method using (Gaussian Mixture Modeling).

GMM-KL 프레임 워크는 영상 측정과 신체 영역에 의한 X-ray 영상을 범주화하는 데에 사용하였다. Bhattacharya[Bhattacharya P. and Rahman M. M. "Image Representation and Retrieval Using Support Vector Machine and Fuzzy C-means Clustering Based Semantical Spaces." Proceedings of the, Int. Conf. on Pattern Recognition 2, 1162-1168, 2006.]등은 교사학습(확률적 멀티 클래스 SVM)과 비교사 학습(fuzzy c-mean clustering)의 선형 결합으로 의료 영상 검색에서 학습 기반 프레임 워크를 제안하였다. 상기 학습 알고리즘에서 얻은 멤버십 스코어로 유사성 측정은 질의 영상과 비교하여 가장 유사한 영상을 검색하였다. The GMM-KL framework was used to categorize image measurements and X-ray images by body region. Bhattacharya, Bhattacharya P. and Rahman M. M. "Image Representation and Retrieval Using Support Vector Machine and Fuzzy C-means Clustering Based Semantical Spaces." Proceedings of the, Int. Conf. on Pattern Recognition 2, 1162-1168, 2006.] proposed a learning-based framework for medical image retrieval with a linear combination of teacher learning (probabilistic multiclass SVM) and fuzzy c-mean clustering. The similarity measure was obtained by comparing the query image with the membership score obtained from the learning algorithm.

Mueen[Mueen A. Zainuddin R. Baba M. S. "Automatic Multilevel Medical Image Annotation and Retrieval." Journal of Digital Imaging, Published online, 1- 6, Sept. 2007.] 등은 개념 계층 또는 클래스 계층 기반의 키워드로 다계층 자동 의료 영상 주석 삽입 및 검색 방법을 제안하였다. 또한 자동 특징 추출을 위하여 픽셀 강도로 전역적 및 지역적 레벨 특징을 제공하는 다계층 특징 추출법을 사용하였다. 그 중 X-ray영상에 대해 키워드(클래스 이름)로만 실행할 수 있다.Mueen [Mueen A. Zainuddin R. Baba M. S. "Automatic Multilevel Medical Image Annotation and Retrieval." Journal of Digital Imaging, Published online, 1-6, Sept. 2007.] proposed a method for inserting and retrieving multi-layered automatic medical image annotations using keywords based on concept or class hierarchy. In addition, multi-layer feature extraction is used for automatic feature extraction, which provides global and local level features with pixel intensity. Among them, X-ray image can be executed only by keyword (class name).

상기한 바와 같이 내용 기반의 영상 검색은 영상 처리와 컴퓨터 비전 분야에서 매우 활발히 연구되고 있는 영역이다. 이중 의료 영상은 작업자의 주관적인 관점에 따라 다른 판단을 할 수도 있으며 중요 내용이 포함된 관심 영역과 의미 없는 단색의 배경으로 구성되는 특징을 가지므로, 일반적인 자연 영상과는 다른 분류와 검색 방법이 요구되었다. As described above, content-based image retrieval is a very active area in the field of image processing and computer vision. Among these, medical images can be judged differently according to the subjective viewpoint of the operator, and have a characteristic that is composed of a region of interest containing important contents and a meaningless monochrome background. Therefore, a classification and retrieval method different from general natural images is required. .

본 발명은 해리스 코너 검출 기반의 색 구조 기술자(CSD)와 질감 특징을 위한 경계선 히스토그램 기술자(EHD)를 사용하여 영상 정보에서 특징 벡터들을 추출하고, 추출된 특징 벡터들을 다수의 영상종류 각각에 대응되는 멀티 클래스 SVM에 각각 적용하여 영상 종류를 표식하는 멤버십 스코어를 생성하는 영상정보 분류방법 및 장치를 제공하는 것을 그 목적으로 한다. The present invention extracts feature vectors from image information by using a Harris corner detection-based color structure descriptor (CSD) and a boundary histogram descriptor (EHD) for texture features, and extracts the extracted feature vectors corresponding to each of a plurality of image types. It is an object of the present invention to provide a method and apparatus for classifying image information for generating a membership score for marking an image type by applying to a multi-class SVM, respectively.

또한 본 발명의 다른 목적은 영상 정보로부터 검출해낸 멤버십 스코어를 하나의 앙상블 벡터로 결합하여 검색의 정확도를 향상시키는 영상정보 분류방법 및 장치를 제공하는 것이다. It is another object of the present invention to provide a method and apparatus for classifying video information by combining membership scores detected from video information into one ensemble vector to improve the accuracy of the search.

또한 본 발명의 또 다른 목적은 CCV(Correlated Categories Vector) 기반 유사성 정보를 상기 앙상블 벡터에 부가하여 유사 영상정보에 대한 검색이 정확하고 빠르게 이행될 수 있게 하는 영상정보 분류방법 및 장치를 제공하는 것이다. It is still another object of the present invention to provide a method and apparatus for classifying video information by adding correlated categories vector (CCV) based similarity information to the ensemble vector so that a search for similar video information can be performed accurately and quickly.

상기한 목적을 달성하기 위한 본 발명의 영상정보 분류방법은, 영상정보를 입력받아 색 구조 기술자에 따른 제1특징 벡터를 검출하는 단계; 상기 영상정보를 입력받아 경계선 히스토그램 기술자에 따른 제2특징벡터를 검출하는 단계; 상기 제1 및 제2특징벡터를 다수의 클래스에 각각 대응되는 클래스 분류자 각각에 대해 어느 정도 근접한지를 나타내는 다수의 멤버십 스코어를 생성하는 단계;를 포함하며, 상기 멤버십 스코어들이 상기 영상정보의 분류정보가 됨을 특징으로 한다. According to an aspect of the present invention, there is provided a method of classifying image information, the method comprising: detecting first feature vectors according to color structure descriptors by receiving image information; Receiving the image information and detecting a second feature vector according to a boundary histogram descriptor; Generating a plurality of membership scores indicating how close the first and second feature vectors are to respective class classifiers corresponding to a plurality of classes, respectively, wherein the membership scores are classification information of the image information. Characterized by being.

상기한 본 발명은 의료 영상 정보, 특히 X-ray 영상 정보에 대한 효과적인 분류 및 검색을 가능하게 하는 효과가 있다. The present invention described above has the effect of enabling effective classification and retrieval of medical image information, particularly X-ray image information.

또한 본 발명은 향후 진행될 영상 분류를 기반으로 하는 자동 주석 생성, 유사한 카테고리에 대한 분류 성능의 개선을 야기할 수 있는 효과가 있다. In addition, the present invention has an effect that can cause automatic annotation generation based on the image classification to be performed in the future, improve the classification performance for similar categories.

본 발명의 바람직한 실시예에 따른 영상정보 분류장치의 구성을 도 1을 참조하여 설명한다. A configuration of an image information classification apparatus according to a preferred embodiment of the present invention will be described with reference to FIG.

상기 영상정보 분류장치는 색 구조 기술자에 따른 특징벡터 검출부(100), 경계선 히스토그램 기술자에 따른 특징벡터 검출부(102), SVM을 이용한 클래스 분류부(104), CCV 생성부(106), 저장매체(108)로 구성된다. The image information classification apparatus includes a feature vector detector 100 according to a color structure descriptor, a feature vector detector 102 according to a boundary histogram descriptor, a class classifier 104 using an SVM, a CCV generator 106 and a storage medium ( 108).

상기 색 구조 기술자에 따른 특징벡터 검출부(100)는 영상정보를 입력받아 색 구조 기술자에 따른 특징벡터를 검출하여 SVM을 이용한 클래스 분류부(104)에 제공한다. The feature vector detector 100 according to the color structure descriptor receives image information, detects the feature vector according to the color structure descriptor, and provides the detected feature vector to the class classification unit 104 using the SVM.

상기 경계선 히스토그램 기술자에 따른 특징벡터 검출부(102)는 영상정보를 입력받아 경계선 히스토그램 기술자에 따른 특징벡터를 검출하여 SVM을 이용한 클래스 분류부(104)에 제공한다. The feature vector detection unit 102 according to the boundary histogram descriptor receives image information and detects the feature vector according to the boundary histogram descriptor and provides the image to the class classification unit 104 using the SVM.

상기 SVM을 이용한 클래스 분류부(104)는 다수의 영상종류(이하 클래스라 칭함)에 대응되는 다수의 클래스 분류자를 학습을 통해 획득하고, 상기 색 구조 기술자 및 상기 경계선 히스토그램 기술자에 따라 검출된 특징벡터들을 상기 다수의 클 래스 분류자 각각에 적용하여, 상기 영상정보가 각 클래스에 어느 정도 근접하는지를 나타내는 다수의 멤버십 스코어를 생성하고, 상기 다수의 멤버십 스코어 중 가장 큰 멤버십 스코어를 생성한 클래스 분류자에 대응되는 클래스로 해당 영상정보를 분류하며, 상기 다수의 멤버십 스코어를 앙상블 벡터로 결합하여 검색의 정확성을 높인다. The class classifier 104 using the SVM obtains a plurality of class classifiers corresponding to a plurality of image types (hereinafter, referred to as classes) through learning and detects feature vectors detected according to the color structure descriptor and the boundary histogram descriptor. Are applied to each of the plurality of class classifiers to generate a plurality of membership scores indicating how close the image information is to each class, and to a class classifier that has generated the largest membership score among the plurality of membership scores. The video information is classified into corresponding classes, and the plurality of membership scores are combined into an ensemble vector to increase the accuracy of the search.

상기 CCV 생성부(106)는 상기 영상정보로부터 검출한 앙상블 벡터와 미리 데이터베이스에 등록된 영상정보의 앙상블 벡터를 대비하여, 두 앙상블 벡터에서 서로 대응되는 위치의 멤버십 스코어가 미리 정해둔 수치 이상일 경우에는 그 멤버십 스코어에 대해서는 두 영상정보가 유사성이 있다고 판단하여, 상기 판단결과에 따라 0 또는 1을 값을 표식한 유사성 판단정보를 기록한 CCV를 생성한다. The CCV generator 106 compares an ensemble vector detected from the image information with an ensemble vector of image information registered in a database in advance, and when the membership scores of positions corresponding to each other in the two ensemble vectors are equal to or greater than a predetermined value. With respect to the membership score, it is determined that the two pieces of image information have similarities, and according to the determination result, a CCV having recorded similarity determination information indicating a value of 0 or 1 is generated.

상기 저장매체(108)는 색 구조 기술자에 따른 특징벡터 검출부(100), 경계선 히스토그램 기술자에 따른 특징벡터 검출부(102), SVM을 이용한 클래스 분류부(104), CCV 생성부(106)의 프로세스 수행을 위한 저장영역을 제공함과 아울러, 영상정보 및 그 영상정보에 대응되는 앙상블 벡터와 CCV를 저장한다.The storage medium 108 performs the process of the feature vector detector 100 according to the color structure descriptor, the feature vector detector 102 according to the boundary histogram descriptor, the class classifier 104 using the SVM, and the CCV generator 106. In addition to providing a storage area for the image information, and stores the image information and the ensemble vector and CCV corresponding to the image information.

본 발명의 바람직한 실시예에 따른 영상정보 분류장치의 동작을 도면을 참조하여 좀 더 상세히 설명한다.An operation of the apparatus for classifying image information according to an exemplary embodiment of the present invention will be described in more detail with reference to the accompanying drawings.

<색 구조 기술자에 따른 특징벡터 검출과정><Feature Vector Detection Process According to Color Structure Descriptor>

상기 색 구조 기술자에 따른 특징벡터 검출부(100)는 영상정보를 입력받아 상기 영상정보에 대해 색 구조 기술자(CSD : Color Structure Descriptor)에 따른 특징벡터를 검출한다. The feature vector detection unit 100 according to the color structure descriptor receives image information and detects a feature vector according to a color structure descriptor (CSD) for the image information.

일반적으로 X-ray 영상정보는 어두운 배경과 중요 내용이 포함된 밝은 전경을 가지는 특징이 있다. 이에따라 상기 색 구조 기술자에 따른 특징벡터 검출부(100)는 영상정보를 128 단계의 명암으로 양자화하고, MPEG-7 표준에 따라 NxN개의 서브 블록들로 분리한다. 여기서, 상기 서브 블록의 크기는 8 x 8로 설정할 수 있다. In general, X-ray image information has a characteristic of having a dark background and a bright foreground including important contents. Accordingly, the feature vector detector 100 according to the color structure descriptor quantizes the image information in 128 levels of contrast, and divides the image information into N × N subblocks according to the MPEG-7 standard. Herein, the size of the subblock may be set to 8 × 8.

도 2에서 도시한 바와 같이 X-ray 영상정보에는 쓸데없는 배경영역을 포함한다. 이에 색 구조 기술자에 따른 특징벡터 검출부(100)는 미리 정해둔 수치 이하의 명암값을 가지는 배경 영역을 제거한다. As shown in FIG. 2, the X-ray image information includes a useless background area. Accordingly, the feature vector detector 100 according to the color structure descriptor removes a background area having a contrast value less than or equal to a predetermined value.

이후 상기 색 구조 기술자에 따른 특징벡터 검출부(100)는 상기 배경 영역에 따른 서브 블록을 제외한 나머지 서브 블록에 대해 해리스 코너 검출 방식(Harris C. and Stephens M. J. "A combined corner and edge detector." Proceeding of the Alvey Vision Conference, 147-152, 1998.)에 따라 해리스 코너 포인트를 검출하고, 상기 서브 블록 중 하나 또는 다수의 해리스 코너 포인트를 포함하는 서브 블록들만을 선택한다. Then, the feature vector detector 100 according to the color structure descriptor is Harris C. and Stephens MJ “A combined corner and edge detector.” Proceeding of the remaining subblocks except the subblocks according to the background region. Harris corner points are detected according to the Alvey Vision Conference, 147-152, 1998.), and only sub blocks including one or more Harris corner points are selected.

이후 상기 색 구조 기술자에 따른 특징벡터 검출부(100)는 상기 선택된 서브 블록들에 대해 128 빈 색 구조 히스토그램을 추출하며, 그 결과 128개의 양자화된 흑백 색 공간이 나타난다. 따라서 상기 색 구조 히스토그램은 m 비트로 양자화된 값의 1차원 배열이다. Thereafter, the feature vector detector 100 according to the color structure descriptor extracts 128 bin color structure histograms for the selected subblocks, resulting in 128 quantized black and white color spaces. Thus, the color structure histogram is a one-dimensional array of values quantized in m bits.

수학식 1의 m은 집합{256, 128, 64, 32} 중의 하나를 의미하고, s는 조합된 구조적인 요소(서브 블록)의 스케일이다. 각 서브 블록에서 색 구조 히스토그램은 서브 블록 내의 색을 표현되는 원리로 축적된다. M in Equation 1 means one of the sets {256, 128, 64, 32}, and s is the scale of the combined structural element (sub block). In each subblock, the color structure histogram is accumulated on the principle of expressing the color in the subblock.

Figure 112009019054204-pat00001
Figure 112009019054204-pat00001

예를 들어, 여덟 개의 명암 레벨과 여덟 개의 색 구조 히스토그램은 8x8 서브 블록으로 만들어지고, 영상 정보와 일치하는 미리 분리된 색 구조 히스토그램에서 대량의 적절한 빈이 서브 블록의 위치와 동일하면 수를 1 증가시킨다. 이에따라 영상 정보의 특징 벡터들은 대량의 서브 블록들의 분포와 각 기록된 색 구조 히스토그램과 일치하게 된다. For example, eight intensity levels and eight color structure histograms are made of 8x8 subblocks, and the number is increased by one if a large number of appropriate bins are identical to the subblock position in a pre-separated color structure histogram that matches the image information. . Accordingly, the feature vectors of the image information coincide with the distribution of a large number of subblocks and each recorded color structure histogram.

상기 추출된 128개의 색 구조 기술자 빈 히스토그램 값은 SVM 학습을 위해 0~1의 범위로 정규화된다. 여기서, 상기 색 구조 기술자 빈 히스토그램 값이 색 구조 기술자에 따른 특징벡터이다. The extracted 128 color structure descriptor bin histogram values are normalized to a range of 0 to 1 for SVM learning. Here, the color structure descriptor bin histogram value is a feature vector according to the color structure descriptor.

<경계선 히스토그램 기술자에 따른 특징벡터 검출과정><Feature Vector Detection Process According to Boundary Histogram Descriptor>

상기 경계선 히스토그램 기술자에 따른 특징벡터 검출부(102)는 질감 특징을 추출하기 위해 경계선 히스토그램 기술자 검출방식(EHD)(Won C. S. and Park D. K. "Efficient Use of MPEG-7 Edge Histogram Descriptor", ETRI Journal 24, 23-30, 2002.)에 따라 입력된 영상정보로부터 경계선 히스토그램 기술자를 검출한다. The feature vector detector 102 according to the edge histogram descriptor is used to detect a boundary feature histogram descriptor (EHD) (Won CS and Park DK "Efficient Use of MPEG-7 Edge Histogram Descriptor", ETRI Journal 24, 23 -30, 2002.) detects a border histogram descriptor from the input image information.

상기한 경계선 히스토그램 기술자에 따르면 상기 영상정보는 겹치지 않는 서브 영상들로 분리되며, 각 서브 영상은 도 3(a)에 도시한 바와 같이 겹치지 않는 영상 블록으로 다시 분리된다. 영상 블록의 크기는 수학식 2를 통하여 결정된다.According to the boundary histogram descriptor, the image information is divided into non-overlapping sub-images, and each sub-image is divided into non-overlapping image blocks as shown in FIG. The size of the image block is determined through Equation 2.

Figure 112009019054204-pat00002
Figure 112009019054204-pat00003
Figure 112009019054204-pat00004
,
Figure 112009019054204-pat00002
Figure 112009019054204-pat00003
Figure 112009019054204-pat00004
,

위 수학식 2에서 desired Num block은 영상정보에서 영상블록들의 전체 수이다. 본 발명에서는 실험을 통하여 상기 desired Num block의 기본값을 1100으로 결정하였다. In Equation 2, the desired num block is the total number of image blocks in the image information. In the present invention, the default value of the desired Num block was determined to be 1100 through experiments.

도 2(b)는 경계선 히스토그램을 생성하기 위해 서브 영상들에 적용된 5가지 종류(수직, 수평, 45° 대각선, 135° 대각선, 무 방향)의 경계선 필터를 도시한 것이다. 상기 5가지 종류의 필터를 이용하여 추출된 특징 값들을 이용하여 경계선 히스토그램 기술자에 따른 특징벡터 검출부(102)는 최대 경계선 값을 검출한다.FIG. 2B illustrates five types of boundary filters applied to sub-images (vertical, horizontal, 45 ° diagonal, 135 ° diagonal, and no direction) to generate a border histogram. Using the feature values extracted using the five types of filters, the feature vector detector 102 according to the boundary line histogram descriptor detects a maximum boundary line value.

일반적으로 의료 영상 정보의 일종인 X-ray 영상정보에서 질감 특징, 특히 경계선은 중요한 특징 성분이라 할 수 있다. 따라서 본 발명의 경계선 히스토그램 기술자에 따른 특징벡터 검출부(102)는 지역적 히스토그램 값뿐만 아니라, 전역적인 경계선 히스토그램과 반(semi) 전역적 히스토그램을 추가적으로 추출하여 특징 값으로 사용한다. 여기서, 상기 특징값이 경계선 히스토그램 기술자에 따른 특징벡터이다. In general, in X-ray image information, which is a kind of medical image information, texture features, especially boundary lines, may be an important feature component. Therefore, the feature vector detector 102 according to the boundary histogram descriptor of the present invention additionally extracts the global boundary histogram and the semi global histogram as a feature value as well as the local histogram value. Here, the feature value is a feature vector according to the boundary histogram descriptor.

<SVM를 이용한 클래스 분류>Class classification using SVM

상기 색 구조 기술자와 경계선 히스토그램 기술자에 따른 특징 벡터들은 SVM을 이용한 클래스 분류부(104)에 의해 미리 정의된 클래스들로 분류된다. The feature vectors according to the color structure descriptor and the border histogram descriptor are classified into predefined classes by the class classification unit 104 using the SVM.

예를들어, 미리 주어진 학습 데이터

Figure 112009019054204-pat00005
는 공간
Figure 112009019054204-pat00006
차원에서 존재하고, 출력값
Figure 112009019054204-pat00007
Figure 112009019054204-pat00008
로 표현되어 진다면, 수학식 3은 일반적인 이진 선형 분류 함수를 나타낸다.For example, given training data in advance
Figure 112009019054204-pat00005
Space
Figure 112009019054204-pat00006
Present in the dimension, output
Figure 112009019054204-pat00007
Is
Figure 112009019054204-pat00008
Equation 3 represents a general binary linear classification function.

Figure 112009019054204-pat00009
Figure 112009019054204-pat00009

상기 수학식 3에서 x는 입력 벡터, w는 가중치 벡터, b는 바이어스를 나타낸다. 이때,

Figure 112009019054204-pat00010
,
Figure 112009019054204-pat00011
인 두 개의 클래스가 있다고 할 때,
Figure 112009019054204-pat00012
의 w와 b값들에 대해 구해진 최적의 값이 초평면이 된다. 상기 SVM의 주된 목표는 최적의 평면을 결정하는 매개변수 w와 b를 찾는 것이다. 이 값들은 아래의 제약식인 수학식 4와 목적식인 수학식 5를 통해 계산되어진다.In Equation 3, x denotes an input vector, w denotes a weight vector, and b denotes a bias. At this time,
Figure 112009019054204-pat00010
,
Figure 112009019054204-pat00011
Suppose you have two classes that are
Figure 112009019054204-pat00012
The optimal value obtained for the w and b values of is the hyperplane. The main goal of the SVM is to find the parameters w and b that determine the optimal plane. These values are calculated by the following equation (4) and the target equation (5).

Figure 112009019054204-pat00013
Figure 112009019054204-pat00013

Figure 112009019054204-pat00014
Figure 112009019054204-pat00014

상기 수학식 4 및 5에서 N은 영상의 총 개수,

Figure 112009019054204-pat00015
는 라그랑제 승수를 나타 낸다. In Equations 4 and 5, N is the total number of images,
Figure 112009019054204-pat00015
Denotes the Lagrange multiplier.

상기 결정된 값들은 SVM 분류함수인 수학식 6에 적용되어 입력되어지는 영상들에 대한 분류를 가능하게 한다. The determined values are applied to Equation 6, which is an SVM classification function, to enable classification of input images.

Figure 112009019054204-pat00016
Figure 112009019054204-pat00016

상기 수학식 6에서 X는 입력 영상,

Figure 112009019054204-pat00017
는 커널함수 값,
Figure 112009019054204-pat00018
는 각 커널 출력들의 가중치를 각각 나타내며
Figure 112009019054204-pat00019
은 +1 클래스와 -1 클래스처럼 x의 클래스 멤버십 스코어를 결정한다. 초평면에서 분류 함수 f(x)는 영상이 속하는 하나의 클래스(+1)가 다른 클래스(-1)로부터 얼마나 다른지를 측정하는 서포트 벡터로 결정이 된다. In Equation 6, X represents an input image,
Figure 112009019054204-pat00017
Is the kernel function value,
Figure 112009019054204-pat00018
Denotes the weight of each kernel output, respectively
Figure 112009019054204-pat00019
Determines the class membership score of x, like the +1 and -1 classes. In hyperplane, the classification function f (x) is determined as a support vector that measures how different one class (+1) to which an image belongs from another class (-1).

본 발명에서 사용되는 X-ray 영상들은 신체의 각 부분별로 임의 20개의 카테고리를 나누어 분류하였기 때문에 다중 클래스 SVM을 사용하였고 커널 함수로는 RBF(Radial Basis Function)를 사용한다.Since the X-ray images used in the present invention are classified into any 20 categories for each part of the body, the multi-class SVM is used, and the RBF (Radial Basis Function) is used as the kernel function.

다중 클래스 SVM은 아래의 수학식 7을 사용하게 되며 는 입력된 영상 X가 각 클래스에 처리된 값들을 의미한다. 여기서 가장 큰 값을 가지는 가 최종 X의 분류 클래스로 선택되어지는 방법이다. The multi-class SVM uses Equation 7 below, and denotes values of the input image X processed in each class. Where the largest value is selected as the final X classification class.

Figure 112009019054204-pat00020
Figure 112009019054204-pat00020

상기 SVM 학습은 도 4에서 보는 것과 같이 영상 자체 개수가 적은 발가락, 허벅지, 팔꿈치를 제외한 나머지 카테고리에 대해서는 각각 100장의 영상을 학습시켜 20개의 카테고리에 대해 총 1,754장의 학습 데이터를 생성한다.In the SVM learning, as shown in FIG. 4, 100 images are trained for the remaining categories except for the small number of toes, thighs, and elbows, thereby generating a total of 1,754 training data for 20 categories.

본 발명에서는 학습을 위해 두 개의 특징 벡터(H-CSD, EHD)를 각각 다중 클래스 SVM에 적용하기 때문에 2n개의 SVM 분류자가 생성된다. In the present invention, since two feature vectors H-CSD and EHD are applied to the multi-class SVMs, 2n SVM classifiers are generated.

도 5는 입력 영상정보로부터 생성한 특징 벡터 Fc와 FE(Fc: H-CSD 특징 벡터, FE: EHD 특징 벡터)는 미리 나눠둔 20개의 SVM 분류자에 각각 제공되고, 상기 SVM 분류자들 각각은 각 특징 벡터를 위해 20개의 멤버십 스코어인

Figure 112009019054204-pat00021
Figure 112009019054204-pat00022
를 출력한다.FIG. 5 shows feature vectors F c and F E (F c : H-CSD feature vector and F E : EHD feature vector) generated from input image information, respectively, and are provided to 20 SVM classifiers. Each of them has 20 membership scores for each feature vector.
Figure 112009019054204-pat00021
Wow
Figure 112009019054204-pat00022
.

상기 출력된 멤버십 스코어들은 한 개의 카테고리로 분류되지 않고 검색의 정확성을 높이기 위해 하나의 앙상블 벡터(

Figure 112009019054204-pat00023
)로 합쳐진다. 여기서, 상기 앙상블 벡터의 각 값은 입력 영상이 20개의 클래스에 대해 어느 정도 근접한지를 나타내는 분류정보이다. The printed membership scores are not categorized into one category, and one ensemble vector (
Figure 112009019054204-pat00023
Are combined. Here, each value of the ensemble vector is classification information indicating how close the input image is to 20 classes.

상기한 SVM을 이용한 클래스 분류부(104)는 상기 앙상블 벡터는 상기 입력된 영상정보에 대응되게 저장매체(108)에 저장한다.The class classification unit 104 using the SVM stores the ensemble vector in the storage medium 108 corresponding to the input image information.

<CCV 생성과정><CCV generation process>

본 발명을 위해 실험에 사용된 X-ray 영상정보들의 클래스들은 독립적이거나 혹은 서로 연관 내용으로 판단되어 분류가 가능하다. 예를 들면 클래스 1(가슴)은 클래스 11(손가락)과 일반적으로 독립적이다. 하지만 클래스 10(손)과 클래스 11(손가락)은 서로 연관된 내용으로 이루어진 클래스이다[Yao J., Zhang Z., Antani S., Long R., and Thoma G. "Automatic medical image annotation and retrieval", Neurocomputing 71, 2012-2022, 2008.]. 이처럼 클래스간의 연관된 특징들은 유사성 특징에도 크게 작용된다. Classes of X-ray image information used in the experiment for the present invention can be classified as independent or related to each other. For example, class 1 (the chest) is generally independent of class 11 (the fingers). However, class 10 (hand) and class 11 (finger) are related classes [Yao J., Zhang Z., Antani S., Long R., and Thoma G. "Automatic medical image annotation and retrieval", Neurocomputing 71, 2012-2022, 2008.]. As such, the associated features between the classes also greatly affect the similarity features.

이에 본 발명은 상기 앙상블 벡터간의 클래스 관련성을 이용한 CCV(Correlated Categories Vector)를 생성한다. Accordingly, the present invention generates a CCV (Correlated Categories Vector) using the class association between the ensemble vectors.

상기 CCV 생성부(106)는 도 6에 도시한 바와 같이 질의 영상정보에 대한 앙상블 벡터를 추출하고 수학식 8을 만족하는 CCV에서 i번째 차원에 대해 유사성 판단 결과를 나타내는 ‘1’또는 ‘0’을 기록한다. As shown in FIG. 6, the CCV generator 106 extracts an ensemble vector for the query image information and indicates '1' or '0' indicating a similarity determination result for the i-th dimension in the CCV satisfying Equation 8. Record it.

Figure 112009019054204-pat00024
Figure 112009019054204-pat00024

상기 수학식 8에서 θ는 관련된 카테고리를 결정하기 위한 결정 값이고,

Figure 112009019054204-pat00025
는 앙상블 벡터의 i번째 차원의 멤버십 스코어이다. 여기서, θ는 0.5의 값으로 설정될 수 있다. Θ in Equation 8 is a determination value for determining the relevant category,
Figure 112009019054204-pat00025
Is the membership score of the i-th dimension of the ensemble vector. Here, θ may be set to a value of 0.5.

상기한 CCV 생성후, 유사성 측정은 일치하는 i번째 차원의 CCV 코드가 ‘1’일 때 i번째 앙상블 벡터의 값들로만 실행된다. After the above CCV generation, the similarity measure is performed only with the values of the i th ensemble vector when the corresponding i th dimension CCV code is '1'.

상기 앙상블 벡터와 상기 CCV를 이용하여, 최종 거리는 아래 수학식 9를 통해 측정되고, 가장 유사한 영상이 최종 거리의 오름차순으로 나타낸다.Using the ensemble vector and the CCV, the final distance is measured by Equation 9 below, and the most similar images are shown in ascending order of the final distance.

Figure 112009019054204-pat00026
Figure 112009019054204-pat00026

상기 수학식 9에서

Figure 112009019054204-pat00027
는 i번째 질의 앙상블 벡터의 멤버십 스코어이고,
Figure 112009019054204-pat00028
는 i번째 목표(데이터베이스) 앙상블 벡터의 멤버십 스코어이다. M은 CCV에 포함된 ‘1’들의 수이고,
Figure 112009019054204-pat00029
Figure 112009019054204-pat00030
는 각각 H-CSD와 EHD를 위한 멤버십 스코어의 가중치이다.
Figure 112009019054204-pat00031
Figure 112009019054204-pat00032
의 값 결정을 위하여, 모든 카테고리에서 임의로 다섯개의 영상 선택을 기반으로 다른 값들을 이용하여 정확한 평균이 계산된다. In Equation 9
Figure 112009019054204-pat00027
Is the membership score of the i th ensemble vector,
Figure 112009019054204-pat00028
Is the membership score of the i th target (database) ensemble vector. M is the number of '1's included in the CCV,
Figure 112009019054204-pat00029
Wow
Figure 112009019054204-pat00030
Is the weight of the membership score for H-CSD and EHD, respectively.
Figure 112009019054204-pat00031
Wow
Figure 112009019054204-pat00032
To determine the value of, an accurate average is calculated using different values based on a randomly selected five image selection in all categories.

도 7에서 보이는 것과 같이 실험을 통해

Figure 112009019054204-pat00033
Figure 112009019054204-pat00034
는 각각 0.3과 0.7을 주었을 때, 정확(precision) 정도는 상대적으로 높다. 또한 결과에서 EHD는 의료 영상 분류를 위하여 중요한 특징임을 확인하였다. 따라서 본 발명에서는
Figure 112009019054204-pat00035
Figure 112009019054204-pat00036
를 각각 0.3과 0.7로 설정하였다.Through experiment as shown in Figure 7
Figure 112009019054204-pat00033
Wow
Figure 112009019054204-pat00034
Given 0.3 and 0.7, respectively, the precision is relatively high. The results also confirm that EHD is an important feature for medical image classification. Therefore, in the present invention
Figure 112009019054204-pat00035
Wow
Figure 112009019054204-pat00036
Was set to 0.3 and 0.7, respectively.

여기서, 실험을 위해서 IRMA(Image Retrieval in Medical Application)[Vapnik V., "The Nature of Statistical Learning Theory." Springer-Verlag, 1999., Deselaers T. "The CLEF 2005 Automatic Medical Image Annotation Task", International Journal of Computer Vision 74, 55-58, 2007.]에서 사용된 1000개의 영상(20개 클래스)을 사용하였다. Here, for experiments, IRMA (Image Retrieval in Medical Application) [Vapnik V., "The Nature of Statistical Learning Theory." Springer-Verlag, 1999., Deselaers T. "The CLEF 2005 Automatic Medical Image Annotation Task", International Journal of Computer Vision 74, 55-58, 2007.] used 1000 images (20 classes).

도 8은 각 클래스별 이름과 실험에 사용된 영상의 수를 보여준다.8 shows the name of each class and the number of images used in the experiment.

도 9는 MISS의 인터페이스의 메인 화면이다. 본 발명에서 제안하는 방법(앙상블 벡터 + CCV)의 성능을 확인하기 위한 비교실험으로 CCV를 제외시킨 앙상블 벡터만을 사용하는 방법과 Addition 방법을 사용한다. Addition 방법은 H-CSD 의 SVM을 통한 멤버십 스코어 값과 EHD 의 멤버십 스코어 값을 각 클래스별 해당 되는 값들을 각각 더한 방법이다. 9 is a main screen of an interface of the MISS. As a comparative experiment for verifying the performance of the method proposed in the present invention (ensemble vector + CCV), a method using only an ensemble vector without CCV and an addition method are used. Addition method is a method that adds the membership score value through SVM of H-CSD and the membership score value of EHD, respectively.

도 1은 본 발명의 바람직한 실시예에 따르는 의료 영상 분류 장치의 구성도. 1 is a block diagram of a medical image classification apparatus according to a preferred embodiment of the present invention.

도 2는 본 발명의 바람직한 실시예에 따른 색 구조 기술자에 따른 특징벡터 검출과정을 도시한 도면. 2 is a diagram illustrating a feature vector detection process according to a color structure descriptor according to a preferred embodiment of the present invention.

도 3은 본 발명의 바람직한 실시예에 따른 서브 영상 및 영상 블록의 정의와 경계 추출을 위한 다섯 가지 경계선 필터를 도시한 도면.FIG. 3 illustrates five boundary filters for definition and boundary extraction of sub-images and image blocks according to an exemplary embodiment of the present invention. FIG.

도 4는 본 발명에 따른 각 클래스별 이름과 학습된 영상의 수를 도시한 도면.4 is a view showing the name of each class and the number of learned images according to the present invention.

도 5는 본 발명에 따른 학습 처리과정 및 데이터베이스 영상들을 위한 앙상블 벡터 생성과정을 도시한 도면. 5 is a diagram illustrating a learning process and an ensemble vector generation process for database images according to the present invention.

도 6은 본 발명에 따른 유사성 측정 처리과정을 도시한 도면. 6 illustrates a similarity measurement process according to the present invention.

도 7은 본 발명에 따른 각각 다른 가중치 간의 성능을 비교한 도면. Figure 7 is a comparison of the performance between different weights in accordance with the present invention.

도 8은 본 발명에 따른 각 클래스별 이름과 실험된 영상의 수를 도시한 도면. 8 is a view showing the name of each class and the number of experimented images according to the present invention.

도 9는 본 발명에 따른 의료 영상 검색 시스템인 MISS 인터페이스 메인 화면을 도시한 도면. 9 is a diagram illustrating a main screen of the MISS interface, which is a medical image retrieval system according to the present invention;

Claims (14)

영상정보 분류방법에 있어서, In the video information classification method, 영상정보를 입력받아 색 구조 기술자에 따른 제1특징 벡터를 검출하는 단계;Receiving first image information and detecting a first feature vector according to a color structure descriptor; 상기 영상정보를 입력받아 경계선 히스토그램 기술자에 따른 제2특징벡터를 검출하는 단계;Receiving the image information and detecting a second feature vector according to a boundary histogram descriptor; 상기 제1 및 제2특징벡터를 다수의 클래스에 각각 대응되는 클래스 분류자 각각에 대해 어느 정도 근접한지를 나타내는 다수의 멤버십 스코어를 생성하는 단계; Generating a plurality of membership scores indicating how close the first and second feature vectors are to respective class classifiers respectively corresponding to the plurality of classes; 상기 다수의 멤버십 스코어를 결합하여 앙상블 벡터를 생성하는 단계;Combining the plurality of membership scores to generate an ensemble vector; 상기 앙상블 벡터를 상기 입력된 영상정보에 대응되게 저장하는 단계;Storing the ensemble vector corresponding to the input image information; 상기 앙상블 벡터로 구성되는 다수의 멤버십 스코어 각각과 미리 저장된 관련 카테고리에 대응되는 영상정보의 앙상블 벡터에 포함된 다수의 멤버십 스코어 각각에 대해 유사성 판단 결과를 나타내는 CCV(Correlated Categories Vector)를 생성하고, Generating a CCV (Correlated Categories Vector) indicating a similarity determination result for each of the plurality of membership scores composed of the ensemble vectors and each of the plurality of membership scores included in an ensemble vector of image information corresponding to a pre-stored related category, 상기 CCV와 상기 앙상블 벡터를 이용하여 관련 카테고리에 대한 유사성을 나타내는 최종 거리를 산출하는 단계; Calculating a final distance indicating similarity to a related category using the CCV and the ensemble vector; 를 포함하여, 상기 다수의 멤버십 스코어가 상기 영상정보의 분류정보가 됨을 특징으로 하는 영상정보 분류방법. And the plurality of membership scores are classification information of the image information. 삭제delete 삭제delete 제1항에 있어서, The method of claim 1, 상기 CCV는 수학식 10에 따라 산출되고, The CCV is calculated according to Equation 10, 상기 최종 거리는 수학식 11에 따라 산출됨을 특징으로 하는 영상정보 분류방법. The final distance is calculated according to Equation (11).
Figure 112011007708479-pat00046
Figure 112011007708479-pat00046
상기 수학식 10에서 θ는 관련 카테고리를 결정하기 위한 결정 값이고,
Figure 112011007708479-pat00047
는 앙상블 벡터의 i번째 차원의 멤버십 스코어임.
In Equation 10, θ is a determination value for determining a related category,
Figure 112011007708479-pat00047
Is the membership score of the i-th dimension of the ensemble vector.
Figure 112011007708479-pat00048
Figure 112011007708479-pat00048
상기 수학식 11에서
Figure 112011007708479-pat00049
는 i번째 입력된 영상정보에 따른 앙상블 벡터의 멤버십 스코어이고,
Figure 112011007708479-pat00050
는 i번째 관련 카테고리에 대응되는 영상정보의 앙상블 벡터의 멤버십 스코어이고, M은 CCV에 포함된 ‘1’들의 수이고,
Figure 112011007708479-pat00051
Figure 112011007708479-pat00052
는 각각 멤버십 스코어의 가중치임.
In Equation 11
Figure 112011007708479-pat00049
Is the membership score of the ensemble vector according to the i-th input image information,
Figure 112011007708479-pat00050
Is the membership score of the ensemble vector of the image information corresponding to the i-th related category, M is the number of '1's included in the CCV,
Figure 112011007708479-pat00051
Wow
Figure 112011007708479-pat00052
Are the weights of each membership score.
제1항에 있어서, The method of claim 1, 상기 제1특징 벡터는 입력 영상을 다수의 블록으로 분할하고, 각 블록 중 배경에 대응되는 블록을 제거하고, 나머지 블록에 대해 색 구조 기술자를 검출하여 생성함을 특징으로 하는 영상정보 분류방법.The first feature vector divides an input image into a plurality of blocks, removes a block corresponding to a background of each block, and detects and generates a color structure descriptor for the remaining blocks. 제1항에 있어서, The method of claim 1, 상기 제2특징 벡터는 입력 영상을 다수의 블록으로 분할한 후에 각 블록에 대해 경계선 히스토그램 기술자를 검출하여 생성함을 특징으로 하는 영상정보 분류방법. And the second feature vector divides the input image into a plurality of blocks and detects and generates a border histogram descriptor for each block. 제6항에 있어서, The method of claim 6, 상기 제2특징 벡터는 입력 영상정보에 대해 전역적 또는 반전역적으로 경계 선 히스토그램 기술자를 검출하여 생성함을 특징으로 하는 영상정보 분류방법. And the second feature vector is generated by detecting boundary histogram descriptors globally or inversely with respect to the input image information. 영상정보 분류장치에 있어서, In the video information classification apparatus, 영상정보를 입력받아 색 구조 기술자에 따른 제1특징 벡터를 검출하는 색 구조 기술자에 따른 특징벡터 검출부;A feature vector detection unit according to a color structure descriptor that receives image information and detects a first feature vector according to the color structure descriptor; 상기 영상정보를 입력받아 경계선 히스토그램 기술자에 따른 제2특징벡터를 검출하는 경계선 히스토그램 기술자에 따른 특징벡터 검출부;A feature vector detection unit according to an edge line histogram descriptor that receives the image information and detects a second feature vector according to an edge line histogram descriptor; 상기 제1 및 제2특징벡터를 다수의 클래스에 각각 대응되는 클래스 분류자 각각에 대해 어느 정도 근접한지를 나타내는 다수의 멤버십 스코어를 생성하고, 상기 다수의 멤버십 스코어를 결합하여 앙상블 벡터를 생성하며, 상기 앙상블 벡터를 상기 입력된 영상정보에 대응되게 저장매체에 저장하는 클래스 분류부; 및 Generating a plurality of membership scores indicating how close the first and second feature vectors are to respective class classifiers respectively corresponding to the plurality of classes, combining the plurality of membership scores to generate an ensemble vector, and A class classifier configured to store an ensemble vector in a storage medium corresponding to the input image information; And 상기 앙상블 벡터로 구성되는 다수의 멤버십 스코어 각각과 미리 저장된 관련 카테고리에 대응되는 영상정보의 앙상블 벡터에 포함된 다수의 멤버십 스코어 각각에 대해 유사성 판단 결과를 나타내는 CCV(Correlated Categories Vector)를 생성하고, Generating a CCV (Correlated Categories Vector) indicating a similarity determination result for each of the plurality of membership scores composed of the ensemble vectors and each of the plurality of membership scores included in an ensemble vector of image information corresponding to a pre-stored related category, 상기 CCV와 상기 앙상블 벡터를 이용하여 관련 카테고리에 대한 유사성을 나타내는 최종 거리를 산출하는 유사정보 생성부;를 포함하며,And a similarity information generation unit configured to calculate a final distance indicating similarity with respect to a related category using the CCV and the ensemble vector. 상기 다수의 멤버십 스코어가 상기 영상정보의 분류정보가 됨을 특징으로 하는 영상정보 분류장치. And the plurality of membership scores are classification information of the image information. 삭제delete 삭제delete 제8항에 있어서, The method of claim 8, 상기 CCV는 수학식 12에 따라 산출되고, The CCV is calculated according to Equation 12, 상기 최종 거리는 수학식 13에 따라 산출됨을 특징으로 하는 영상정보 분류장치. And the final distance is calculated according to equation (13).
Figure 112011039532930-pat00053
Figure 112011039532930-pat00053
상기 수학식 12에서 θ는 관련 카테고리를 결정하기 위한 결정 값이고,
Figure 112011039532930-pat00054
는 앙상블 벡터의 i번째 차원의 멤버십 스코어임.
Θ in Equation 12 is a determination value for determining the relevant category,
Figure 112011039532930-pat00054
Is the membership score of the i-th dimension of the ensemble vector.
Figure 112011039532930-pat00055
Figure 112011039532930-pat00055
상기 수학식 13에서
Figure 112011039532930-pat00056
는 i번째 입력된 영상정보에 따른 앙상블 벡터의 멤버십 스코어이고,
Figure 112011039532930-pat00057
는 i번째 관련 카테고리에 대응되는 영상정보의 앙상블 벡터의 멤버십 스코어이고, M은 CCV에 포함된 ‘1’들의 수이고,
Figure 112011039532930-pat00058
Figure 112011039532930-pat00059
는 각각 멤버십 스코어의 가중치임.
In Equation 13
Figure 112011039532930-pat00056
Is the membership score of the ensemble vector according to the i-th input image information,
Figure 112011039532930-pat00057
Is the membership score of the ensemble vector of the image information corresponding to the i-th related category, M is the number of '1's included in the CCV,
Figure 112011039532930-pat00058
Wow
Figure 112011039532930-pat00059
Are the weights of each membership score.
제8항에 있어서, The method of claim 8, 상기 제1특징 벡터는 입력 영상을 다수의 블록으로 분할하고, 각 블록 중 배경에 대응되는 블록을 제거하고, 나머지 블록에 대해 색 구조 기술자를 검출하여 생성함을 특징으로 하는 영상정보 분류장치.The first feature vector divides an input image into a plurality of blocks, removes a block corresponding to a background among the blocks, and detects and generates a color structure descriptor for the remaining blocks. 제8항에 있어서, The method of claim 8, 상기 제2특징 벡터는 입력 영상을 다수의 블록으로 분할한 후에 각 블록에 대해 경계선 히스토그램 기술자를 검출하여 생성함을 특징으로 하는 영상정보 분류장치. And the second feature vector divides the input image into a plurality of blocks and detects and generates a border histogram descriptor for each block. 제13항에 있어서, The method of claim 13, 상기 제2특징 벡터는 입력 영상정보에 대해 전역적 또는 반전역적으로 경계선 히스토그램 기술자를 검출하여 생성함을 특징으로 하는 영상정보 분류장치. And the second feature vector detects and generates a border histogram descriptor globally or inversely with respect to the input image information.
KR1020090026977A 2009-03-30 2009-03-30 Image information classification method and apparatus KR101093107B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090026977A KR101093107B1 (en) 2009-03-30 2009-03-30 Image information classification method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090026977A KR101093107B1 (en) 2009-03-30 2009-03-30 Image information classification method and apparatus

Publications (2)

Publication Number Publication Date
KR20100108778A KR20100108778A (en) 2010-10-08
KR101093107B1 true KR101093107B1 (en) 2011-12-13

Family

ID=43129997

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090026977A KR101093107B1 (en) 2009-03-30 2009-03-30 Image information classification method and apparatus

Country Status (1)

Country Link
KR (1) KR101093107B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101323369B1 (en) * 2012-09-21 2013-10-30 한양대학교 에리카산학협력단 Apparatus and method for clustering video frames
KR101443187B1 (en) * 2012-12-24 2014-09-19 계명대학교 산학협력단 medical image retrieval method based on image clustering
KR101598873B1 (en) * 2014-01-20 2016-03-02 한국과학기술원 Automatic feature detection device and method using multi-variablization of images for classification of images
KR101685821B1 (en) * 2015-06-18 2016-12-13 인하대학교 산학협력단 Method and System for Body and ROI Segmentation for Chest X-ray Images
KR101685823B1 (en) * 2015-06-18 2016-12-21 인하대학교 산학협력단 Method and System for Visual Quality Enhancement for Chest X-ray Images
CN108009984B (en) * 2017-11-21 2020-07-07 中国地质大学(武汉) Water environment monitoring-oriented water surface saliency area detection method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
논문1:한국정보처리학회*
논문2:한국화상학회*
논문3:경북대학교*

Also Published As

Publication number Publication date
KR20100108778A (en) 2010-10-08

Similar Documents

Publication Publication Date Title
US8165410B2 (en) Bags of visual context-dependent words for generic visual categorization
EP2064677B1 (en) Extracting dominant colors from images using classification techniques
CN102007499B (en) Detecting facial expressions in digital images
Dou et al. A fast template matching-based algorithm for railway bolts detection
JP2010507139A (en) Face-based image clustering
KR101093107B1 (en) Image information classification method and apparatus
CN109993201A (en) A kind of image processing method, device and readable storage medium storing program for executing
CN109213886B (en) Image retrieval method and system based on image segmentation and fuzzy pattern recognition
Puspaningrum et al. Waste classification using support vector machine with SIFT-PCA feature extraction
JPWO2015146113A1 (en) Identification dictionary learning system, identification dictionary learning method, and identification dictionary learning program
Taschwer et al. Automatic separation of compound figures in scientific articles
Wei et al. Food image classification and image retrieval based on visual features and machine learning
Xu et al. Robust seed localization and growing with deep convolutional features for scene text detection
Chakraborty et al. Application of daisy descriptor for language identification in the wild
Abdallah et al. Facial-expression recognition based on a low-dimensional temporal feature space
Cheng et al. Automatic detection of arrow annotation overlays in biomedical images
KR102230559B1 (en) Method and Apparatus for Creating Labeling Model with Data Programming
Guironnet et al. Video classification based on low-level feature fusion model
CN115203408A (en) Intelligent labeling method for multi-modal test data
KR20210031444A (en) Method and Apparatus for Creating Labeling Model with Data Programming
Gopalan et al. Statistical modeling for the detection, localization and extraction of text from heterogeneous textual images using combined feature scheme
Calarasanu et al. From text detection to text segmentation: a unified evaluation scheme
CN109993178B (en) Feature data generation and feature matching method and device
Boparai et al. A hybrid approach for improving content based image retrieval systems
Sruthi et al. Double-handed dynamic gesture recognition using contour-based hand tracking and maximum mean probability ensembling (MMPE) for Indian Sign language

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150306

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151201

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee