KR20030005908A - apparatus and method for representative feature extraction of objects and, its application to content-based image retrieval - Google Patents

apparatus and method for representative feature extraction of objects and, its application to content-based image retrieval Download PDF

Info

Publication number
KR20030005908A
KR20030005908A KR1020010041376A KR20010041376A KR20030005908A KR 20030005908 A KR20030005908 A KR 20030005908A KR 1020010041376 A KR1020010041376 A KR 1020010041376A KR 20010041376 A KR20010041376 A KR 20010041376A KR 20030005908 A KR20030005908 A KR 20030005908A
Authority
KR
South Korea
Prior art keywords
feature
image
pixel
value
vector
Prior art date
Application number
KR1020010041376A
Other languages
Korean (ko)
Inventor
장동식
유헌우
송문호
Original Assignee
주식회사 오픈비주얼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 오픈비주얼 filed Critical 주식회사 오픈비주얼
Priority to KR1020010041376A priority Critical patent/KR20030005908A/en
Publication of KR20030005908A publication Critical patent/KR20030005908A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PURPOSE: An apparatus and a method for content-based image retrieval using extraction of object features of an image are provided to promptly extract representative colors and quality features of objects constructing a still image by using a VQ vector clustering algorithm. CONSTITUTION: An apparatus for content-based image retrieval using extraction of object features of an image includes a first converting part(10) converting image data of RGB color models inputted from the outside into image data of HSV color models; a second converting part(20) converting the image data of RGB models into gray pixel values; a feature extracting part(30) extracting color features of each pixel output from the first converting part, and quality features of each pixel output from the second converting part, a VQ(Vector Quantization) part(50) clustering eight-dimensional vector output from the feature extracting part, and a feature DB(60) storing each cluster clustered at the VQ part.

Description

영상의 객체 특징 추출과 이를 이용한 내용 기반 영상 검색 장치 및 방법{apparatus and method for representative feature extraction of objects and, its application to content-based image retrieval}Apparatus and method for representative feature extraction of objects and, its application to content-based image retrieval}

본 발명은 디지털 영상처리기술을 이용한 영상의 분석 및 검색 시스템에 관한 것으로, 특히 VQ(Vector Quantization) 벡터 클러스터링 알고리즘을 통한 영상의 객체 특징 추출과 이를 이용한 내용 기반 영상을 검색하는 장치 및 방법에 관한 것이다.The present invention relates to an image analysis and retrieval system using digital image processing technology, and more particularly, to an apparatus feature and method for extracting object features of an image through a vector quantization (VQ) vector clustering algorithm and a content-based image retrieval using the same. .

최근 컴퓨터와 통신기술의 발달과 더불어 멀티미디어 정보 서비스에 대한 요구가 증가하고 있으며, 인터넷상의 정지화상 및 동영상검색, 방송제작에 사용될 VOD(Video On Demand) 서비스, 전자도서관, 의료분야(원격진료, 의료영상검색)등 응용될 수 있는 멀티미디어 검색기술에 대한 연구의 필요성이 증가되고 있다.Recently, with the development of computer and communication technology, the demand for multimedia information service is increasing, and VOD (Video On Demand) service, electronic library, medical field (remote medical care, medical service) to be used for still image and video search and broadcasting production on the Internet There is an increasing need for research on multimedia retrieval technology that can be applied.

연구 초기에는 검색의 대상이 되는 모든 멀티미디어 데이터에 사람이 직접 색인을 첨가하고, 사용자 또한 주제어를 이용하여 원하는 정보를 검색하는 텍스트 기반 검색이 사용되어 왔다.In the early stages of research, text-based retrieval has been used in which humans directly index all the multimedia data to be searched, and users also search for desired information by using keywords.

그러나 이 방법은 시간 및 비용이 많이 들며, 색인을 첨가하는 사람과 검색하는 사용자의 관점이 불일치할 경우 검색의 효율성이 크게 떨어지게 된다. 또한 멀티미디어 데이터가 가지는 복잡한 속성을 텍스트만으로는 정확하게 표현할 수 없다는 단점을 가지고 있다.However, this method is time-consuming and expensive, and the search efficiency is greatly reduced if the indexer's and searcher's views are inconsistent. In addition, the complex attribute of multimedia data has a disadvantage that can not accurately represent only text.

이를 보완하기 위해 멀티미디어 데이터의 내용을 대표할 수 있는 특징을 추출하여 이를 기반으로 색인과 검출을 수행하는 내용기반 검색방법이 필요하게 되었다. 이 방법은 멀티미디어 데이터로부터 특징을 자동으로 추출하여 색인과정에 사용함으로써, 데이터베이스 구축에 필요한 시간 및 인력의 소모를 줄일 수 있다는 장점이 있어 현재 많은 연구 이루어지고 있다.To compensate for this, there is a need for a content-based retrieval method that extracts features that can represent the contents of multimedia data and performs indexing and detection based on them. This method has the advantage of reducing the time and manpower required to build a database by automatically extracting features from multimedia data and using them in the indexing process.

현재 대표적인 내용기반 영상 검색 시스템으로는 IBM사의 QBIC, Virabe사의 Virage, Interpix Software사의 Image Surfer, 콜롬비아 대학의 VisualSEEK, 시카고 대학교의 WebSeer, Excalibur사의 Excalibur Visual RetrievalWare 등이 있다.Typical content-based image retrieval systems include IBM's QBIC, Virabe's Virage, Interpix Software's Image Surfer, Columbia University's VisualSEEK, University of Chicago WebSeer and Excalibur's Excalibur Visual RetrievalWare.

이 시스템들은 내용기반 영상 검색을 위해 한 영상을 구성하는 객체들을 정확히 분할(segmentation)하여 분할된 각 객체들을 대표하는 대표특징을 추출한 후 이를 영상 검색에 이용함으로써, 영상에서 검색을 원하는 객체에 대한 명확한 질의가 가능하도록 하고 있다.These systems accurately segment the objects constituting an image for content-based image retrieval, extract representative features representing each segmented object, and then use it for image retrieval, thereby clearly identifying the object to be retrieved from the image. Inquiries are made possible.

그러나 실제로 한 영상을 구성하는 객체들을 정확하게 분할하기란 쉽지 않다.However, it is not easy to accurately divide the objects that make up an image.

따라서, 이를 해결하기 위해 영상내의 한 객체는 유사한 색상과 질감특징을 갖는다고 보고, 한 영상에서 추출한 특징치들을 EM(Expectation-Maximization)이란 패턴 분류 알고리즘을 통해 클러스터링(clustering)하여 이를 검색에 이용하는 Region-Based Query에 관한 연구가 진행중이다(Serge Belongie, Chad Carson, Hayit greenspan, and Jitendra Malik, "Color and Texture-Based Image Segmentation Using EM and Its Application to Content-Based Image Retrieval", Sixth Intenational Conference on Computer Vison, pp.675~682, January. 1998).Therefore, to solve this problem, one object in the image is regarded as having similar color and texture features, and the feature values extracted from one image are clustered through a pattern classification algorithm called Expectation-Maximization (EM) and used for searching. A study on base-based queries is underway (Serge Belongie, Chad Carson, Hayit greenspan, and Jitendra Malik, "Color and Texture-Based Image Segmentation Using EM and Its Application to Content-Based Image Retrieval", Sixth Intenational Conference on Computer Vison , pp. 675-682, January 1998).

그러나 상기 EM 알고리즘은 클러스터링 될 클러스터 수를 미리 정해주어야 하며, 임의의 여러 클러스터 수에 대한 클러스터링 결과 중 영상을 구성하는 주요 개체 수만큼 가장 적절하게 분류된 클러스터 수를 선정해야 한다. 그러므로, 객체의 대표 특징을 추출하는데 많은 시간이 소요되고, 또한 한 영상의 내용을 적절하게 표현하는 대표 특징치를 추출하기가 쉽지 않은 문제가 있다.However, the EM algorithm must predetermine the number of clusters to be clustered, and select the number of clusters that are most appropriately classified as the number of main entities constituting the image among the clustering results for any number of clusters. Therefore, it takes a long time to extract the representative feature of the object, and there is a problem that it is not easy to extract the representative feature value that properly represents the content of one image.

따라서 본 발명은 상기와 같은 문제점을 해결하기 위해 안출한 것으로서, 한 영상의 내용을 적절하게 표현하는 대표 객체 특성을 빠르게 추출하고 이를 영상검색에 이용함으로써, 내용 기반의 영상 검색이 가능한 장치 및 방법을 제공하는데 그 목적이 있다.Therefore, the present invention has been made to solve the above problems, by using a fast image extraction and representative object properties that properly represent the content of a video image search, apparatus and method capable of content-based image search The purpose is to provide.

본 발명의 다른 목적은 내용 기반의 영상 검색을 통해 객체의 위치, 회전 및 크기변화에 무관한 영상 검색이 가능한 장치 및 방법을 제공하는데 있다.Another object of the present invention is to provide an apparatus and method capable of searching an image regardless of the position, rotation, and size change of an object through content-based image retrieval.

도 1 은 본 발명에 따른 정지영상의 객체 특징을 추출하기 위한 장치를 나타낸 도면1 is a view showing an apparatus for extracting an object feature of a still image according to the present invention

도 2 는 본 발명에 따른 영상의 객체 특징을 추출하기 위한 방법을 나타낸 도면2 is a diagram illustrating a method for extracting object features of an image according to the present invention.

도 3 은 본 발명에 따른 VQ 벡터 클러스터링 알고리즘을 나타낸 흐름도3 is a flowchart illustrating a VQ vector clustering algorithm according to the present invention.

도 4 는 본 발명에 따른 대표 특징치 영상을 나타낸 실시예4 is a view showing a representative feature image according to the present invention;

도 5 은 본 발명에 따른 영상 검색 과정을 나타낸 흐름도5 is a flowchart illustrating an image retrieval process according to the present invention.

도 6 은 본 발명에 따른 색상 테이블을 갖는 질의 영상과 DB내 영상을 나타낸 실시예6 is a view showing a query image having a color table and an image in a DB according to the present invention;

도 7 은 본 발명에 따른 클러스터링에 소요되는 시간을 종래와 비교한 그래프7 is a graph comparing the time required for clustering according to the present invention with the prior art

*도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

10 : 제 1 변환부20 : 제 2 변환부10: first conversion unit 20: second conversion unit

30 : 색상 특징 추출부40 : 질감 특징 추출부30: color feature extraction unit 40: texture feature extraction unit

50 : VQ 부60 : 특징치 DB50: VQ part 60: feature value DB

상기와 같은 목적을 달성하기 위한 본 발명에 따른 영상의 객체 특징 추출 장치의 특징은 외부에서 입력되는 RGB 색상모델의 영상데이터를 HSV 색상모델의 영상으로 변환하는 제 1 변환부와, 외부에서 입력되는 RGB 모델의 영상데이터를 그레이 화소값으로 변환하는 제 2 변환부와, 상기 제 1 변환부에서 변환되어 출력되는 각 화소의 색상 특징과, 상기 제 2 변환부에서 변환되어 출력되는 각 화소의 질감 특징치를 추출하는 특징 추출부와, 상기 특징 추출부에서 출력되는 8차원 벡터를 클러스터링하는 VQ부와, 상기 VQ부에서 클러스터링된 각각의 클러스터를 저장하는특징치 DB를 포함하여 구성되는데 있다.Features of the object feature extraction apparatus of the image according to the present invention for achieving the above object is a first conversion unit for converting the image data of the RGB color model input from the outside into the image of the HSV color model, and is input from the outside A second converter converting the image data of the RGB model into gray pixel values, a color feature of each pixel converted and output by the first converter, and a texture feature of each pixel converted and output by the second converter It includes a feature extraction unit for extracting a value, a VQ unit for clustering the 8-dimensional vector output from the feature extraction unit, and a feature value DB for storing each cluster clustered in the VQ unit.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 영상의 객체 특징 추출 방법의 특징은 외부에서 RGB 모델의 영상데이터가 입력되면, 상기 RGB 모델의 영상데이터를 HSV 모델의 영상데이터와 그레이 화소값으로 변환하는 단계와, 상기 HSV모델로 변환된 영상 데이터로 각 화소별 색도, 채도, 명도인 3개의 색상 특징을 추출하고, 상기 그레이 화소값으로 변환된 영상데이터로 각 화소간의 ASM(Angular Second Moment), 대비(contrast), 연관성(correlation), 분산(variance), 혼잡도(entropy)인 5개의 질감 특징치를 추출하는 단계와, 상기 추출된 5개의 질감 특징치를 해당 영역안의 모든 화소에 각각 부여하여 각 화소가 8차원 특징치 벡터를 갖도록 하는 단계와, 상기 8차원 특정치 벡터를 갖는 각 화소를 VQ(Vector Quantization) 벡터 클러스터링 알고리즘을 이용하여 클러스터링을 수행하여 군집화된 클러스터를 생성하고, 특정치 DB에 저장하는 단계를 포함하여 이루어지는데 있다.A feature of the object feature extraction method of an image according to the present invention for achieving the above object is that when the image data of the RGB model is input from the outside, the image data of the RGB model is converted into image data and gray pixel values of the HSV model Extracting three color features of each pixel using the image data converted into the HSV model, and converting the image data converted into gray pixel values into the ASM (Angular Second Moment) between the pixels; Extracting five texture feature values of contrast, correlation, variance, and entropy, and assigning each of the extracted five texture feature values to all the pixels in the corresponding area. A step of having an eight-dimensional feature vector and clustering each pixel having the eight-dimensional feature vector using a vector quantization (VQ) vector clustering algorithm. Create a cluster by grouping and makin it comprises the step of storing the specific value DB.

이때 상기 VQ 벡터 클러스터링 알고리즘은 클러스터링 과정에서 사용할 군집화 범위를 지정하기 위한 임계값을 지정하는 단계와, 화소 단위로 8차원 특징치 벡터가 입력되면 입력된 화소에 벡터 데이터가 존재하는지 판단하는 제 1 판단 단계와, 상기 제 1 판단결과 벡터 데이터가 존재하지 않으면, 한 영상에 대한 클러스터링이 모두 끝난 것으로 판단하여, 실행을 종료하는 단계와, 상기 제 1 판단결과 벡터 데이터가 존재하면, 특징치 DB에 클러스터가 존재하는지 판단하는 제 2 판단 단계와, 상기 제 2 판단 결과, 특징치 DB에 저장된 클러스터가 없으면, 해당 화소의특징치 벡터를 중심값으로 하는 새로운 클러스터를 생성하고, 이를 특징치 DB에 저장하는 단계와, 상기 제 2 판단 결과, 특징치 DB에 저장된 클러스터가 있으면, 입력 데이터와 저장된 모든 클러스터들의 중심값 사이의 거리를 측정하고 이중 가장 가까운 최소 거리를 갖는 클러스터를 검색하는 단계와, 상기 검색된 최소 거리와 상기 지정된 임계값과 비교하는 단계와, 상기 비교 결과, 최소 거리가 정의된 임계값 보다 적으면, 입력 데이터를 선택된 클러스터의 멤버로 포함하여 군집화시키고, 상기 클러스터의 중심값은 새롭게 계산하는 단계와, 상기 비교 결과, 최소 거리가 정의된 임계값보다 크면, 입력 데이터를 중심값으로 하는 새로운 클러스터를 생성하는 단계를 포함하여 이루어지는데 다른 특징이 있다.In this case, the VQ vector clustering algorithm designates a threshold value for designating a clustering range to be used in the clustering process, and when an 8-dimensional feature vector is input for each pixel, a first determination for determining whether vector data exists in the input pixel. And if the first determination result vector data does not exist, determining that clustering for one image is finished, and ending the execution; and if the first determination result vector data exists, clustering the feature value DB. In the second determination step of determining whether or not there is, and if there is no cluster stored in the feature value DB, a new cluster having a feature value vector of the pixel as a center value is generated and stored in the feature value DB. And if there is a cluster stored in the feature value DB as a result of the second determination, the input data and all stored Measuring the distance between the centers of the studs and searching for a cluster having the closest minimum distance, comparing the retrieved minimum distance with the specified threshold, and as a result of the comparison, a threshold with a defined minimum distance If less, the input data is included as a member of the selected cluster and clustered, and the center value of the cluster is newly calculated. When the comparison results, the minimum distance is greater than the defined threshold value, the input data is used as the center value. There is another feature, which involves creating a new cluster.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 영상의 객체 특징 추출을 이용한 내용 기반 영상 검색 방법의 특징은 검색하고자 하는 관심 객체의 정지 영상을 스캐너 또는 인터넷 등을 통해 이미지 파일인 질의 영상을 준비하는 단계와, 상기 질의 영상을 VQ 벡터 클러스터링 알고리즘을 이용하여 다수개 클러스터의 대표 특징치로 추출, 선정하고 특징치 DB에 저장하는 단계와, 상기 특징치 DB에 저장된 8차원 특징치 중 색상 특징만을 이용하여 색상 테이블을 생성하는 단계와, 상기 생성된 색상 테이블에 표시된 다수의 대표 색상 중 검색을 원하는 객체의 해당 색상을 선택하는 단계와, 상기 선택한 해당 색상의 대표 특징치와 특징치 DB에 저장된 다수 객체들의 대표 특징치들 간의 유사도를 계산하는 단계와, 상기 유사도 계산을 통해 유사도가 가까운 순으로 대표 특징치에 따른 영상을 사용자에게 제공하는 단계를 포함하여 이루어지는데 있다.A feature of the content-based image retrieval method using object feature extraction of an image according to the present invention for achieving the above object is to prepare a query image, which is an image file of a still image of the object of interest to be searched through a scanner or the Internet. And extracting, selecting, and storing the query image as a representative feature value of a plurality of clusters using a VQ vector clustering algorithm, and storing the selected feature image in a feature value DB, and using only color features among 8-dimensional feature values stored in the feature value DB. Generating a color table, selecting a corresponding color of an object to be searched among a plurality of representative colors displayed in the generated color table, and representing a representative feature value of the selected corresponding color and a plurality of objects stored in a feature value DB. Calculating the similarity between the representative feature values, and the similarity is calculated through the similarity calculation. And providing the user with the image according to the representative feature value in the order of luck.

본 발명의 다른 목적, 특성 첨부한 도면을 참조한 실시예들의 상세한 설명을 통해 명백해질 것이다.Other objects, features of the present invention will become apparent from the detailed description of the embodiments with reference to the accompanying drawings.

본 발명에 따른 영상의 객체 특징을 추출과 이를 이용한 내용 기반 영상 검색 장치 및 방법의 바람직한 실시예에 대하여 첨부한 도면을 참조하여 설명하면 다음과 같다.Exemplary embodiments of an apparatus and method for extracting an object feature of an image and a content-based image retrieval method using the same according to the present invention will be described below with reference to the accompanying drawings.

도 1 은 본 발명에 따른 정지영상의 객체 특징을 추출하기 위한 장치를 나타낸 도면이다.1 is a diagram illustrating an apparatus for extracting an object feature of a still image according to the present invention.

도 1을 보면, 외부에서 입력되는 RGB 색상모델의 영상데이터를 HSV 색상모델의 영상으로 변환하는 제 1 변환부(10)와, 외부에서 입력되는 RGB 모델의 영상데이터를 그레이 화소값으로 변환하는 제 2 변환부(20)와, 상기 제 1 변환부(10)에서 변환되어 출력되는 각 화소의 색도(hue), 채도(saturation), 명도(value)인 3개의 색상 특징을 추출하는 색상 특징 추출부(30)와, 공통발생 매트릭스(co-occurrence matrix)를 이용하여 각 화소간의 ASM(Angular Second Moment), 대비(contrast), 연관성(correlation), 분산(variance), 혼잡도(entropy)인 5개의 질감 특징치를 추출하고 이를 각 화소에 부여하는 질감 특징 추출부(40)와, 상기 색상 특징 추출부(30)와 질감 특징 추출부(40)에서 출력되는 각 화소의 색상 및 질감 특징치인 8차원 벡터를 클러스터링하는 VQ부(50)와, 상기 VQ부(50)에서 클러스터링된 각각의 클러스터를 저장하는 특징치 DB(60)로 구성된다.Referring to FIG. 1, a first converting unit 10 for converting image data of an RGB color model input from an external source into an image of an HSV color model, and a second conversion unit for converting image data of an RGB model input from an external source into gray pixel values. A color feature extraction unit for extracting three color features of hue, saturation, and brightness of each pixel converted and output by the second converter 20 and the first converter 10. 30 and five textures, which are Angular Second Moment, Contrast, Correlation, Variance, and Entropy, between each pixel using a co-occurrence matrix. A texture feature extractor 40 which extracts feature values and assigns them to each pixel, and an 8-dimensional vector which is a color and texture feature value of each pixel output from the color feature extractor 30 and the texture feature extractor 40. A clustered VQ unit 50 and each clustered in the VQ unit 50 It consists of the feature value DB 60 which stores a cluster.

이와 같이 구성된 영상의 객체 특징을 추출하기 위한 장치의 동작을 도면을 참조하여 상세히 살펴보면 다음과 같다.An operation of an apparatus for extracting an object feature of an image configured as described above will be described in detail with reference to the accompanying drawings.

도 2 는 본 발명에 따른 영상의 객체 특징을 추출하기 위한 방법을 나타낸 도면이다.2 is a diagram illustrating a method for extracting object features of an image according to the present invention.

도 2를 보면, 먼저 외부에서 RGB 모델의 영상데이터가 입력되면(S10), 상기 RGB 모델의 영상데이터를 제 1 변환부(10)를 통해 HSV 모델의 영상데이터로 변환하고, 제 2 변환부(20)를 통해 그레이 화소값으로 변환한다(S20). 이때 상기 제 1 변환부(10)는 다음 수학식 1, 2, 3과 같이 수행한다.Referring to FIG. 2, when image data of an RGB model is input from the outside (S10), the image data of the RGB model is converted into image data of the HSV model through the first converter 10, and the second converter ( In operation 20, the gray pixel value is converted into a gray pixel value. At this time, the first converter 10 performs the following equations (1, 2, 3).

여기서,이다.here, to be.

이어 RGB 모델의 영상데이터가 제 1 변환부(10)에 의해 HSV 모델의 영상데이터로 변환되었는지, 또는 제 2 변환부(20)에 의해 그레이 화소값으로 변환되었는지 판단한다(S20).Next, it is determined whether the image data of the RGB model is converted into the image data of the HSV model by the first converter 10 or the gray pixel value by the second converter 20 (S20).

이어 RGB 모델의 영상데이터가 상기 제 1 변환부(10)에서 HSV모델로 변환된 영상 데이터를 색상 특징 추출부(30)에서 각 화소별 색도, 채도, 명도인 3개의 색상 특징을 추출한다(S40).Subsequently, the color data extractor 30 extracts three color features of each pixel, that is, chromaticity, saturation, and brightness, from the image data converted from the RGB model to the HSV model by the first converter 10 (S40). ).

그리고 RGB 모델의 영상데이터가 상기 제 2 변환부(20)에서 그레이 화소값으로 변환된 영상데이터를 질감 특징 추출부(40)에서 각 화소간의 ASM(Angular Second Moment), 대비(contrast), 연관성(correlation), 분산(variance), 혼잡도(entropy)인 5개의 질감 특징치를 추출한다(S50).In addition, the texture data extractor 40 converts the image data of the RGB model into gray pixel values by the second converter 20, and performs an ASM (contrast) and correlation (ASM) between the pixels. Five texture feature values of correlation, variance, and entropy are extracted (S50).

이때 상기 질감 특징치를 추출하는 방법을 보면 먼저, 공통발생 매트릭스(co-occurrence matrix)를 이용하여 각 화소간의 ASM(Angular Second Moment), 대비(contrast), 연관성(correlation), 분산(variance), 혼잡도(entropy)인 5개의 질감 특징을 추출한다.At this time, the method of extracting the texture feature value firstly uses an Angular Second Moment (ASM), contrast, correlation, variance, and congestion between pixels using a co-occurrence matrix. Extract five texture features that are entropy.

이때, ASM과 혼잡도는 영상의 균일성을 나타내며, 대비는 영상 안에서 나타나는 대조성과 지역적 변동성을 나타내며, 연관성은 그레이 톤(gray-tone)의 선형적 의존성을 나타낸다. 그리고 분산은 인접 화소의 그레이 레벨(gray-level)차에 대한 산포도를 나타낸다.In this case, ASM and congestion represent image uniformity, contrast represents contrast and regional variability appearing in the image, and correlation represents linear dependence of gray-tone. The variance represents the scatter plot for the gray-level difference of adjacent pixels.

따라서 질감 특징을 얻기 위해서는 한 영상을 7 x 7, 즉 49개의 영역으로 나누어 각 블록에 대해 먼저 정규화된 4방향(0°,90°,45°,135°)의 그레이 레벨 공통발생 매트릭스를 계산한 후, 이들 매트릭스로부터 질감 특징치를 추출하여 평균함으로써, 회전에 무관한 질감 특징치를 얻게 된다.Therefore, in order to obtain a texture feature, one image is divided into 7 x 7, or 49 regions, and the gray level common matrix in the four normalized directions (0 °, 90 °, 45 °, 135 °) is first calculated for each block. The texture feature values are then extracted and averaged from these matrices to obtain texture feature independent of rotation.

이를 수학식으로 표현하면 다음과 같다.This is expressed as an equation.

먼저, 정규화 되기 전 매트릭스의 각 엔트리의 값은 아래와 같은 정의에 의해 얻을 수 있다.First, the value of each entry of the matrix before normalization can be obtained by the following definition.

P(i,j,d,방향) : 각 방향에 대한 매트릭스 i행 j열 entry의 값P (i, j, d, direction): The value of matrix i row j column entry for each direction

Lx = {1,2,...,Nx), Ly = {1,2,...,Ny), G = {1,2,...,Ng)Lx = (1,2, ..., Nx), Ly = (1,2, ..., Ny), G = (1,2, ..., Ng)

영상(image) I : Ly ×Lx -> GImage I: Ly × Lx-> G

Nx : 영상의 가로방향 화소수Nx: the number of horizontal pixels in the image

Ny : 영상의 세로방향 화소수Ny: Number of pixels vertical

Ng : 그레이 레벨Ng: Gray Level

d : 계산에 고려할 이웃 화소와의 거리d: distance from neighboring pixels to consider in calculation

num : 정의를 만족하는 계수num: the coefficient that satisfies the definition

이와 같이 매트릭스의 각 엔트리 값을 계산한 후 각 방향에 대해 아래와 같은 R값으로 각 엔트리를 나눠줌으로써, 정규화하여 4방향(0°,90°,45°,135°)에 대한 각각의 그레이 레벨 공통발생 매트릭스를 얻을 수 있다.After calculating each entry value of the matrix in this way, each entry is divided by the following R value for each direction, and normalized to each gray level common in four directions (0 °, 90 °, 45 °, 135 °). The generation matrix can be obtained.

0°: R = 2Ly(Lx-1)90°: R = 2Lx(Ly-1)0 °: R = 2Ly (Lx-1) 90 °: R = 2Lx (Ly-1)

45°: R = 2(Ly-1)(Lx-1)135°: R = 2(Lx-1)(Ly-1)45 °: R = 2 (Ly-1) (Lx-1) 135 °: R = 2 (Lx-1) (Ly-1)

그리고 상기 방법을 통해 얻은 매트릭스를 이용하여 수학식 4 내지 수학식 8과 같이 계산함으로써 각 질감 특징치를 얻게 된다.And by using the matrix obtained through the above method to calculate each texture feature value as shown in equations (4) to (8).

여기서, p(i,j) : 그레이 레벨 공통발생 매트릭스의 (i,j)째 엔트리Where p (i, j) is the (i, j) th entry of the gray level common occurrence matrix

Ng : 그레이 레벨Ng: Gray Level

: Px와 Py의 평균과 표준편차 : Mean and standard deviation of P x and P y

mu : 그레이 레벨 공통발생 매트릭스의 평균mu: mean of the gray level common matrices

Px: p(i,j)의 행을 합하여 얻은 주변 확률 매트릭스P x : marginal probability matrix obtained by summing the rows of p (i, j)

Py: p(i,j)의 열을 합하여 얻은 주변 확률 매트릭스P y : The marginal probability matrix obtained by summing the columns of p (i, j)

이때 색상 특징 추출부(30)에서의 색상특징은 각 화소로부터 추출하며, 질감 특징 추출부(40)에서의 질감특징은 인접화소간의 관계를 통해서 추출하게 된다.At this time, the color feature in the color feature extractor 30 is extracted from each pixel, and the texture feature in the texture feature extractor 40 is extracted through the relationship between adjacent pixels.

따라서 색상특징은 화소단위 특징인 반면, 질감특징은 지역단위 특징이다.Therefore, color features are pixel-specific, while texture features are local.

그러므로 VQ(Vector Quantization) 벡터 클러스터링 알고리즘을 이용하기 위해서는 질감 특징치를 영역안의 모든 화소에 부여하는 방법을 통하여 질감 특징도가 화소단위 특징치를 갖도록 변환하여야 한다(S60).Therefore, in order to use the vector quantization (VQ) vector clustering algorithm, the texture characteristic value must be converted to have the pixel unit feature value by applying the texture feature value to all the pixels in the region (S60).

그래서 각 블록의 질감 특징치 5개를 그 블록안의 모든 화소에 부여함으로써, 색상 특징치 3개와 더불어 각 화소는 8차원 특징치 벡터를 갖게 된다(S70).Thus, by giving five texture feature values of each block to all the pixels in the block, each pixel together with the three color feature values has an eight-dimensional feature value vector (S70).

이를 VQ(Vector Quantization) 벡터 클러스터링 알고리즘을 이용하여 클러스터링을 수행한 후(S80), 특징치 DB(60)에 저장한다(S90).After clustering is performed using the VQ (Vector Quantization) vector clustering algorithm (S80), the cluster is stored in the feature value DB 60 (S90).

이 특징치 DB(60)에 저장된 군집화된 8차원 특징치 벡터는 차후 객체의 대표 특징치 추출을 위한 데이터로 사용된다.The clustered eight-dimensional feature vector stored in the feature DB DB 60 is used as data for extracting representative feature values of the object later.

이때, 상기 VQ 벡터 클러스터링 알고리즘을 도면을 참조하여 상세히 설명하면 다음과 같다.In this case, the VQ vector clustering algorithm will be described in detail with reference to the accompanying drawings.

도 3 은 본 발명에 따른 VQ 벡터 클러스터링 알고리즘을 나타낸 흐름도이다.3 is a flowchart illustrating a VQ vector clustering algorithm according to the present invention.

도 3을 참조하여 설명하면, 먼저 클러스터링 과정에서 사용할 군집화 범위를 지정하기 위한 임계값을 미리 지정하여 준다(S100).Referring to FIG. 3, first, a threshold value for specifying a clustering range to be used in a clustering process is previously designated (S100).

상기 임계값은 데이터의 차원(dimension)과 특성, 그리고 데이터가 갖는 범위 등을 고려하여, 적절한 임계값을 결정하여 주어야 한다.The threshold value should be determined in consideration of the dimensions and characteristics of the data, the range of the data, and the like.

만약, 임계값을 너무 작게 하면 한 객체에 대해 여러 개로 클러스터링 되고, 임계값을 너무 크게 하면 여러 객체의 특징이 한 클러스터로 클러스터링 되는 좋지 않은 결과를 낳는다.If the threshold value is too small, clustering multiple objects for an object will result in a bad result. If the threshold value is too large, the characteristics of multiple objects will be clustered in one cluster.

그래서 가장 적절한 임계값을 설정하는 것이 중요한데, 각 영상을 구성하는 객체들마다 필요로 하는 임계값을 다르기 때문에 이를 모두 만족하는 임계값 선정은 불가능하다. 본 발명에서는 바람직하게 0.4를 임계값으로 사용한다.Therefore, it is important to set the most appropriate threshold value, and it is impossible to select a threshold value that satisfies all the threshold values required for each object constituting each image. In the present invention, preferably 0.4 is used as the threshold.

이와 같이 임계값이 정해지면, 화소 단위로 8차원 특징치 벡터를 입력받는다(S110).When the threshold value is determined as described above, an 8-dimensional feature vector is received in pixel units (S110).

그리고 입력된 화소에 클러스터링 n-차원 벡터 데이터가 존재하는지 판단한다(S120). 즉, 한 영상의 모든 화소에 대해 클러스터링이 이루어지면, 더 이상은 n-차원 벡터 데이터가 존재하지 않게 된다.In operation S120, it is determined whether clustering n-dimensional vector data exists in the input pixel. That is, when clustering is performed for all pixels of one image, there is no longer n-dimensional vector data.

따라서, 상기 판단결과 n-차원 벡터 데이터가 존재하지 않으면, 한 영상에 대한 클러스터링이 모두 끝난 것으로 판단하여, 실행을 종료한다.Therefore, if the n-dimensional vector data does not exist as a result of the determination, it is determined that all clustering for one image is finished, and the execution ends.

그리고 상기 판단결과 n-차원 벡터 데이터가 존재하면, 현재 특징치 DB(60)에 클러스터가 존재하는지 판단한다(S130).If the n-dimensional vector data exists as a result of the determination, it is determined whether a cluster exists in the current feature value DB 60 (S130).

상기 판단 결과, 특징치 DB(60)에 저장되어 있는 클러스터가 없는 경우는 해당 화소의 특징치 벡터를 중심값으로 하는 새로운 클러스터를 생성하고, 이를 특징치 DB(60)에 저장한다. 즉, 첫 번째 입력 데이터가 첫 번째 클러스터가 되며, 또한 그 벡터 값이 클러스터의 중심값이 된다(S180).As a result of the determination, when there is no cluster stored in the feature value DB 60, a new cluster having a center value of the feature value vector of the pixel is generated and stored in the feature value DB 60. That is, the first input data becomes the first cluster, and the vector value becomes the center value of the cluster (S180).

상기 판단 결과, 특징치 DB(60)에 클러스터가 저장되어 있으면, 입력 데이터와 저장되어 있는 모든 클러스터들의 중심값 사이의 거리를 측정한다(S140).As a result of the determination, if the cluster is stored in the feature value DB 60, the distance between the input data and the center value of all the stored clusters is measured (S140).

그리고 상기 측정된 입력 데이터와 클러스터의 거리 중 가장 가까운 거리를 갖는 클러스터를 검색한다(S150).The cluster having the closest distance among the measured input data and the distance of the cluster is searched for (S150).

이때, 상기 가장 가까운 거리를 갖는 클러스터를 찾는 방법은 다음 수학식 9, 10을 통해서 계산된다.At this time, the method for finding the cluster having the closest distance is calculated through the following equations (9) and (10).

, 여기서 , here

여기서, X(p): p번째 입력벡터,N : 벡터 차원Where X (p) is the pth input vector, and N is the vector dimension.

Cj: j번째 클러스터(cluster)의 중심값C j : Center of the j th cluster

Ck: 입력 데이터와 가장 가까운 클러스터의 중심값C k : Center of cluster closest to input data

Nx: 클러스터 포함 멤버(데이터) 수N x : number of members (data)

Sk: k 번째 클러스터 집합S k : k th cluster set

그리고 이렇게 구해진 해당 클러스터와 해당 화소의 특징치 벡터의 거리를 지정한 임계값과 비교한다(S160).In operation S160, the distance between the obtained cluster and the feature value vector of the corresponding pixel is compared with a specified threshold value.

상기 비교 결과, 최소 거리가 정의된 임계값인 0.4보다 적으면, 이 입력 데이터를 선택된 클러스터의 멤버로 포함하여 군집화시킨다. 그리고 해당 화소를 포함시킨 클러스터의 중심값은 상기 수학식 11에 의하여 새롭게 계산한다.As a result of the comparison, if the minimum distance is less than 0.4, which is a defined threshold value, the input data is included as a member of the selected cluster and clustered. The center value of the cluster including the pixel is newly calculated by Equation 11.

한편, 상기 비교 결과, 상기 구해진 해당 클러스터와 해당 화소의 특징치 벡터의 거리가 정의된 임계값인 0.4보다 크면, 현재 특징치 DB(60)에 저장된 클러스터 중 해당 화소와 클러스터링될 클러스터가 존재하지 않는 것으로 판단하여, 입력 데이터를 중심값으로 하는 새로운 클러스터를 생성한다. 이때도, 첫 번째 화소의 특징치 벡터가 첫 클러스터의 중심값이 된다(S180).Meanwhile, as a result of the comparison, if the distance between the obtained cluster and the feature vector of the pixel is larger than 0.4, which is a defined threshold value, there is no cluster to be clustered with the pixel among the clusters currently stored in the feature value DB 60. In response to the determination, a new cluster having the center of the input data is created. In this case, the feature value vector of the first pixel becomes the center value of the first cluster (S180).

이와 같이, 상기 VQ 벡터 클러스터링 알고리즘은 분류될 데이터의 클러스터링 개수를 미리 정하여 주지 않아도 적절한 클러스터링 개수만큼 데이터를 자동적으로 군집화하여 분류한다.As such, the VQ vector clustering algorithm automatically clusters and classifies the data as much as the appropriate clustering number without predefining the clustering number of the data to be classified.

이런 특징을 사용함으로써, EM 알고리즘을 비롯한 다른 알고리즘에 비해 VQ 알고리즘은 영상을 구성하는 주요 객체의 수만큼 비교적 유연하게 대표 특징을 추출할 수 있고, 또한 특징 추출 시간을 줄일 수 있다.By using this feature, the VQ algorithm can extract representative features relatively flexibly as the number of main objects constituting the image, and also reduce the feature extraction time, compared to other algorithms including the EM algorithm.

그리고 특징 추출 시간을 줄이기 위한 다른 방법으로 클러스터를 추출하기 위한 영상 데이터가 가로 192 화소, 세로 128 화소 영상을 사용한다고 할 때, 영상이 갖는 총 화소는 192 x 128 = 24,576개가된다.As another method for reducing feature extraction time, when image data for extracting a cluster uses a horizontal 192 pixel and a vertical 128 pixel image, the total number of pixels included in the image is 192 x 128 = 24,576.

그러면, VQ 벡터 클러스터링 알고리즘이 수행하여야 할 입력 벡터 수도 24,576 개가된다.Then, the number of input vectors to be performed by the VQ vector clustering algorithm is 24,576.

이때, 영상에서는 인접 화소간에는 중복성(redundancy)에 의하여 질감 특징과 색상특징이 비슷하므로, 모든 화소의 특징치 벡터를 사용하는 것은 불필요하게 소요시간만 늘릴 뿐이다.In this case, since the texture feature and the color feature are similar to each other in the image due to redundancy between adjacent pixels, use of the feature value vector of all the pixels only increases the time required unnecessarily.

따라서 영상에서 수평과 수직방향으로 두 화소씩 건너뛰면서 입력 벡터로 사용할 화소의 특징치를 샘플링하여 수행한다.Therefore, the image is performed by sampling feature values of a pixel to be used as an input vector while skipping each pixel horizontally and vertically.

이에 따라 한 영상 당 2,752개의 입력 벡터만 사용하면 되기 때문에 VQ 벡터 클러스터링 알고리즘 이용을 위한 입력 벡터 수를 약 1/9로 줄일 수 있게 된다.Accordingly, since only 2,752 input vectors need to be used per image, the number of input vectors for using the VQ vector clustering algorithm can be reduced to about 1/9.

이와 같은 방법으로 도 4와 같은 정지 영상을 VQ 벡터 클러스터링 알고리즘을 이용하여 추출된 클러스터 4개의 대표 특징치는 표 1과 같이 계산되어 특징치 DB(60)에 저장된다.In this manner, the representative feature values of the four clusters extracted from the still image of FIG. 4 using the VQ vector clustering algorithm are calculated as shown in Table 1 and stored in the feature value DB 60.

이는 도 4의 영상을 구성하는 주요 클러스터인 하늘, 집, 짚, 잔디에 관한 대표 특징치가 8차원 벡터로 나타남을 볼 수 있다.It can be seen that the representative feature values of the sky, the house, the straw, and the grass, which are the main clusters constituting the image of FIG. 4, are represented by 8-dimensional vectors.

객 체Object 하늘sky House straw 잔디grass 클러스터cluster 1One 22 33 44 멤버수Number of members 748748 422422 370370 290290 중심값Center 색도Chromaticity 0.56530.5653 0.05760.0576 0.09040.0904 0.33190.3319 채도saturation 0.38200.3820 0.30250.3025 0.43570.4357 0.24400.2440 명도brightness 0.43000.4300 0.40140.4014 0.62910.6291 0.33960.3396 ASMASM 0.01510.0151 0.00170.0017 0.00130.0013 0.00300.0030 대비prepare 0.00650.0065 0.02940.0294 0.03990.0399 0.01930.0193 연관성correlation 0.76900.7690 0.69320.6932 0.59690.5969 0.65050.6505 분산Dispersion 0.02560.0256 0.09950.0995 0.10060.1006 0.06010.0601 혼잡도Congestion 0.41840.4184 0.59010.5901 0.60140.6014 0.57790.5779

다음으로 상기 특징치 DB(60)에 저장된 영상의 객체 특징 추출을 이용하여 내용 기반에 따른 영상을 검색하는 방법을 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다.Next, a method of searching for an image based on content based on object feature extraction of an image stored in the feature value DB 60 will be described in detail with reference to the accompanying drawings.

도 5 은 본 발명에 따른 영상 검색 과정을 나타낸 흐름도이다.5 is a flowchart illustrating an image search process according to the present invention.

도 5를 참조하여 설명하면, 먼저 사용자는 검색하고자 하는 관심 객체의 정지 영상을 스캐너 또는 인터넷 등을 통해 이미지 파일로 준비한다(S190).Referring to FIG. 5, first, a user prepares a still image of an object of interest to be searched as an image file through a scanner or the Internet (S190).

그리고 상기 준비된 이미지 파일, 즉 질의 영상을 위에서 설명된 VQ 벡터 클러스터링 알고리즘을 이용하여 다수개 클러스터의 대표 특징치로 추출, 선정하고 특징치 DB(60)에 저장한다(S200).The prepared image file, that is, the query image, is extracted, selected as a representative feature value of a plurality of clusters using the VQ vector clustering algorithm described above, and stored in the feature value DB 60 (S200).

이어 이렇게 얻어진 다수개의 각 클러스터의 중심값을 특징치 DB(60)에서 검출하고, 이 8차원 특징치 중 색상 특징인 색상, 채도, 명도만을 이용하여 색상 테이블을 생성한다(S210).Subsequently, the center values of the plurality of clusters thus obtained are detected by the feature value DB 60, and a color table is generated using only hue, saturation, and lightness, which are color features, among the 8D feature values (S210).

즉, 도 6과 같이, 사용자가 준비한 질의 영상을 이용하여 주요 대표 특징치 4개가 선정된 색상테이블을 제공받게 된다.That is, as shown in FIG. 6, the user is provided with a color table in which four main feature values are selected using a query image prepared by the user.

그러면 사용자는 상기 색상 테이블에 표시된 대표 색상 중 검색을 원하는 객체의 해당 색상을 선택한다(S220).Then, the user selects a corresponding color of the object to be searched among the representative colors displayed in the color table (S220).

이어 상기 사용자가 선택한 해당 색상의 대표 특징치와 특징치 DB(60)에 각 정지영상마다 계산해 놓은 다수개의 객체들의 대표 특징치들 간의 유사도 계산을 수행한다(S230).Subsequently, a similarity calculation between the representative feature value of the corresponding color selected by the user and the representative feature values of the plurality of objects calculated for each still image in the feature value DB 60 is performed (S230).

이때, 상기 유사도 계산을 위해서는 각 특징치들 간의 거리계산이 필요한데, 이는 다음 수학식 12와 같이 가중치를 준 유클리디언 거리 계산법을 이용하여 계산한다.In this case, distance calculation between the feature values is required for the similarity calculation, which is calculated using a weighted Euclidean distance calculation method as in Equation 12 below.

여기서, Q : 질의 영상에 관한 인덱스,Where Q is the index for the query image,

D : 특징치 DB내 영상에 관한 인덱스,D: index about image in feature value DB,

H : 색도(hue),S : 채도(saturation),V : 명도(value),H: hue, S: saturation, V: brightness,

ASM : Angular Second Moment,CON : 대비(contrast),ASM: Angular Second Moment, CON: Contrast,

COR : 연관성(correlation),VAR : 분산(variance),COR: correlation, VAR: variance,

ETRP : 혼잡도(entropy),ETRP: entropy,

w1-w8: 각 특징치에 대한 가중치,w9: 색상 특징에 대한 가중치,w 1 -w 8 : weight for each feature, w 9 : weight for color features,

w10: 질감 특징에 대한 가중치.w 10 : Weight for texture features.

이와 같이 계산된 가중치는 특징치 DB(60)안의 여러 클러스터에 대한 테스트를 거쳐 가장 효과적인 것으로 결정한다.The weight calculated in this way is determined to be the most effective through the test on the various clusters in the feature value DB (60).

본 발명에서는 바람직한 실시예로 거리 계산을 위한 가중치로는 색상과 질감특징에 각각 0.5로 통일된 가중치를 주었으며, 색상특징에 대해서 색도는 0.44, 채도와 명도는 0.28로, 색도에 더 많은 중요도를 부과했다. 그리고 질감특징은 5개 모두 0.2로 동일하게 가중치를 주었다.In the present invention, as a weight for calculating distances, the weight is uniformly assigned to 0.5 for color and texture features, and 0.44 for chroma features, 0.28 for saturation and brightness, and more importance for chroma. did. The texture features were all weighted equally to 0.2.

이 가중치의 값은 효과적인 검색 결과를 보기 위한 바람직한 값들이다.The value of this weight is a desirable value for viewing the effective search results.

그리고 유사도 SQD는 수학식 13에 의해서 두 객체 특징치 간의 유사도를 0~1 사이의 값으로 표현했다. 또 색상과 질감이 전혀 다른 객체인 경우는 0에 가까운 값으로, 그리고 동일한 객체간의 유사도는 1로 표현한다.Similarity S QD is expressed by a similarity between two object feature values as a value between 0 and 1 by Equation 13. In the case of objects with completely different colors and textures, the value is close to 0, and the similarity between the same objects is expressed as 1.

이와 같은 유사도 계산을 통해 유사도가 가까운 순으로 대표 특징치에 따른 영상을 사용자에게 다수 개 제공한다(S240).Through the similarity calculation, a plurality of images according to the representative feature values are provided to the user in the order of similarity (S240).

다음과 같은 방법으로 VQ 벡터 클러스터링 알고리즘과 EM 알고리즘의 클러스터링 소요시간을 비교한 결과를 보면, 도 7과 같이 EM이 VQ에 비해 대략 1.4배정도의 시간이 더 소요됨을 알 수 있다.As a result of comparing the clustering time of the VQ vector clustering algorithm and the EM algorithm in the following manner, it can be seen that EM takes 1.4 times longer than VQ as shown in FIG. 7.

이상에서 설명한 바와 같은 본 발명에 따른 영상의 객체 특징 추출과 이를 이용한 내용 기반 영상 검색 장치 및 방법은 다음과 같은 효과가 있다.As described above, the object feature extraction of the image and the content-based image retrieval apparatus and method using the same have the following effects.

첫째, 일반적인 색상과 질감 특징 추출방법과 더불어 VQ 벡터 클러스터링 알고리즘을 이용하여 정지 영상을 구성하고 있는 객체들의 대표 색상과 질감 특징을 빠르게 추출할 수 있다.First, it is possible to quickly extract the representative color and texture features of the objects constituting still images using the VQ vector clustering algorithm in addition to the general color and texture feature extraction methods.

둘째, 상기 첫째 효과에서 추출된 특징치를 내용 기반 검색에 이용함으로써 정지영상의 내용에 근거한 검색을 하였고, 객체 단위 검색을 함으로써, 객체의 위치, 회전 및 크기변화에 무관한 검색을 가능하게 할 수 있다.Second, by using the feature value extracted from the first effect in the content-based search, the search based on the contents of the still image can be searched, and by searching by the object, it is possible to search irrespective of the position, rotation and size change of the object. .

이상 설명한 내용을 통해 당업자라면 본 발명의 기술 사상을 이탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다.Those skilled in the art will appreciate that various changes and modifications can be made without departing from the spirit of the present invention.

따라서, 본 발명의 기술적 범위는 실시예에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의하여 정해져야 한다.Therefore, the technical scope of the present invention should not be limited to the contents described in the embodiments, but should be defined by the claims.

Claims (10)

외부에서 입력되는 RGB 색상모델의 영상데이터를 HSV 색상모델의 영상으로 변환하는 제 1 변환부와,A first converter converting the image data of the RGB color model input from the outside into the image of the HSV color model; 외부에서 입력되는 RGB 모델의 영상데이터를 그레이 화소값으로 변환하는 제 2 변환부와,A second converter for converting image data of an RGB model input from the outside into gray pixel values; 상기 제 1 변환부에서 변환되어 출력되는 각 화소의 색상 특징과, 상기 제 2 변환부에서 변환되어 출력되는 각 화소의 질감 특징치를 추출하는 특징 추출부와,A feature extraction unit for extracting a color feature of each pixel converted and output from the first converter and a texture feature value of each pixel converted and output from the second converter; 상기 특징 추출부에서 출력되는 8차원 벡터를 클러스터링하는 VQ부와,A VQ unit for clustering an 8-dimensional vector output from the feature extractor; 상기 VQ부에서 클러스터링된 각각의 클러스터를 저장하는 특징치 DB를 포함하여 구성되는 것을 특징으로 하는 영상의 객체 특징 추출 장치.And a feature value DB for storing each cluster clustered by the VQ unit. 제 1 항에 있어서, 상기 특징 추출부는The method of claim 1, wherein the feature extraction unit 각 화소의 색도(hue), 채도(saturation), 명도(value)인 3개의 색상 특징을 추출하는 색상 특징 추출부와,A color feature extraction unit for extracting three color features of hue, saturation, and brightness of each pixel; 각 화소간의 ASM(Angular Second Moment), 대비(contrast), 연관성(correlation), 분산(variance), 혼잡도(entropy)인 5개의 질감 특징치를 추출하고 이를 각 화소에 부여하는 질감 특징 추출부를 포함하여 구성되는 것을 특징으로 하는 영상의 객체 특징 추출 장치.It includes a texture feature extraction unit that extracts five texture feature values, such as Angular Second Moment (ASM), contrast, correlation, dispersion, and entropy, between each pixel and assigns them to each pixel. The apparatus for extracting object features of an image, characterized in that 외부에서 RGB 모델의 영상데이터가 입력되면, 상기 RGB 모델의 영상데이터를 HSV 모델의 영상데이터와 그레이 화소값으로 변환하는 단계와,Converting image data of the RGB model into image data of the HSV model and gray pixel values when the image data of the RGB model is input from the outside; 상기 HSV모델로 변환된 영상 데이터로 각 화소별 색도, 채도, 명도인 3개의 색상 특징을 추출하고, 상기 그레이 화소값으로 변환된 영상데이터로 각 화소간의 ASM(Angular Second Moment), 대비(contrast), 연관성(correlation), 분산(variance), 혼잡도(entropy)인 5개의 질감 특징치를 추출하는 단계와,Three color features of each pixel are extracted from the image data converted into the HSV model, and the ASM (Angular Second Moment) and contrast between each pixel is converted into the gray pixel value. Extracting five texture features: correlation, variance, and entropy; 상기 추출된 5개의 질감 특징치를 해당 영역안의 모든 화소에 각각 부여하여 각 화소가 8차원 특징치 벡터를 갖도록 하는 단계와,Assigning the extracted five texture feature values to all the pixels in the corresponding area so that each pixel has an eight-dimensional feature vector; 상기 8차원 특정치 벡터를 갖는 각 화소를 VQ(Vector Quantization) 벡터 클러스터링 알고리즘을 이용하여 클러스터링을 수행하여 군집화된 클러스터를 생성하고, 특정치 DB에 저장하는 단계를 포함하여 이루어지는 것을 특징으로 하는 영상의 객체 특징 추출 방법.Performing clustering on each pixel having the 8-dimensional specific value vector using a vector quantization (VQ) vector clustering algorithm to generate a clustered cluster and storing the cluster in a specific value DB. Object feature extraction method. 제 3 항에 있어서, 상기 VQ 벡터 클러스터링 알고리즘은4. The method of claim 3, wherein the VQ vector clustering algorithm is 클러스터링 과정에서 사용할 군집화 범위를 지정하기 위한 임계값을 지정하는 단계와,Specifying a threshold for specifying a clustering range to use during the clustering process, 화소 단위로 8차원 특징치 벡터가 입력되면 입력된 화소에 벡터 데이터가 존재하는지 판단하는 제 1 판단 단계와,A first determination step of determining whether vector data exists in the input pixel when an 8-dimensional feature vector is input in pixel units; 상기 제 1 판단결과 벡터 데이터가 존재하지 않으면, 한 영상에 대한 클러스터링이 모두 끝난 것으로 판단하여, 실행을 종료하는 단계와,If it is determined that the vector data does not exist, determining that clustering for one image is finished, and ending execution; 상기 제 1 판단결과 벡터 데이터가 존재하면, 특징치 DB에 클러스터가 존재하는지 판단하는 제 2 판단 단계와,A second determination step of determining whether a cluster exists in a feature value DB when the first determination result vector data exists; 상기 제 2 판단 결과, 특징치 DB에 저장된 클러스터가 없으면, 해당 화소의 특징치 벡터를 중심값으로 하는 새로운 클러스터를 생성하고, 이를 특징치 DB에 저장하는 단계와,If there is no cluster stored in the feature value DB as a result of the second determination, generating a new cluster having the feature value vector of the corresponding pixel as a center value and storing it in the feature value DB; 상기 제 2 판단 결과, 특징치 DB에 저장된 클러스터가 있으면, 입력 데이터와 저장된 모든 클러스터들의 중심값 사이의 거리를 측정하고 이중 가장 가까운 최소 거리를 갖는 클러스터를 검색하는 단계와,As a result of the second determination, if there are clusters stored in the feature value DB, measuring a distance between the input data and the center value of all stored clusters and searching for a cluster having the closest minimum distance; 상기 검색된 최소 거리와 상기 지정된 임계값과 비교하는 단계와,Comparing the retrieved minimum distance with the specified threshold value; 상기 비교 결과, 최소 거리가 정의된 임계값 보다 적으면, 입력 데이터를 선택된 클러스터의 멤버로 포함하여 군집화시키고, 상기 클러스터의 중심값은 새롭게 계산하는 단계와,As a result of the comparison, if the minimum distance is less than a defined threshold, including the input data as a member of the selected cluster, clustering the input data, and newly calculating a center value of the cluster; 상기 비교 결과, 최소 거리가 정의된 임계값보다 크면, 입력 데이터를 중심값으로 하는 새로운 클러스터를 생성하는 단계를 포함하여 이루어지는 것을 특징으로 하는 영상의 객체 특징 추출 방법.And generating a new cluster having the input data as a center when the minimum distance is greater than a defined threshold. 제 4 항에 있어서,The method of claim 4, wherein 상기 임계값은 데이터의 차원(dimension)과 특성, 그리고 데이터가 갖는 범위 등을 고려하여 결정하는 것을 특징으로 하는 영상의 객체 특성 추출 방법.The threshold value is determined in consideration of the dimensions (dimensions) and characteristics of the data, the range of the data, etc. The object characteristic extraction method of the image. 제 4 항에 있어서,The method of claim 4, wherein 상기 임계값은 0.4인 것을 특징으로 하는 영상의 객체 특징 추출 방법.The threshold value is an object feature extraction method of an image, characterized in that 0.4. 제 3 항에 있어서,The method of claim 3, wherein 상기 색상 특징의 추출과 질감 특징치의 추출은 입력 영상에서 수평과 수직방향으로 두 화소씩 건너뛰면서 화소의 특징치를 샘플링하여 추출하는 것을 포함하여 이루어지는 것을 특징으로 하는 영상의 객체 특징 추출 방법.The extraction of the color features and the extraction of the texture feature values include extracting and extracting feature values of the pixels by skipping two pixels in the horizontal and vertical directions in the input image. 검색하고자 하는 관심 객체의 정지 영상을 스캐너 또는 인터넷 등을 통해 이미지 파일인 질의 영상을 준비하는 단계와,Preparing a query image, which is an image file, of a still image of the object of interest to be searched through a scanner or the Internet; 상기 질의 영상을 VQ 벡터 클러스터링 알고리즘을 이용하여 다수개 클러스터의 대표 특징치로 추출, 선정하고 특징치 DB에 저장하는 단계와,Extracting and selecting the query image as a representative feature of a plurality of clusters using a VQ vector clustering algorithm, and storing the query image in a feature DB; 상기 특징치 DB에 저장된 8차원 특징치 중 색상 특징만을 이용하여 색상 테이블을 생성하는 단계와,Generating a color table using only color features among 8-dimensional feature values stored in the feature value DB; 상기 생성된 색상 테이블에 표시된 다수의 대표 색상 중 검색을 원하는 객체의 해당 색상을 선택하는 단계와,Selecting a corresponding color of an object to be searched from among a plurality of representative colors displayed in the generated color table; 상기 선택한 해당 색상의 대표 특징치와 특징치 DB에 저장된 다수 객체들의 대표 특징치들 간의 유사도를 계산하는 단계와,Calculating similarity between the representative feature values of the selected corresponding color and the representative feature values of the plurality of objects stored in the feature value DB; 상기 유사도 계산을 통해 유사도가 가까운 순으로 대표 특징치에 따른 영상을 사용자에게 제공하는 단계를 포함하여 이루어지는 것을 특징으로 하는 영상의객체 특징 추출을 이용한 내용 기반 영상 검색 방법.And providing an image according to a representative feature value in order of similarity to the user through the similarity calculation. 제 8 항에 있어서,The method of claim 8, 상기 유사도 계산은 가중치를 준 유클리디언 거리 계산법을 이용하여 계산하는 것을 특징으로 하는 영상의 객체 특징 추출을 이용한 내용 기반 영상 검색 방법.The similarity calculation is a content-based image retrieval method using object feature extraction of an image, characterized in that it is calculated using a weighted Euclidean distance calculation method. 제 9 항에 있어서, 상기 가중치는10. The method of claim 9, wherein the weight is 색상과 질감특징에 0.5, 색상특징에 대해서 색도는 0.44, 채도와 명도는 0.28로, 그리고 질감특징은 5개 모두 0.2로 동일하게 가중치를 준 것을 특징으로 하는 영상의 객체 특징 추출을 이용한 내용 기반 영상 검색 방법.Content-based image using object feature extraction of image, which is equally weighted with 0.5 for color and texture features, 0.44 for color features, 0.44 for saturation and brightness, 0.28 for saturation and brightness, and 0.2 for all five texture features. Search method.
KR1020010041376A 2001-07-10 2001-07-10 apparatus and method for representative feature extraction of objects and, its application to content-based image retrieval KR20030005908A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020010041376A KR20030005908A (en) 2001-07-10 2001-07-10 apparatus and method for representative feature extraction of objects and, its application to content-based image retrieval

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010041376A KR20030005908A (en) 2001-07-10 2001-07-10 apparatus and method for representative feature extraction of objects and, its application to content-based image retrieval

Publications (1)

Publication Number Publication Date
KR20030005908A true KR20030005908A (en) 2003-01-23

Family

ID=27714361

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010041376A KR20030005908A (en) 2001-07-10 2001-07-10 apparatus and method for representative feature extraction of objects and, its application to content-based image retrieval

Country Status (1)

Country Link
KR (1) KR20030005908A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100424401B1 (en) * 2001-11-02 2004-03-24 전자부품연구원 3D Stereoscopic Multiview video system include Searching function
KR100854755B1 (en) * 2006-05-08 2008-08-27 에스케이 텔레콤주식회사 Method and System for Searching The Requested Image Service by Comparing The Objects And Partial Images
KR100920918B1 (en) * 2008-12-29 2009-10-12 주식회사 넥스파시스템 Object detection system and object detection method using codebook algorism
KR100955180B1 (en) * 2008-04-11 2010-04-30 엔에이치엔(주) Method and System for Computing Quality Value of Image
KR101241983B1 (en) * 2011-11-18 2013-03-11 인하대학교 산학협력단 A rotation invariant texture feature extraction method based on sorted neighborhood differences
KR101296734B1 (en) * 2011-12-30 2013-08-20 전남대학교산학협력단 Method for object segmentation by combination of gaussian mixture model and rgb clustering
US10002310B2 (en) 2014-04-29 2018-06-19 At&T Intellectual Property I, L.P. Method and apparatus for organizing media content
US10282055B2 (en) 2012-03-06 2019-05-07 Apple Inc. Ordered processing of edits for a media editing application
US10552016B2 (en) 2012-03-06 2020-02-04 Apple Inc. User interface tools for cropping and straightening image
KR20200069001A (en) * 2018-12-06 2020-06-16 한양대학교 산학협력단 Method for processing color query and Terminal device for performing the same
US10936173B2 (en) 2012-03-06 2021-03-02 Apple Inc. Unified slider control for modifying multiple image properties
CN113223016A (en) * 2021-05-13 2021-08-06 上海西虹桥导航技术有限公司 Image segmentation method and device for plant seedlings, electronic equipment and medium
KR20220040247A (en) 2020-09-23 2022-03-30 펄스나인 주식회사 Device for integrated normalized image search based on parallel search by image category
KR20220040244A (en) 2020-09-23 2022-03-30 펄스나인 주식회사 Method and apparatus for image searching in parallel in multiple image search engines and providing results by integrating

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010003386A (en) * 1999-06-23 2001-01-15 정선종 A apparatus of searching with semantic information in video and method therefor
KR20010002386A (en) * 1999-06-15 2001-01-15 정선종 Image database construction and searching method
KR20010055492A (en) * 1999-12-10 2001-07-04 오길록 Image retrival system and method using image histogram

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010002386A (en) * 1999-06-15 2001-01-15 정선종 Image database construction and searching method
KR20010003386A (en) * 1999-06-23 2001-01-15 정선종 A apparatus of searching with semantic information in video and method therefor
KR20010055492A (en) * 1999-12-10 2001-07-04 오길록 Image retrival system and method using image histogram

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100424401B1 (en) * 2001-11-02 2004-03-24 전자부품연구원 3D Stereoscopic Multiview video system include Searching function
KR100854755B1 (en) * 2006-05-08 2008-08-27 에스케이 텔레콤주식회사 Method and System for Searching The Requested Image Service by Comparing The Objects And Partial Images
KR100955180B1 (en) * 2008-04-11 2010-04-30 엔에이치엔(주) Method and System for Computing Quality Value of Image
KR100920918B1 (en) * 2008-12-29 2009-10-12 주식회사 넥스파시스템 Object detection system and object detection method using codebook algorism
KR101241983B1 (en) * 2011-11-18 2013-03-11 인하대학교 산학협력단 A rotation invariant texture feature extraction method based on sorted neighborhood differences
KR101296734B1 (en) * 2011-12-30 2013-08-20 전남대학교산학협력단 Method for object segmentation by combination of gaussian mixture model and rgb clustering
US10545631B2 (en) 2012-03-06 2020-01-28 Apple Inc. Fanning user interface controls for a media editing application
US10282055B2 (en) 2012-03-06 2019-05-07 Apple Inc. Ordered processing of edits for a media editing application
US10552016B2 (en) 2012-03-06 2020-02-04 Apple Inc. User interface tools for cropping and straightening image
US10936173B2 (en) 2012-03-06 2021-03-02 Apple Inc. Unified slider control for modifying multiple image properties
US10942634B2 (en) 2012-03-06 2021-03-09 Apple Inc. User interface tools for cropping and straightening image
US11119635B2 (en) 2012-03-06 2021-09-14 Apple Inc. Fanning user interface controls for a media editing application
US11481097B2 (en) 2012-03-06 2022-10-25 Apple Inc. User interface tools for cropping and straightening image
US10002310B2 (en) 2014-04-29 2018-06-19 At&T Intellectual Property I, L.P. Method and apparatus for organizing media content
US10860886B2 (en) 2014-04-29 2020-12-08 At&T Intellectual Property I, L.P. Method and apparatus for organizing media content
KR20200069001A (en) * 2018-12-06 2020-06-16 한양대학교 산학협력단 Method for processing color query and Terminal device for performing the same
KR20220040247A (en) 2020-09-23 2022-03-30 펄스나인 주식회사 Device for integrated normalized image search based on parallel search by image category
KR20220040244A (en) 2020-09-23 2022-03-30 펄스나인 주식회사 Method and apparatus for image searching in parallel in multiple image search engines and providing results by integrating
CN113223016A (en) * 2021-05-13 2021-08-06 上海西虹桥导航技术有限公司 Image segmentation method and device for plant seedlings, electronic equipment and medium

Similar Documents

Publication Publication Date Title
Zhang et al. Image retrieval based on color features: An evaluation study
US7031555B2 (en) Perceptual similarity image retrieval
KR100809798B1 (en) Method and apparatus for representing and searching for colour images
US7925650B2 (en) Image management methods, image management systems, and articles of manufacture
EP1036354B1 (en) A scalable solution for image retrieval
US9600738B2 (en) Discriminative embedding of local color names for object retrieval and classification
Su et al. An efficient image retrieval based on HSV color space
EP0961982A1 (en) Image retrieval system
CN101551823A (en) Comprehensive multi-feature image retrieval method
KR20030005908A (en) apparatus and method for representative feature extraction of objects and, its application to content-based image retrieval
JP2005216296A (en) Method for retrieving multi-media using color quantization method based on hmmd color space
EP1315104B1 (en) Image retrieval method and apparatus independent of illumination change
US7466856B2 (en) Image retrieval method and apparatus independent of illumination change
Shih et al. An intelligent content-based image retrieval system based on color, shape and spatial relations
CN112561976A (en) Image dominant color feature extraction method, image retrieval method, storage medium and device
Di Lecce et al. An evaluation of the effectiveness of image features for image retrieval
KR20010011701A (en) A method for extracting characterized vectors in color image and a retrieval method using the characterized vectors
CN108304588B (en) Image retrieval method and system based on k neighbor and fuzzy pattern recognition
KR100312331B1 (en) System and method for searching image based on contents
KR20000014123A (en) Image likeness weighted value adjustment device and method and contents base image search system and method using thereof
JPH08263522A (en) Image retrieving method
KR100574556B1 (en) Apparatus and method for describing color image descriptor and its using apparatus and method for searching multi-media data
KR20030009674A (en) apparatus and method for content-based image retrieval
Chua et al. Color-based pseudo object model for image retrieval with relevance feedback
Di Lecce et al. A Comparative Evaluation of retrieval methods for Duplicate search in Image database

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E601 Decision to refuse application