KR20110123770A - Image identifier extraction device - Google Patents

Image identifier extraction device Download PDF

Info

Publication number
KR20110123770A
KR20110123770A KR1020117021099A KR20117021099A KR20110123770A KR 20110123770 A KR20110123770 A KR 20110123770A KR 1020117021099 A KR1020117021099 A KR 1020117021099A KR 20117021099 A KR20117021099 A KR 20117021099A KR 20110123770 A KR20110123770 A KR 20110123770A
Authority
KR
South Korea
Prior art keywords
value
image
identifier
quantization
dimension
Prior art date
Application number
KR1020117021099A
Other languages
Korean (ko)
Other versions
KR101335902B1 (en
Inventor
고타 이와모토
료마 오아미
Original Assignee
닛본 덴끼 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 닛본 덴끼 가부시끼가이샤 filed Critical 닛본 덴끼 가부시끼가이샤
Publication of KR20110123770A publication Critical patent/KR20110123770A/en
Application granted granted Critical
Publication of KR101335902B1 publication Critical patent/KR101335902B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/421Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation by analysing segments intersecting the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

이 화상 식별자 추출 장치는, 화상 식별자 생성 수단과 부호화 수단을 구비한다. 화상 식별자 생성 수단은, 쌍을 이루는 2개의 부분 영역의 형상의 편성과 쌍을 이루는 2개의 부분 영역의 상대적인 위치 관계 양쪽 모두가, 다른 적어도 1개의 부분 영역 쌍과는 상위한 1이상의 부분 영역 쌍을 포함하는, 화상중의 복수의 부분 영역 쌍에 따라, 화상의 각 부분 영역에서 영역 특징량을 추출해, 그 추출한 각 부분 영역의 영역 특징량에 기초하여, 상기 화상의 식별로 사용하는 화상 식별자를 생성한다. 부호화 수단은, 상기 화상 식별자를 부호화한다.This image identifier extracting apparatus is provided with image identifier generating means and encoding means. The image identifier generating means includes one or more partial region pairs in which both of a pair of shapes of paired subregions and a relative positional relationship of two paired partial regions are different from at least one other partial region pair. According to the plurality of partial region pairs in the image, the region feature amount is extracted from each partial region of the image, and an image identifier used for identification of the image is generated based on the extracted region feature amount of each partial region. do. The encoding means encodes the picture identifier.

Description

화상 식별자 추출 장치{IMAGE IDENTIFIER EXTRACTION DEVICE}Image identifier extraction device {IMAGE IDENTIFIER EXTRACTION DEVICE}

[0001] 본 발명은, 화상을 식별하기 위한 (동일성을 판정하기 위한) 특징량인 화상 식별자를 추출하는 시스템에 관한 것이다.The present invention relates to a system for extracting an image identifier which is a feature amount (for determining identity) for identifying an image.

[0002] 화상 식별자는, 화상을 식별하기 위한 (동일성을 판정하기 위한) 화상 특징량이다. 어느 화상으로부터 추출한 화상 식별자와 다른 화상으로부터 추출한 화상 식별자를 비교하여, 그 비교 결과로부터, 2개의 화상이 동일한 정도를 나타내는 동일성 척도 (일반적으로는, 유사도 또는 거리라고 한다) 를 산출 할 수 있다. 또, 산출한 동일성 척도를 임계값과 비교하여, 2개의 화상이 동일한가 아닌가를 판정 할 수 있다. 여기서 「2개의 화상이 동일」이란, 화상 신호 (화상을 구성하는 화소의 화소 값) 의 레벨로 2개의 화상이 동일한 경우만으로 한정하지 않고, 화상의 압축 형식 (format) 의 변환, 화상의 사이즈/어스펙트비의 변환, 화상의 색조의 조정, 화상에 대한 각종 필터 처리 (선예각화, 평활화 등), 화상에 대한 국소적인 가공 (자막 중첩, 컷아웃 등), 화상의 리캡처링 (recapturing) 등의 각종 개변 처리에 의해, 일방의 화상이 타방의 화상의 복제된 화상인 경우도 포함한다. 화상 식별자를 이용하면, 예를 들어, 화상, 또는 화상의 세트인 동화상의 복제를 검지할 수 있기 때문에, 화상 식별자는 화상 또는 동화상의 불법 복사 검지 시스템 등에 응용할 수 있다.An image identifier is an image feature amount (for determining identity) for identifying an image. By comparing the image identifier extracted from one image and the image identifier extracted from another image, it is possible to calculate an identity measure (typically referred to as similarity or distance) in which two images show the same degree from the comparison result. In addition, it is possible to determine whether two images are the same by comparing the calculated identity measure with a threshold value. Here, "the two images are the same" is not limited to the case where the two images are the same at the level of the image signal (pixel value of the pixels constituting the image). Changing the aspect ratio, adjusting the color tone of the image, processing various filters on the image (sharpening, smoothing, etc.), local processing on the image (caption superposition, cutout, etc.), recapturing the image, etc. It also includes the case where one image is a duplicated image of the other image by the various alteration processes of. By using the image identifier, for example, the duplication of an image or a moving image which is a set of images can be detected, so that the image identifier can be applied to an illegal copy detection system or the like of an image or a moving image.

[0003] 화상 식별자의 일례가, 특허문헌 1에 기재되어 있다. 도 18은, 특허문헌 1에 기재되어 있는 화상 식별자의 추출 방법을 나타내는 도면이다. 이 화상 식별자는, 복수의 차원 (도 18에서는 16 차원) 의 특징 벡터이다. 화상 240 내의 미리 결정된 위치의 32개의 직사각형 영역 244 (도 18에서는 그 중 16개의 직사각형 영역이 그려져 있다) 로부터 각각 평균 휘도치를 산출해, 쌍을 이루는 직사각형 영역의 사이 (도 18에서는 쌍을 이룬 직사각형 영역이 점선 248으로 묶여 있다) 에 평균 휘도치의 차를 산출해, 16 차원의 차 벡터 (difference vector; 250) 를 획득한다. 차 벡터 (250) 에 대해 벡터 변환에 의해 합성 벡터를 생성해, 합성 벡터의 각 차원을 양자화해 얻어진 16 차원의 양자화 인덱스 벡터를 화상 식별자로 한다.An example of an image identifier is described in patent document 1. As shown in FIG. FIG. 18 is a diagram illustrating a method for extracting an image identifier described in Patent Literature 1. FIG. This picture identifier is a feature vector of a plurality of dimensions (16 dimensions in FIG. 18). Average luminance values are respectively calculated from 32 rectangular regions 244 at predetermined positions in the image 240 (in FIG. 18, 16 rectangular regions are drawn), and the paired rectangular regions (paired rectangular regions in FIG. 18) are respectively calculated. The difference in the average luminance value is calculated on the dotted line 248) to obtain a 16-dimensional difference vector (250). A composite vector is generated for the difference vector 250 by vector transform, and the 16-dimensional quantization index vector obtained by quantizing each dimension of the composite vector is used as an image identifier.

선행 기술 문헌Prior art literature

특허문헌Patent Literature

[0004] 특허문헌 1 : 일본 공표특허공보 평8-500471호Patent Document 1: Japanese Patent Publication No. Hei 8-5500471

[0005] 복수의 차원의 특징 벡터로 구성되는 화상 식별자는, 차원간의 상관이 작을수록, 특징 벡터가 가지는 정보량이 커 (용장성이 작아) 지므로, 상이한 화상을 식별할 수 있는 정도인 식별 능력이 높아진다. 반대로, 특징 벡터의 차원간의 상관이 크면, 특징 벡터가 가지는 정보량이 작아 (용장성이 커) 지므로, 식별 능력이 낮아진다. 여기서 차원간의 상관이란, 차원의 특징량의 발생의 유사성의 정도이며, 수학적으로는, 예를 들어, 각 차원의 특징량의 발생을 확률 변수로 했을 경우의, 확률 변수간의 상관계수나, 상호 정보량으로서 산출되는 값이다. 이 때문에, 복수의 차원의 특징 벡터로 구성되는 화상 식별자는, 차원간의 상관이 작아지도록 설계되야 하는 것이 바람직하다.[0005] An image identifier composed of feature vectors of a plurality of dimensions has a smaller (or less redundancy) information amount of a feature vector as the correlation between the dimensions becomes smaller, so that an identification capability that is enough to identify different images is obtained. Increases. On the contrary, when the correlation between the dimension of the feature vector is large, the amount of information the feature vector has is small (large redundancy), so that the identifying ability is low. Here, the correlation between dimensions is the degree of similarity of occurrence of the feature quantities of the dimension, and mathematically, for example, the correlation coefficient between the probability variables and the mutual information amount when the occurrence of the feature quantities of each dimension is used as the random variable. It is a value calculated as. For this reason, it is preferable that the image identifier composed of the feature vectors of a plurality of dimensions be designed so that the correlation between the dimensions is small.

[0006] 화상 신호 (화상을 구성하는 화소의 화소 값) 는, 화상의 국소 영역간에 있어서 상관이 있다. 일반적으로, 국소 영역간의 거리가 가까울수록, 상관은 커진다. 특히, 예를 들어, 어느 특정의 화상 패턴이 반복 출현하는 (특히 화상 패턴이 규칙적인 주기로 반복 출현하는 경우의) 화상 (예를 들어 격자 패턴으로 배치된 빌딩의 창의 화상 등, 도 19a를 참조) 이나, 어느 특정의 텍스처로 구성되어 있는 화상 (도 19b를 참조) 등은, 화상의 국소 영역간의 상관이 커진다.Image signals (pixel values of pixels constituting an image) have a correlation between local regions of an image. In general, the closer the distance between local regions is, the greater the correlation. In particular, for example, an image in which a certain image pattern appears repeatedly (especially when the image pattern appears repeatedly at regular intervals) (for example, an image of a window of a building arranged in a grid pattern, etc., see FIG. 19A) Or the image (refer to FIG. 19B) which consists of a specific texture, etc., the correlation between local areas of an image becomes large.

[0007] [제1의 문제점][First Problem]

특허문헌 1에 기재되어 있는 것 같은, 화상의 복수의 국소 영역으로부터 추출한 특징량으로 이루어지는 특징 벡터로 구성되어 있는 화상 식별자는, 화상의 국소 영역간의 상관이 큰 화상에 대해, 각 차원에 있어서 특징량을 추출하는 국소 영역의 형상이 동일하기 때문에 (특허문헌 1의 예에서는 동일한 형상의 직사각형 영역), 추출되는 특징량의 차원간의 상관이 커진다. 그 때문에, 화상 식별자 (특징 벡터) 의 식별 능력이 낮아지는 제1의 문제점이 있다. 여기서 형상이 동일하다는 것은, 영역의 크기나 각도 (기울기 (tilt) 혹은 자세 (orientation)) 도 포함해 동일하다는 것을 말하는 것임에 유의한다.An image identifier composed of a feature vector composed of feature quantities extracted from a plurality of local regions of an image, as described in Patent Literature 1, has a feature amount in each dimension for an image having a large correlation between local regions of the image. Since the shape of the local area | region which extracts this is the same (the rectangular area of the same shape in the example of patent document 1), the correlation between the dimension of the feature amount to be extracted becomes large. For this reason, there is a first problem that the identification capability of the picture identifier (feature vector) is lowered. Note that the same shape here means the same, including the size and angle of the area (tilt or orientation).

[0008] 예를 들어, 어느 특정의 화상 패턴이 반복 출현하는 화상 (도 19a 참조) 이나, 어느 특정의 텍스처로 구성되어 있는 화상 (도 19b 참조) 등에 대해서는, 특허문헌 1에 기재되어 있는 것 같은 화상 식별자는, 식별 능력이 낮아진다.For example, about an image in which a certain image pattern repeatedly appears (see FIG. 19A), an image composed of a specific texture (see FIG. 19B), and the like, as described in Patent Literature 1 The image identifier has low identification capability.

[0009] [제2의 문제점][Second Problem]

특허문헌 1에 기재되어 있는 화상 식별자의 제2의 문제점은, 특징량 (특징 벡터) 을 산출하기 위한 각 차원의 영역의 형상 (크기, 각도도 포함해) 이 동일한 직사각형이기 때문에, 직사각형의 변의 길이와 같은, 혹은, 그 정수 분의 1의 주기를 가지는 주파수 성분을 검지할 수 없다고 하는, 주파수상의 맹점이 존재한다는 것이다. 그 이유는, 이 특정의 주파수의 신호 성분에 대해 영역 내에서 평균을 취하면, 신호 성분의 대소에 상관없이 0이 되어 버려, 그 주파수 성분의 신호를 전혀 검지할 수 없기 때문이다. 보다 구체적으로는, 직사각형의 변의 길이와 같은 주기를 가지는 주파수를 f0이라고 가정하면, 주파수 nf0 (n=1, 2,3,…) 의 성분을 검지할 수 없게 된다. 이 때문에, 직류 성분과 이 주파수 성분에 신호가 집중하고 있는 화상에 대해는, 화소 값의 평균치는 직류 성분과 같게 되어 버려, 영역간에서 값의 차이가 없어진다. 그 결과, 영역간의 평균 화소 값의 차로서 추출되는 모든 특징량의 값은 0이 되어 버려, 식별할 수 없게 된다 (식별 능력이 현저하게 저하한다). 실제로는, 주파수 nf0 (n=1, 2,3,…) 의 성분뿐만 아니라, 그 근방의 일정한 주파수 영역도 검지가 곤란해지기 때문에, 상기 특정 주파수에 신호 성분이 집중하고 있지 않아도, 그 주파수대의 신호 성분을 사용할 수 없게 되어서, 식별 능력이 저하한다. 이 문제를 경감하려면, 주파수 f0의 값을 크게 해, 그 검지 곤란한 주파수대에 빠지는 신호 전력을 감소시키는 것을 생각할 수 있다. 그러나, 주파수 f0의 값을 크게 하는 것은, 영역의 크기를 축소시키는 것을 의미해, 특징량의 완건성 (각종 개변 처리나 노이즈에 대해 특징량이 변화하지 않는 정도) 의 저하로 연결된다. 예를 들어, 영역이 작아지면, 작은 위치 시프트 (shift) 에 대해서도, 특징량의 값이 크게 변화하게 되어, 특징량의 완건성이 저하된다. 이와 같이, 동일한 직사각형 영역을 사용하는 경우에는, 식별 능력을 증가시키면서 완건성을 확보하는 것이 매우 어렵다.The second problem of the image identifier described in Patent Document 1 is that since the shape (including size and angle) of the area of each dimension for calculating the feature amount (feature vector) is the same rectangle, the length of the side of the rectangle There is a blind spot on the frequency such that a frequency component having a period equal to or one of its integers cannot be detected. The reason for this is that if an average is taken within a region of a signal component of this particular frequency, it becomes 0 regardless of the magnitude of the signal component, and the signal of the frequency component cannot be detected at all. More specifically, assuming that a frequency having a period equal to the length of a rectangular side is f 0 , the component of frequency nf 0 ( n = 1, 2,3, ...) cannot be detected. For this reason, the average value of the pixel values becomes the same as the direct current component with respect to the direct current component and the image in which the signal is concentrated on this frequency component, and the difference in value between the regions is eliminated. As a result, the value of all the feature amounts extracted as the difference between the average pixel values between the regions becomes 0 and cannot be identified (the identification capability is significantly reduced). In reality, it is difficult to detect not only the components of the frequency nf 0 ( n = 1, 2,3, ...) but also the constant frequency region in the vicinity thereof, even if the signal components are not concentrated on the specific frequency. Signal component can not be used, and the identifying ability is lowered. In order to alleviate this problem, it is conceivable to increase the value of the frequency f 0 to reduce the signal power falling into the difficult-to-detect frequency band. However, increasing the value of the frequency f 0 means reducing the size of the region, which leads to a deterioration in the robustness of the characteristic amount (the degree to which the characteristic amount does not change with respect to various modification processing and noise). For example, when the area becomes small, the value of the feature amount changes significantly even for a small position shift, and the robustness of the feature amount is lowered. Thus, when using the same rectangular area, it is very difficult to secure robustness while increasing the discrimination ability.

[0010] [본 발명의 목적][Objective of the invention]

본 발명의 목적은, 화상의 국소 영역간의 상관이 큰 화상이나 특정의 주파수에 신호가 집중되는 화상으로부터 추출되는 화상 식별자가 상이한 화상을 식별할 수 있는 정도인 식별 능력이 저하되는 문제를 해결할 수 있는 화상 식별자 추출 장치를 제공하는 것이다.SUMMARY OF THE INVENTION An object of the present invention can solve the problem of a deterioration in the identification ability of the image having a large correlation between local regions of an image or an image identifier extracted from an image in which a signal is concentrated at a specific frequency. It is to provide an image identifier extraction device.

[0011] 본 발명의 한 형태에 따른 이러한 화상 식별자 추출 장치는, 쌍을 이루는 2개의 부분 영역의 형상의 편성과 쌍을 이루는 2개의 부분 영역 사이의 상대적인 위치 관계 양쪽 모두가, 다른 적어도 1개의 부분 영역 쌍과 상이한 1이상의 부분 영역 쌍을 포함하는, 화상중의 복수의 부분 영역 쌍에 따라, 화상의 각 부분 영역에서 영역 특징량을 추출하고, 그 추출한 각 부분 영역마다의 영역 특징량에 기초하여, 상기 화상의 식별로 사용하는 화상 식별자를 생성하는 화상 식별자 생성 수단; 및 상기 화상 식별자를 부호화하는 부호화 수단을 구비한다.[0011] Such an image identifier extracting apparatus according to one aspect of the present invention includes at least one portion in which both a combination of shapes of two partial regions to be paired with and a relative positional relationship between the two partial regions to be paired are different from each other. According to the plurality of partial region pairs in the image, which include one or more partial region pairs different from the region pairs, region feature amounts are extracted from each partial region of the image, and based on the region feature amounts for each extracted partial region. Image identifier generating means for generating an image identifier for use in identification of the image; And encoding means for encoding the image identifier.

[0012] 본 발명은 위에서 설명된 바처럼 구성되므로, 화상 식별자의 상이한 화상을 식별할 수 있는 정도인 식별 능력을 높게 할 수 있다. 특히, 화상의 국소 영역간의 상관이 큰 화상에 대해, 이 효과는 현저하다.Since the present invention is configured as described above, it is possible to increase the identification ability, which is a degree capable of identifying different pictures of the picture identifier. In particular, this effect is remarkable for an image having a large correlation between local regions of the image.

[0013] 또 본 발명에 의하면, 특정의 주파수에 신호가 집중되는 화상에 대해서도, 식별 능력이 저하하지 않는 효과가 있다.In addition, according to the present invention, there is an effect that the identification capability does not decrease even for an image in which signals are concentrated at a specific frequency.

[0014] [도 1] 본 발명의 제1의 실시형태의 블록도이다.
[도 2] 차원별 추출 정보가 나타난 차원마다의 추출 영역의 쌍의 예를 나타내는 도면이다.
[도 3] 본 발명의 제1의 실시형태에 있어서의 비교 수단의 일례를 나타내는 블록도이다.
[도 4] 본 발명의 제1의 실시형태에 있어서의 비교 수단의 다른 예를 나타내는 블록도이다.
[도 5] 본 발명의 제1의 실시형태의 처리의 흐름을 나타내는 플로우차트이다.
[도 6] 본 발명의 제2의 실시형태의 주요부 블록도이다.
[도 7] 본 발명의 제2의 실시형태의 처리의 흐름을 나타내는 플로우차트이다.
[도 8] 본 발명의 제3의 실시형태의 블록도이다.
[도 9] 차원마다의 영역 특징량 산출 방법의 예를 나타내는 도면이다.
[도 10] 본 발명의 제3의 실시형태의 처리의 흐름을 나타내는 플로우차트이다.
[도 11] 본 발명의 제4의 실시형태를 나타내는 블록도이다.
[도 12] 차원마다의 비교 및 양자화 방법의 예를 나타내는 표이다.
[도 13] 본 발명의 제4의 실시형태의 처리의 흐름을 나타내는 플로우차트이다.
[도 14a] 본 발명의 제6의 실시형태 및 제7의 실시형태에서 사용하는 차원별 추출 영역 정보를 나타내는 표이다.
[도 14b] 본 발명의 제6의 실시형태 및 제7의 실시형태에서 사용하는 차원별 추출 영역 정보를 나타내는 표이다.
[도 14c] 본 발명의 제6의 실시형태 및 제7의 실시형태에서 사용하는 차원별 추출 영역 정보를 나타내는 표이다.
[도 14d] 본 발명의 제6의 실시형태 및 제7의 실시형태에서 사용하는 차원별 추출 영역 정보를 나타내는 표이다.
[도 14e] 본 발명의 제6의 실시형태 및 제7의 실시형태에서 사용하는 차원별 추출 영역 정보를 나타내는 표이다.
[도 14f] 본 발명의 제6의 실시형태 및 제7의 실시형태에서 사용하는 차원별 추출 영역 정보를 나타내는 표이다.
[도 14g] 본 발명의 제6의 실시형태 및 제7의 실시형태에서 사용하는 차원별 추출 영역 정보를 나타내는 표이다.
[도 14h] 본 발명의 제6의 실시형태 및 제7의 실시형태에서 사용하는 차원별 추출 영역 정보를 나타내는 표이다.
[도 14i] 본 발명의 제6의 실시형태 및 제7의 실시형태에서 사용하는 차원별 추출 영역 정보를 나타내는 표이다.
[도 14j] 본 발명의 제6의 실시형태 및 제7의 실시형태에서 사용하는 차원별 추출 영역 정보를 나타내는 표이다.
[도 15a] 본 발명의 제6의 실시형태에서 사용하는 차원별 영역 특징량 산출 방법 정보를 나타내는 표이다.
[도 15b] 본 발명의 제6의 실시형태에서 사용하는 차원별 영역 특징량 산출 방법 정보를 나타내는 표이다.
[도 15c] 본 발명의 제6의 실시형태에서 사용하는 차원별 영역 특징량 산출 방법 정보를 나타내는 표이다.
[도 15d] 본 발명의 제6의 실시형태에서 사용하는 차원별 영역 특징량 산출 방법 정보를 나타내는 표이다.
[도 15e] 본 발명의 제6의 실시형태에서 사용하는 차원별 영역 특징량 산출 방법 정보를 나타내는 표이다.
[도 16a] 본 발명의 제7의 실시형태에서 사용하는 차원별 영역 특징량 산출 방법 정보를 나타내는 표이다.
[도 16b] 본 발명의 제7의 실시형태에서 사용하는 차원별 영역 특징량 산출 방법 정보를 나타내는 표이다.
[도 16c] 본 발명의 제7의 실시형태에서 사용하는 차원별 영역 특징량 산출 방법 정보를 나타내는 표이다.
[도 16d] 본 발명의 제7의 실시형태에서 사용하는 차원별 영역 특징량 산출 방법 정보를 나타내는 표이다.
[도 16e] 본 발명의 제7의 실시형태에서 사용하는 차원별 영역 특징량 산출 방법 정보를 나타내는 표이다.
[도 17a] 본 발명의 제6의 실시형태 및 제7의 실시형태에서 사용하는 차원별 비교 및 양자화 방법 정보를 나타내는 표이다.
[도 17b] 본 발명의 제6의 실시형태 및 제7의 실시형태에서 사용하는 차원별 비교 및 양자화 방법 정보를 나타내는 표이다.
[도 17c] 본 발명의 제6의 실시형태 및 제7의 실시형태에서 사용하는 차원별 비교 및 양자화 방법 정보를 나타내는 표이다.
[도 17d] 본 발명의 제6의 실시형태 및 제7의 실시형태에서 사용하는 차원별 비교 및 양자화 방법 정보를 나타내는 표이다.
[도 17e] 본 발명의 제6의 실시형태 및 제7의 실시형태에서 사용하는 차원별 비교 및 양자화 방법 정보를 나타내는 표이다.
[도 18] 특허문헌 1에 기재되어 있는 화상 식별자의 추출 방법을 나타내는 도면이다.
[도 19] 국소 영역간의 상관이 커지는 화상의 예를 나타내는 도면이다.
[도 20] 본 발명의 제5의 실시형태를 나타내는 블록도이다.
[도 21] 양자화 인덱스 벡터들 사이의 조합을 수행하는 조합 수단의 블록도이다.
[도 22] 양자화 인덱스 벡터들 사이의 조합을 수행하는 조합 수단의 처리 예를 나타내는 플로우차트이다.
[도 23] 양자화 인덱스 벡터들 사이의 조합을 수행하는 조합 수단의 다른 처리 예를 나타내는 플로우차트이다.
[도 24] 양자화 인덱스 벡터들 사이의 조합을 수행하는 조합 수단의 더욱 다른 처리 예를 나타내는 플로우차트이다.
[도 25] 양자화 인덱스 벡터들 사이의 조합을 수행하는 조합 수단의 다른 구성을 나타내는 블록도이다.
[도 26] 양자화 인덱스 벡터들 사이의 조합을 수행하는 조합 수단의 처리 예를 나타내는 플로우차트이다.
[도 27] 양자화 인덱스 벡터를 조합하는 조합 수단의 다른 처리 예를 나타내는 플로우 차트이다.
[도 28] 화상을 세로 방향 32, 가로방향 32으로 분할해 할 수 있는 1024개의 블록에 대해 부여되는 인덱스의 일례를 나타내는 도면이다.
[도 29a] 본 발명의 제8의 실시형태의 각 차원에 대응하는 영역 중, 1개의 타입에 속하는 영역을 나타내는 도면이다.
[도 29b] 본 발명의 제8의 실시형태의 각 차원에 대응하는 영역 중, 1개의 타입에 속하는 영역을 나타내는 표이다.
[도 29c] 본 발명의 제8의 실시형태의 각 차원에 대응하는 영역 중, 1개의 타입에 속하는 영역을 나타내는 표이다.
[도 29d] 본 발명의 제8의 실시형태의 각 차원에 대응하는 영역 중, 1개의 타입에 속하는 영역을 나타내는 표이다.
[도 29e] 본 발명의 제8의 실시형태의 각 차원에 대응하는 영역 중, 1개의 타입에 속하는 영역을 나타내는 표이다.
[도 29f] 본 발명의 제8의 실시형태의 각 차원에 대응하는 영역 중, 1개의 타입에 속하는 영역을 나타내는 표이다.
[도 29g] 본 발명의 제8의 실시형태의 각 차원에 대응하는 영역 중, 1개의 타입에 속하는 영역을 나타내는 표이다.
[도 30] 각 차원의 영역 타입, 차원수, 및 임계값에 대응하는 인덱스와의 관계를 나타내는 표이다.
[도 31a] 영역 타입 a의 차원의 제1, 제2의 추출 영역의 일례를 나타내는 도면이다.
[도 31b] 영역 타입 b의 차원의 제1, 제2의 추출 영역의 일례를 나타내는 도면이다.
[도 31c] 영역 타입 c의 차원의 제1, 제2의 추출 영역의 일례를 나타내는 도면이다.
[도 31d] 영역 타입 d의 차원의 제1, 제2의 추출 영역의 일례를 나타내는 도면이다.
[도 31e] 영역 타입 e의 차원의 제1, 제2의 추출 영역의 일례를 나타내는 도면이다.
[도 31f] 영역 타입 f의 차원의 제1, 제2의 추출 영역의 일례를 나타내는 도면이다.
[도 31g] 영역 타입 g의 차원의 제1, 제2의 추출 영역의 일례를 나타내는 도면이다.
1 is a block diagram of a first embodiment of the present invention.
2 is a diagram illustrating an example of a pair of extraction areas for each dimension in which the extraction information for each dimension is shown.
3 is a block diagram showing an example of a comparison means in the first embodiment of the present invention.
4 is a block diagram showing another example of the comparison means in the first embodiment of the present invention.
Fig. 5 is a flowchart showing the flow of processing in the first embodiment of the present invention.
6 is a block diagram of an essential part of a second embodiment of the present invention.
7 is a flowchart showing the flow of processing in the second embodiment of the present invention.
8 is a block diagram of a third embodiment of the present invention.
9 is a diagram illustrating an example of a method for calculating region feature quantities for each dimension.
Fig. 10 is a flowchart showing the flow of processing in the third embodiment of the present invention.
Fig. 11 is a block diagram showing a fourth embodiment of the present invention.
12 is a table showing an example of the comparison and quantization method for each dimension.
It is a flowchart which shows the flow of a process of 4th Embodiment of this invention.
Fig. 14A is a table showing dimensional extraction area information used in the sixth and seventh embodiments of the present invention.
FIG. 14B is a table showing dimension-specific extraction region information used in the sixth and seventh embodiments of the present invention. FIG.
Fig. 14C is a table showing dimensional extraction region information used in the sixth and seventh embodiments of the present invention.
FIG. 14D is a table showing dimension-specific extraction region information used in the sixth and seventh embodiments of the present invention. FIG.
FIG. 14E is a table showing dimension-specific extraction region information used in the sixth and seventh embodiments of the present invention. FIG.
FIG. 14F is a table showing dimension-specific extraction region information used in the sixth and seventh embodiments of the present invention. FIG.
Fig. 14G is a table showing dimensional extraction area information used in the sixth and seventh embodiments of the present invention.
FIG. 14H is a table showing dimension-specific extraction region information used in the sixth and seventh embodiments of the present invention. FIG.
FIG. 14I is a table showing dimension-specific extraction region information used in the sixth and seventh embodiments of the present invention. FIG.
FIG. 14J is a table showing dimension-specific extraction region information used in the sixth and seventh embodiments of the present invention. FIG.
It is a table | surface which shows the area characteristic amount calculation method information for each dimension used by 6th Embodiment of this invention.
It is a table | surface which shows the area characteristic amount calculation method information for each dimension used by 6th Embodiment of this invention.
It is a table | surface which shows the dimension characteristic area calculation method information for each dimension used by 6th Embodiment of this invention.
Fig. 15D is a table showing the area characteristic amount calculation method information for each dimension used in the sixth embodiment of the present invention.
It is a table | surface which shows the dimension characteristic area calculation method information for each dimension used by 6th Embodiment of this invention.
It is a table | surface which shows the information of the method of calculating the area | region characteristic quantity for each dimension used by 7th Embodiment of this invention.
FIG. 16B is a table showing dimension information for each region feature amount calculation method used in the seventh embodiment of the present invention. FIG.
Fig. 16C is a table showing dimension information of each region feature amount calculation method used in the seventh embodiment of the present invention.
It is a table | surface which shows the area characteristic amount calculation method information for each dimension used by 7th Embodiment of this invention.
Fig. 16E is a table showing the area characteristic amount calculation method information for each dimension used in the seventh embodiment of the present invention.
FIG. 17A is a table showing dimensional comparison and quantization method information used in the sixth and seventh embodiments of the present invention. FIG.
FIG. 17B is a table showing dimensional comparison and quantization method information used in the sixth and seventh embodiments of the present invention. FIG.
FIG. 17C is a table showing dimensional comparison and quantization method information used in the sixth and seventh embodiments of the present invention. FIG.
FIG. 17D is a table showing dimension comparison and quantization method information used in the sixth and seventh embodiments of the present invention. FIG.
FIG. 17E is a table showing dimensional comparison and quantization method information used in the sixth and seventh embodiments of the present invention. FIG.
It is a figure which shows the extraction method of the image identifier described in patent document 1. FIG.
Fig. 19 is a diagram illustrating an example of an image in which the correlation between local regions becomes large.
20 is a block diagram showing a fifth embodiment of the present invention.
Fig. 21 is a block diagram of a combining means for performing a combination between quantization index vectors.
Fig. 22 is a flowchart showing an example of a process of combining means for performing combination between quantization index vectors.
Fig. 23 is a flowchart showing another example of the processing of the combining means for performing the combination between the quantization index vectors.
Fig. 24 is a flowchart showing another example of the processing of the combining means for performing the combination between the quantization index vectors.
Fig. 25 is a block diagram showing another configuration of the combining means for performing the combination between the quantization index vectors.
Fig. 26 is a flowchart showing an example of a process of combining means for performing combination between quantization index vectors.
Fig. 27 is a flowchart of another processing example of the combining means for combining the quantization index vectors.
Fig. 28 is a diagram showing an example of an index given to 1024 blocks that can divide an image into 32 vertical directions and 32 horizontal directions.
It is a figure which shows the area | region which belongs to one type among the area | region corresponding to each dimension of 8th Embodiment of this invention.
Fig. 29B is a table showing an area belonging to one type of areas corresponding to each dimension of the eighth embodiment of the present invention.
Fig. 29C is a table showing an area belonging to one type of areas corresponding to each dimension of the eighth embodiment of the present invention.
Fig. 29D is a table showing areas belonging to one type of areas corresponding to each dimension of the eighth embodiment of the present invention.
Fig. 29E is a table showing a region belonging to one type of regions corresponding to each dimension of the eighth embodiment of the present invention.
Fig. 29F is a table showing a region belonging to one type of regions corresponding to each dimension of the eighth embodiment of the present invention.
Fig. 29G is a table showing an area belonging to one type of areas corresponding to each dimension of the eighth embodiment of the present invention.
FIG. 30 is a table showing a relationship between an area type of each dimension, the number of dimensions, and an index corresponding to a threshold value.
It is a figure which shows an example of the 1st, 2nd extraction area | region of the dimension of area | region type a.
It is a figure which shows an example of the 1st, 2nd extraction area | region of the dimension of area | region type b.
Fig. 31C is a diagram illustrating an example of the first and second extraction regions in the dimension of the region type c.
It is a figure which shows an example of the 1st, 2nd extraction area | region of the dimension of area | region type d.
It is a figure which shows an example of the 1st, 2nd extraction area | region of the dimension of area | region type e.
It is a figure which shows an example of the 1st, 2nd extraction area | region of the dimension of area | region type f.
It is a figure which shows an example of the 1st, 2nd extraction area | region of the dimension of area | region type g.

[0015] [제1의 실시형태][First Embodiment]

[제1의 실시형태의 구성][Configuration of First Embodiment]

다음으로, 본 발명의 제1의 실시형태에 대해 도면을 참조해 상세하게 설명한다.Next, 1st Embodiment of this invention is described in detail with reference to drawings.

[0016] 도 1을 참조하면, 본 발명의 제1의 실시형태에 관련된 화상 식별자 추출 장치는, 입력된 화상에 대해, 복수의 차원으로 이루어지는 특징 벡터 (보다 구체적으로는 양자화 인덱스 벡터) 를 화상 식별자로서 출력하는 시스템이다. 화상 식별자 추출 장치는, 차원 결정 수단 (1), 추출 영역 취득 수단 (2), 영역 특징량 산출 수단 (3), 및 비교 수단 (4) 를 포함한다.Referring to FIG. 1, the image identifier extracting apparatus according to the first embodiment of the present invention includes an image identifier as a feature vector (more specifically, a quantization index vector) having a plurality of dimensions with respect to an input image. As a system that outputs. The image identifier extracting apparatus includes a dimension determining means 1, an extracting region obtaining means 2, an area feature variable calculating means 3, and a comparing means 4.

[0017] 차원 결정 수단 (1) 은, 다음으로 추출하는 특징 벡터의 차원을 결정해, 추출 영역 취득 수단 (2) 에 공급한다. 차원 결정 수단 (1) 은, 추출하는 특징 벡터의 차원을 순차 공급해, 추출 영역 취득 수단 (2) 이후의 구성 요소는, 공급된 차원에 대응하는 특징량을 추출한다. 예를 들어, 특징 벡터가 N차원으로 구성되는 경우, 차원 결정 수단 (1) 은 제1 차원으로부터 제N 차원까지를 추출 영역 취득 수단 (2) 에 순차 공급해도 된다. 최종적으로 특징 벡터의 모든 차원이 공급되면, 차원의 임의의 차례로 공급될 수 있다. 복수의 차원이 병렬로 공급되어도 된다.The dimension determining means 1 next determines the dimension of the feature vector to be extracted and supplies it to the extraction region acquisition means 2. The dimension determination means 1 sequentially supplies the dimension of the feature vector to extract, and the component after the extraction area | region acquisition means 2 extracts the feature quantity corresponding to the supplied dimension. For example, when the feature vector is configured in N dimensions, the dimension determination means 1 may sequentially supply the extraction region acquisition means 2 from the first dimension to the Nth dimension. Finally, once all the dimensions of the feature vector are supplied, they can be supplied in any order of dimensions. Plural dimensions may be supplied in parallel.

[0018] 추출 영역 취득 수단 (2) 에는, 차원 결정 수단 (1) 으로부터 공급된 차원과는 별도로, 입력으로서 차원별 추출 영역 정보가 공급된다.The extraction region acquisition means 2 is supplied with dimension-specific extraction region information as an input separately from the dimension supplied from the dimension determination means 1.

[0019] 차원별 추출 영역 정보는, 특징 벡터의 차원마다 결부된, 제 1의 추출 영역과 제2의 추출 영역의 미리 결정된 쌍을 나타내는 정보이다. 제 1및 제2의 추출 영역은 필수 조건으로서 이하의 특징을 갖는다.The dimension-specific extraction region information is information indicating a predetermined pair of the first extraction region and the second extraction region, which are associated for each dimension of the feature vector. The first and second extraction regions have the following characteristics as essential conditions.

[0020] [제 1및 제2의 추출 영역의 필수 조건][Required Conditions of First and Second Extraction Areas]

제 1및 제2의 추출 영역의 필수 조건은, 차원들 중에서 추출 영역 쌍의 상대적인 위치가 상이한 것과, 차원들 중에서 추출 영역 쌍의 형상의 편성이 상이한 것이다.The prerequisites of the first and second extraction regions are that the relative positions of the extraction region pairs differ among the dimensions, and that the combination of the shape of the extraction region pairs among the dimensions differs.

[0021] 차원별 추출 정보가 나타내는 차원들 각각에 대하여, 상기 필수 조건을 만족하는, 추출 영역의 쌍의 예를 도 2에 나타낸다. 도 18에 나타낸 화상 식별자의 추출 영역과는 상이하고, 각각의 차원들 중에서 추출 영역의 쌍의 형상의 편성이 상이하다. 여기서 상이한 형상이란, 상이한 각도의 같은 형상이나 (예를 들어, 도 2의 제1 차원의 제2의 추출 영역과 제7 차원의 제1의 추출 영역), 상이한 크기의 유사한 형상 (예를 들어, 도 2의 제1 차원의 제2의 추출 영역과 제9 차원의 제2의 추출 영역) 을 포함한다. 또한, 특징 벡터의 전차원안에, 추출 영역의 쌍이 상이한 형상의 편성을 갖는, 적어도 하나의 차원이 포함되는 것이 최저 조건이다. 특징 벡터에 추출 영역의 쌍의 형상 (의 편성) 이 서로 상이한 차원이 많을수록, 바람직하다. 이것은, 추출 영역의 쌍의 형상 (의 편성) 이 서로 상이한 차원이 많을수록, 특징 벡터의 것보다 많은 차원간의 상관이 작아져, 식별 능력이 높아지기 때문이다. 예를 들어, 특징 벡터의 모든 차원간에서, 추출 영역의 쌍의 형상이 서로 상이해도 된다.For each of the dimensions indicated by the dimension-specific extraction information, an example of a pair of extraction regions that satisfy the above essential condition is shown in FIG. 2. It differs from the extraction area of the image identifier shown in FIG. 18, and the knitting of the shape of the pair of extraction areas is different among each dimension. Here, different shapes may refer to the same shape at different angles (for example, the second extraction region of the first dimension and the first extraction region of the seventh dimension) of FIG. 2, or similar shapes of different sizes (eg, A second extraction region of the first dimension of FIG. 2 and a second extraction region of the ninth dimension). In addition, it is a minimum condition that at least one dimension in which the pair of extraction areas has a combination of different shapes is included in the entire dimension of the feature vector. It is preferable that more dimensions have different shapes (combination) of pairs of extraction regions in the feature vector. This is because the more the dimensions of different shapes (combination) of the pairs of extraction regions are different from each other, the smaller the correlation between the dimensions than those of the feature vector, and the higher the discrimination ability. For example, the shapes of the pairs of extraction regions may differ from one another among all dimensions of the feature vector.

[0022] 차원에 있어서의 제1의 추출 영역과 제2의 추출 영역은, 도 2의 제9차원과 같이, 같은 형상일 필요는 없고, 도 2의 다른 차원과 같이, 형상이 상이해도 된다. 각 차원에서의 제1의 추출 영역과 제2의 추출 영역의 형상이 차이가 나면, 제1의 추출 영역과 제2의 추출 영역으로부터 추출되는 특징량 사이의 상관이 작아져, 식별 능력이 높아진다. 따라서 이것이 바람직하다. 또, 제1의 추출 영역과 제2의 추출 영역이 동시에 같은 주파수에 관해서 주파수적인 맹점이 될 가능성이 낮아지기 때문에, 식별 능력이 높아진다.The first extraction region and the second extraction region in the dimension do not have to be the same shape as in the ninth dimension of FIG. 2, and the shapes may be different as in the other dimensions of FIG. 2. When the shape of the first extraction region and the second extraction region in each dimension is different, the correlation between the feature amount extracted from the first extraction region and the second extraction region is small, and the identification capability is increased. This is therefore desirable. In addition, since the possibility of the first extraction region and the second extraction region becoming the frequency blind spot at the same frequency is lowered at the same time, the identification capability is increased.

[0023] 각각의 추출 영역의 형상은 임의이다. 예를 들어, 도 2의 제6 차원의 제2의 추출 영역과 같은, 임의의 복잡한 형상이 또한 허용될 수 있다. 추출 영역이 화상의 복수의 화소로 구성되는 것이면, 예를 들어, 도 2의 제7 차원이나 제10 차원과 같이, 선분이나 곡선이 또한 허용될 수 있다. 또 예를 들어, 제8 차원의 제1의 추출 영역, 제11 차원의 제1 및 제2의 추출 영역, 제12 차원의 제1의 추출 영역과 같이, 추출 영역이, 연속하지 않는 복수의 소영역으로 구성될 수도 있다. 이와 같이, 특징 벡터가 복잡한 형상의 추출 영역을 포함하면, 그로부터 추출되는 특징량의 차원간의 상관이 낮아질 수 있어서, 식별 능력이 높아질 수 있다.The shape of each extraction region is arbitrary. For example, any complex shape, such as the second extraction region of the sixth dimension of FIG. 2, may also be acceptable. If the extraction region consists of a plurality of pixels of the image, line segments or curves may also be allowed, for example, as in the seventh or tenth dimension of FIG. 2. Further, for example, a plurality of small regions in which the extraction regions are not continuous, such as the first extraction region in the eighth dimension, the first and second extraction regions in the eleventh dimension, and the first extraction region in the twelfth dimension It may be composed of regions. As such, when the feature vector includes an extraction region of a complicated shape, the correlation between the dimensions of the feature quantities extracted therefrom can be lowered, so that the identifying ability can be increased.

[0024] 또, 예를 들어, 도 2의 제5 차원과 같이, 제1의 추출 영역과 제2의 추출 영역의 일부가 서로 중복하는 것도 가능하다. 또 추출 영역 쌍의 어느 하나가, 다른 하나에 내포될 수도 있다. 이와 같이, 추출 영역의 쌍에 중복을 허용함으로써, 보다 많은 패턴 (상대적 위치, 거리) 이 추출 영역 쌍에 취해질 수 있기 때문에, 차원간의 상관을 감소시킬 수 있는 패턴이 증가될 수 있어서, 식별 능력을 보다 높게 할 가능성이 증가한다.For example, as in the fifth dimension of FIG. 2, a part of the first extraction region and the second extraction region may overlap each other. In addition, any one of the extraction region pairs may be contained in the other. As such, by allowing redundancy in the pair of extraction regions, more patterns (relative positions, distances) can be taken in the extraction region pairs, so that patterns that can reduce the correlation between dimensions can be increased, thereby improving identification ability. The probability of making it higher is increased.

[0025] 또, 도 18에 나타낸 화상 식별자의 추출 영역과는 상이하고, 도 2에 나타낸 각 차원과 같이, 차원간에서 추출 영역이 일부 서로 중복할 수도 있다. 도 18에 나타낸 화상 식별자의 추출 영역에 나타낸 바와 같이, 차원간에서 추출 영역을 배타적으로 취하면, 추출 영역 쌍의 가능한 패턴이 한정되어 버린다. 도 2에 나타낸 것처럼, 차원간에서의 추출 영역의 중복을 허용함으로써, 차원간의 상관을 감소시킬 수 있는 패턴을 늘릴 수가 있어, 식별 능력을 보다 높게 할 가능성이 증가한다. 하지만, 차원간에서의 추출 영역의 중복된 부분들이 너무 많으면, 차원간의 상관이 커져 버려, 식별 능력이 낮아진다. 따라서, 이것은 바람직하지 않다.In addition, different from the extraction area of the image identifier shown in FIG. 18, as in each of the dimensions shown in FIG. 2, the extraction areas may partially overlap each other. As shown in the extraction area of the image identifier shown in Fig. 18, if the extraction area is exclusively taken between the dimensions, the possible patterns of the extraction area pairs are limited. As shown in Fig. 2, by allowing the overlapping of the extraction regions between the dimensions, the pattern that can reduce the correlation between the dimensions can be increased, thereby increasing the possibility of making the identification ability higher. However, if there are too many overlapping portions of the extraction area between the dimensions, the correlation between the dimensions becomes large and the identification ability becomes low. Therefore, this is not desirable.

[0026] 또, 모든 차원의 추출 영역을 통합했을 경우에, 화상 내에서 특징량이 추출되지 않는 영역이 작아지도록 (즉, 화상의 거의 전화면이 커버될 수 있음을 의미한다) 추출 영역이 취해지는 것이 바람직하다. 도 18과 같이, 화상 내에서 특징량이 추출되지 않는 영역이 많이 포함되어 있으면, 화상 신호 (화상을 구성하는 화소의 화소 값) 에 포함되는 많은 정보를 사용하지 않게 되어, 식별 능력이 높아지지 않게 된다. 모든 차원의 추출 영역을 통합했을 경우에, 화상 내에서 특징량이 추출되지 않는 영역이 작아지도록 (즉, 화상의 거의 전화면이 커버될 수 있음을 의미한다) 추출 영역을 취함으로써, 화상 신호에 포함되는 보다 많은 정보를 특징량에 반영할 수 있기 때문에, 식별 능력이 높아질 수 있다. 또, 모든 차원의 추출 영역을 통합했을 경우에, 추출 영역이 편향되지 않고, 화상 전체로부터 균일하게 취득되는 것이 바람직하다. 하지만, 어느 특정의 영역에 자막 중첩 등의 국소적인 가공이 수행되는 확률이 높은 경우에는, 그 영역을 피해 추출 영역을 취득하는 것이 바람직하다. 또, 화상의 에지의 주변 영역은 화상의 특징 부분을 종종 포함하지 않기 때문에, 주변 영역을 피해 추출 영역을 취득하는 것이 바람직하다.In addition, in the case of integrating the extraction areas of all dimensions, the extraction area is taken so that the area where the feature amount is not extracted in the image is reduced (that is, almost the full screen of the image can be covered). It is preferable. As shown in Fig. 18, when a large number of regions in which the feature amount is not extracted is included in the image, much information included in the image signal (pixel values of pixels constituting the image) is not used, and the identification capability is not increased. . In the case of incorporating the extraction areas of all dimensions, it is included in the image signal by taking the extraction area so that the area in which the feature amount is not extracted in the image becomes smaller (that is, almost the full screen of the image can be covered). As more information can be reflected in the feature amount, the identification ability can be enhanced. In addition, when the extraction areas of all dimensions are integrated, it is preferable that the extraction areas are not deflected and uniformly acquired from the entire image. However, if there is a high probability that local processing such as subtitle superimposition is performed on any particular region, it is preferable to obtain the extraction region avoiding the region. In addition, since the peripheral region of the edge of the image often does not include the feature portion of the image, it is preferable to obtain the extraction region avoiding the peripheral region.

[0027] 그 외, 추출 영역의 크기, 상대적 위치 (거리, 방향) 가 일정한 분포 (예를 들어 균일한 분포) 를 따르는 것이 바람직한데, 왜냐하면 상대적 위치 (거리, 방향) 가 균일한 분포를 따르면, 추출 영역은 거리나 방향에 대해 편향되지 않아서, 추출 영역은 특정의 거리나 방향으로 집중하는 것이 없어, 보다 많은 다양성이 이루어질 수 있기 때문이다. 또, 상대적 위치가 가까울수록, 그 영역간의 상관이 커지기 때문에, 그것을 지우기 위해서, 상대적 위치가 가까운 것 만큼 형상의 차이가 큰 편이 바람직하다.In addition, it is preferable that the size, relative position (distance, direction) of the extraction region follow a constant distribution (for example, a uniform distribution), because the relative position (distance, direction) is according to a uniform distribution, This is because the extraction area is not deflected with respect to the distance or direction, so that the extraction area does not concentrate at a specific distance or direction, and thus more diversity can be achieved. In addition, the closer the relative position is, the larger the correlation between the regions is, so that the larger the difference in shape is, the better the relative position is.

[0028] 차원별 추출 영역 정보는, 차원마다의 제1의 추출 영역과 제2의 추출 영역이 유일하게 특정할 수 있는 정보이면, 어떠한 형식의 정보도 가능하다. 또 추출 영역은, 어떤 사이즈나 어스펙트비의 화상에 대해서도, 항상 같은 영역이어야 하기 때문에, 차원별 추출 영역 정보는, 어떤 사이즈나 어스펙트비의 화상에 대해서도, 같은 추출 영역을 취득할 수 있는 형식의 정보이어야 한다. 예를 들어, 차원별 추출 영역 정보는, 어느 미리 결정된 사이즈와 어스펙트비의 화상 (예를 들어, 가로폭 320화소×세로폭 240화소의 화상) 에 대해, 그 추출 영역의 위치 및 형상을 기술할 수도 있다. 이 경우, 어느 임의의 사이즈와 어스펙트비로 입력된 화상에 대해, 먼저 화상을 그 미리 결정된 사이즈와 어스펙트비를 갖도록 리사이즈 하고 나서, 차원별 추출 영역 정보에 기술된 추출 영역의 위치 및 형상에 따라, 추출 영역을 특정하면 된다. 반대로, 입력된 화상의 임의의 사이즈와 어스펙트비의 화상에 대응하는 차원별 추출 영역 정보에 기술된 추출 영역의 위치 및 형상을 변환해, 추출 영역을 특정 해도 된다.The extraction region information for each dimension may be any form of information as long as the first extraction region and the second extraction region for each dimension are uniquely identifiable information. Since the extraction area must always be the same area for any size or aspect ratio image, the dimension-specific extraction area information can be obtained in the same extraction area for any size or aspect ratio image. It should be information of. For example, the dimension-specific extraction region information describes the position and shape of the extraction region with respect to an image having a predetermined size and aspect ratio (for example, an image having a width of 320 pixels × a width of 240 pixels). You may. In this case, for an image input at any arbitrary size and aspect ratio, the image is first resized to have a predetermined size and aspect ratio, and then according to the position and shape of the extraction region described in the extraction region information for each dimension. The extraction region may be specified. Conversely, the extraction region may be specified by converting the position and shape of the extraction region described in the dimensional extraction region information corresponding to the image of the arbitrary size and aspect ratio of the input image.

[0029] 차원별 추출 영역 정보에 포함된 각각의 추출 영역을 나타내는 정보는, 어느 미리 결정된 사이즈와 어스펙트비의 화상 (예를 들어, 가로폭 320화소×세로폭 240화소의 화상) 에 대해, 추출 영역을 구성하는 모든 화소의 좌표치의 세트를 기술한 정보일 수도 있다. 또 차원별 추출 영역 정보에 포함된 각각의 추출 영역을 나타내는 정보는, 미리 결정된 사이즈와 어스펙트비의 화상에 대해, 추출 영역의 위치 및 형상을, 파라미터로 기술하는, 정보일 수도 있다. 예를 들어 추출 영역의 형태가 사각형인 경우, 정보는 사각형의 네 귀퉁이의 좌표치를 기술할 수도 있다. 또 추출 영역의 형태가 원 (circle) 인 경우, 정보는 원의 중심의 좌표치와 반경의 값을 기술할 수도 있다.Information representing each extraction region included in the dimension-specific extraction region information is, for an image of a predetermined size and aspect ratio (for example, an image of 320 pixels wide × 240 pixels wide), It may be information describing a set of coordinate values of all the pixels constituting the extraction area. The information indicating each extraction region included in the dimension-specific extraction region information may be information that describes, as parameters, the position and shape of the extraction region with respect to an image of a predetermined size and aspect ratio. For example, if the shape of the extraction area is a rectangle, the information may describe the coordinate values of the four corners of the rectangle. In addition, when the shape of the extraction area is a circle, the information may describe the coordinate value and the radius value of the center of the circle.

[0030] 또, 의사 난수의 종 (seed) 을 차원별 추출 영역 정보로서 사용하여, 추출 영역 취득 수단 (2) 의 내부에서 그 종으로부터 출발해 의사 난수를 발생시켜, 난수에 따라 상이한 형상의 추출 영역을 생성해 나가는 (예를 들어 난수에 따라 사각형의 네 귀퉁이가 결정된다) 방법도 채용할 수가 있다. 구체적으로는, 예를 들어 이하의 순서로, 차원별 추출 영역을 취득할 수 있다.In addition, by using the seed of the pseudo random number as the extraction area information for each dimension, starting from the species in the extraction area acquisition means 2 to generate a pseudo random number, extraction of different shapes according to the random number You can also choose to create an area (for example, the four corners of a rectangle are determined by random numbers). Specifically, for example, the extraction region for each dimension can be obtained in the following order.

(1) 의사 난수의 종 (seed) 이 차원별 추출 영역 정보로서 공급된다. (1) A seed of pseudo random number is supplied as the extraction area information for each dimension.

(2) 차원이 n=1으로 설정된다. (2) The dimension is set to n = 1.

(3) 의사 난수를 발생시켜, 차원 n의 제1의 추출 영역의 사각형의 네 귀퉁이를 결정한다. (3) A pseudo random number is generated to determine four corners of the rectangle of the first extraction region of the dimension n.

(4) 의사 난수를 발생시켜, 차원 n의 제2의 추출 영역의 사각형의 네 귀퉁이를 결정한다. (4) A pseudo random number is generated to determine four corners of the rectangle of the second extraction region of the dimension n.

(5) 차원이 n=n+1으로 설정되고, 절차는 (3) 으로 돌아간다. (5) The dimension is set to n = n + 1, and the procedure returns to (3).

[0031] 난수에 기초하여 추출 영역을 결정하고 있으므로, 생성되는 추출 영역은 차원마다 상이한 형상이 된다. 또, 의사 난수의 종이 같으면, 매회 (어느 화상에 대해서도) 같은 난수가 발생되기 때문에, 상이한 화상에 대해서도 같은 추출 영역이 재현된다.Since the extraction region is determined based on the random number, the generated extraction region has a different shape for each dimension. In addition, since the same random number is generated every time (for any image) when the pseudo random number is the same, the same extraction area is reproduced for the different images.

[0032] 추출 영역 취득 수단 (2) 는, 입력으로서 공급된 차원별 추출 영역 정보로부터, 차원 결정 수단 (1) 으로부터 공급된 차원에 대응하는 제1의 추출 영역과 제2의 추출 영역을 나타내는 정보를 취득해, 추출 영역 대표치 산출 수단 (3)에 공급한다.The extraction region acquisition means 2 is information indicating a first extraction region and a second extraction region corresponding to the dimension supplied from the dimension determination means 1 from the dimension-specific extraction region information supplied as an input. Is obtained and supplied to the extraction region representative value calculation means (3).

[0033] 영역 특징량 산출 수단 (3) 에는, 추출 영역 취득 수단 (2) 로부터의 입력 (제1의 추출 영역과 제2의 추출 영역을 나타내는 정보) 외에도, 입력으로서 화상 식별자의 추출 대상이 되는 화상이 공급된다. 영역 특징량 산출 수단 (3) 은, 제1의 영역 특징량 산출 수단 (31) 및 제2의 영역 특징량 산출 수단 (32) 를 갖는다. 영역 특징량 산출 수단 (3) 은, 제1의 영역 특징량 산출 수단 (31) 을 이용해, 입력으로서 공급된 화상으로부터, 차원마다, 추출 영역 취득 수단 (2) 로부터 공급되는 제1의 추출 영역을 나타내는 정보에 근거해, 제1의 추출 영역의 특징량을 제1의 영역 특징량으로서 산출해, 비교 수단 (4) 에 공급한다. 또, 영역 특징량 산출 수단 (3) 은, 제2의 영역 특징량 산출 수단 (32) 를 이용해, 입력으로서 공급되는 화상으로부터, 차원마다, 추출 영역 취득 수단 (2) 로부터 공급되는 제2의 추출 영역을 나타내는 정보에 근거해, 제2의 추출 영역의 특징량을 제2의 영역 특징량으로서 산출해, 비교 수단 (4) 에 공급한다.In addition to the input from the extraction area acquisition means 2 (information indicating the first extraction area and the second extraction area), the area feature variable calculating means 3 serves as an input of the image identifier to be extracted. The image is supplied. The area feature variable calculating means 3 has a first area feature variable calculating means 31 and a second area feature variable calculating means 32. The area feature variable calculating means 3 uses the first area feature variable calculating means 31 to extract the first extraction region supplied from the extraction area acquisition means 2 for each dimension from the image supplied as the input. Based on the information to be shown, the feature amount of the first extraction region is calculated as the first feature feature and supplied to the comparison means 4. Moreover, the area feature variable calculating means 3 extracts the 2nd feature supplied from the extraction area acquisition means 2 for every dimension from the image supplied as an input using the 2nd area feature variable calculating means 32. As shown in FIG. Based on the information indicating the area, the feature amount of the second extraction area is calculated as the second area feature amount and supplied to the comparison means 4.

[0034] 또한, 제1의 추출 영역과 제2의 추출 영역을 나타내는 정보에 기초하여, 입력된 화상에 대한 각각의 추출 영역을 특정하기 위해서는, 필요에 따라 영역 특징량 산출 수단 (3) 은, 차원별 추출 영역 정보의 미리 결정된 사이즈와 어스펙트비를 갖도록 화상을 리사이즈한다.Further, in order to specify each extraction area for the input image based on the information indicating the first extraction area and the second extraction area, the area feature variable calculating means 3, if necessary, The image is resized so as to have a predetermined size and aspect ratio of the dimensional extraction area information.

[0035] 영역 특징량 산출 수단 (3) 은, 각각의 추출 영역에 포함되는 화소 군의 화소 값을 이용해, 각각의 추출 영역의 영역 특징량을 산출한다. 여기서 화소 값이란, 화상의 각 화소가 가지는 신호의 값이며, 스칼라량 또는 벡터량이다. 예를 들어, 화상이 휘도 화상인 경우에는, 화소 값은 휘도치 (스칼라량) 이고, 화상이 컬러 화상의 경우에는, 화소 값은 색성분을 나타내는 벡터량이다. 예를 들어 컬러 화상이 RGB 화상인 경우는, 화소 값은 R성분, G성분, B성분의 3 차원의 벡터량이다. 또 컬러 화상이 YCbCr 화상인 경우는, 화소 값은 Y성분, Cb성분, Cr성분의 3 차원의 벡터량이다.The area feature variable calculating means 3 calculates the area feature variable of each extraction region by using pixel values of the pixel group included in each extraction region. Here, the pixel value is a value of a signal that each pixel of the image has, and is a scalar amount or a vector amount. For example, when the image is a luminance image, the pixel value is a luminance value (scalar amount), and when the image is a color image, the pixel value is a vector amount indicating a color component. For example, when a color image is an RGB image, a pixel value is a three-dimensional vector amount of R component, G component, and B component. When the color image is a YCbCr image, the pixel value is a three-dimensional vector amount of the Y component, the Cb component, and the Cr component.

[0036] 추출 영역의 영역 특징량을 산출하기 위하여, 그 차원의 추출 영역 (제1의 추출 영역과 제2의 추출 영역) 을 산출하는 방법이 일정 (어느 입력 화상에 대해서도 같은 산출 방법이 사용된다) 하면, 임의의 방법이 사용될 수 있다.In order to calculate the area feature amount of the extraction area, the method of calculating the extraction area (the first extraction area and the second extraction area) of the dimension is constant (the same calculation method is used for any input image). ), Any method may be used.

[0037] 또, 산출하는 영역 특징량은, 스칼라량 또는, 벡터량일 수도 있다. 예를 들어, 화소 값이 휘도치등의 스칼라량 인 경우, 영역 특징량을, 평균치, 미디언치, 최대 빈수, 최대치, 최소치 등으로서 산출해도 된다 (모두 스칼라량이다). 또 예를 들어, 추출 영역에 포함된 화소 값을 소트해, 분포 (소트 된 순열) 의 상위 또는 하위로부터 미리 결정된 비율의 위치에 있는 화소 값을, 영역 특징량으로서 산출해도 된다 (이것도 스칼라량이다). 보다 구체적으로, 백분율의 P%가 미리 결정된 비율인 경우 (예를 들어 P=25%) 에 대해 설명한다. 추출 영역에 포함된 합계 N개의 화소의 화소 값 (휘도치) 을 오름 순으로 소트해, 오름 순으로 소트된 화소 값 (휘도치) 의 세트를 Y(i)={Y(0), Y(1), Y(2),…, Y(N-1) }로서 나타낸다. 여기서, 오름 순으로 소트된 순열의 하위로부터 P%의 위치에 있는 화소 값은, 예를 들어, Y(floor(N×P/100)) 가 되어, 이 값이 추출 영역의 영역 특징량으로서 획득된다. 또한, floor() 는, 소수점 이하의 잘라버림을 실시하는 함수이다. 여기서, 추출 영역에 포함된 화소의 휘도치에 대해, 이 식 (Y(floor(N×P/100))) 를 적용해 산출된 영역 특징량을, 「퍼센타일 휘도치 특징량」이라고 부르기로 한다.The area feature amount to be calculated may be a scalar amount or a vector amount. For example, when the pixel value is a scalar amount such as a luminance value, the area feature amount may be calculated as an average value, a median value, a maximum number of bins, a maximum value, a minimum value, or the like (all are scalar amounts). For example, the pixel values included in the extraction region may be sorted, and the pixel values at positions of a predetermined ratio from the upper or lower portion of the distribution (sorted permutation) may be calculated as region feature amounts (this is also a scalar amount). ). More specifically, the case where P% of the percentage is a predetermined ratio (for example P = 25%) will be described. The pixel values (luminance values) of the N pixels in the extraction area are sorted in ascending order, and the set of pixel values (luminance values) sorted in ascending order is Y (i) = {Y (0), Y ( 1), Y (2),... , Y (N-1)}. Here, the pixel value at the position of P% from the lower part of the permutation sorted in ascending order becomes, for example, Y (floor (N × P / 100)), and this value is obtained as the area feature amount of the extraction region. do. In addition, floor () is a function that performs truncation after the decimal point. Here, the region feature amount calculated by applying this formula (Y (floor (N × P / 100))) to the luminance value of the pixel included in the extraction region is referred to as "percentile luminance value feature amount". .

[0038] 또, 화소 값이 색성분 등의 벡터량인 경우에는, 먼저 그것들을 임의의 방법으로 스칼라량으로 변환하고 나서, 위에서 설명한 방법에 의해 영역 특징량을 산출해도 된다. 예를 들어, 화소 값이 RGB 성분의 3 차원의 벡터량인 경우는, 먼저 그것들을 스칼라량인 휘도치로 변환하고 나서, 위에서 설명한 방법에 의해 영역 특징량을 산출해도 된다. 또, 화소 값이 벡터량인 경우에는, 예를 들어, 그 추출 영역에 포함된 화소 값의 평균 벡터를 영역 특징량으로서 사용하는 것도 가능하다.In addition, when the pixel value is a vector amount such as a color component, first, they may be converted into a scalar amount by any method, and then the area feature amount may be calculated by the method described above. For example, when the pixel value is a three-dimensional vector amount of RGB components, first, the area values may be calculated by the method described above after converting them into luminance values that are scalar amounts. In addition, when the pixel value is a vector amount, it is also possible to use, for example, an average vector of pixel values included in the extraction area as the area feature amount.

[0039] 또 예를 들어, 추출 영역에 대해 에지 검출이나, 템플릿 매칭 (template matching) 등의 임의의 연산 (미분 연산, 필터링 연산) 을 실시해, 그 연산 결과를 영역 특징량으로서 사용해도 된다. 예를 들어, 에지의 방향 (구배의 방향) 을 나타내는 2 차원의 벡터량, 또는 어느 템플릿과의 유사도를 나타내는 스칼라량일 수도 있다.For example, you may perform arbitrary calculations (differential calculation, filtering operation), such as edge detection and template matching, with respect to an extraction area | region, and may use the calculation result as area | region feature amount. For example, it may be a two-dimensional vector amount indicating the direction of the edge (direction of the gradient), or a scalar amount indicating similarity with any template.

[0040] 또, 추출 영역에 포함된 색분포나, 에지의 방향 분포, 에지의 강도 분포를 나타내는 히스토그램이, 영역 특징량으로서 획득될 수도 있다 (모두 벡터량이다).In addition, a histogram representing the color distribution included in the extraction region, the directional distribution of the edges, and the intensity distribution of the edges may be obtained as the area feature amounts (all are vector quantities).

[0041] 또, ISO/IEC 15938-3에 규정된 각종 특징량이 사용될 수도 있는데, 이는, 도미넌트 컬러 (Dominant Color), 컬러 레이아웃 (Color Layout), 스케일러블 컬러 (Scalable Color), 컬러 구조 (Color Structure), 에지 히스토그램 (Edge Histogram), 호모지니어스 텍스처 (Homogeneous Texture), 텍스처 브라우징 (Texture Browsing), 영역 형상 (Region Shape), 윤곽 형상 (Contour Shape), 형상 3D(Shape 3D), 파라메트릭 모션 (Parametric Motion), 및 모션 액티비티 (Motion Activity) 를 포함한다.In addition, various feature quantities defined in ISO / IEC 15938-3 may be used, which are dominant color, color layout, scalable color, color structure. Edge Histogram, Homogeneous Texture, Texture Browsing, Region Shape, Contour Shape, Shape 3D, Parametric Motion Motion, and Motion Activity.

[0042] 비교 수단 (4) 는, 차원마다, 영역 특징량 산출 수단 (3) 으로부터 공급된 제1의 영역 특징량과 제2의 영역 특징량을 비교해, 비교한 결과를 양자화해 취득된 양자화 인덱스를 출력한다. 비교 수단 (4) 이, 차원마다, 양자화 인덱스를 출력하므로, 최종적으로, 복수의 차원의 양자화 인덱스로 이루어지는 양자화 인덱스 벡터가 출력된다.The comparison means 4 compares the first area feature amount supplied from the area feature variable calculating means 3 with the second area feature amount for each dimension, and quantizes the result of comparison to obtain the quantization index. Outputs Since the comparison means 4 outputs a quantization index for each dimension, a quantization index vector consisting of quantization indices of a plurality of dimensions is finally output.

[0043] 비교 수단 (4) 이, 제1의 영역 특징량과 제2의 영역 특징량을 비교해, 양자화하는 임의의 방법을 사용할 수도 있다. 또, 각 차원에 대한 양자화 인덱스의 수도 임의이다.The comparison means 4 may use any method for comparing and quantizing the first region feature amount with the second region feature amount. The number of quantization indexes for each dimension is also arbitrary.

[0044] 비교 수단 (4) 는, 예를 들어, 영역 특징량이 스칼라량 인 경우 (예를 들어 휘도치의 평균치), 그 대소를 비교해 제1의 영역 특징량이 큰 경우에는 양자화 인덱스를 +1, 그 이외의 경우에는 양자화 인덱스를 ―1 로 설정해, 비교 결과를 +1와 ―1의 2개 값들의 양자화 인덱스로 양자화할 수도 있다. 여기서, 차원 n의 제1의 영역 특징량을 Vn1, 제2의 영역 특징량을 Vn2와 하면, 차원 n의 양자화 인덱스 Qn는, 다음 식에서 산출 할 수 있다.The comparison means 4, for example, when the area feature amount is a scalar amount (for example, an average value of luminance values), and compares the magnitude and the quantization index is +1 when the first area feature amount is large. In the case of, the quantization index may be set to −1, and the comparison result may be quantized to a quantization index of two values of +1 and −1. Here, if the first region feature amount of the dimension n is Vn1 and the second region feature amount is Vn2, the quantization index Qn of the dimension n can be calculated by the following equation.

[0045] [식 1][Equation 1]

Qn=+1 (Vn1>Vn2 의 경우) Qn = + 1 (for Vn1> Vn2)

-1 (Vn1≤Vn2 의 경우)    -1 (for Vn1≤Vn2)

[0046] 여기서, 비교 수단 (4) 이, 위의 식 1에 근거한 비교 및 양자화를 실시하는 경우에 있어서의, 비교 수단 (4) 의 보다 상세한 구성 도를 도 3에 나타낸다.Here, FIG. 3 shows a more detailed configuration diagram of the comparison means 4 in the case where the comparison means 4 performs the comparison and quantization based on Equation 1 above.

[0047] 도 3을 참조하면, 비교 수단 (4) 는, 대소 비교 수단 (41) 과 양자화 수단 (42) 를 포함한다.Referring to FIG. 3, the comparison means 4 includes a magnitude comparison means 41 and a quantization means 42.

[0048] 대소 비교 수단 (41) 은, 제1의 영역 특징량과 제2의 영역 특징량이 공급되면, 제1의 영역 특징량의 값과 제2의 영역 특징량의 값을 비교해, 그 비교 결과를 양자화 수단 (42) 에 공급한다. 이것은, 대소 비교 수단 (41) 이, Vn1와 Vn2의 대소를 비교해, 비교 결과가, Vn1>Vn2인지, 또는 Vn1≤Vn2인지를 나타내는 정보를, 대소 비교 결과로서 양자화 수단 (42) 에 공급한다.When the first area feature amount and the second area feature amount are supplied, the magnitude comparison means 41 compares the value of the first area feature amount with the value of the second area feature amount, and compares the result. Is supplied to the quantization means 42. This compares the magnitude of Vn1 and Vn2 with the magnitude comparison means 41, and supplies the quantization means 42 with the information which shows whether a comparison result is Vn1> Vn2 or Vn1 <= Vn2.

[0049] 양자화 수단 (42) 는, 대소 비교 수단 (41) 으로부터 공급되는 대소 비교 결과에 기초하여, 식 1에 따라 양자화를 실시해, 양자화 인덱스를 출력한다. 따라서, 양자화 수단 (42) 은, 비교 결과가 Vn1>Vn2인 것을 나타내는 정보가 공급되는 경우에는, 양자화 인덱스가 +1 이 되도록 하는 한편, 비교 결과가 Vn1≤Vn2인 것을 나타내는 정보가 공급되는 경우에는, 양자화 인덱스가 ―1 이 되도록 양자화 인덱스를 출력한다.The quantization means 42 quantizes according to Equation 1 based on the result of the magnitude comparison supplied from the magnitude comparison means 41, and outputs a quantization index. Therefore, when the information indicating that the comparison result is Vn1> Vn2 is supplied, the quantization means 42 causes the quantization index to be +1, while the information indicating that the comparison result is Vn1? Vn2 is supplied. The quantization index is output such that the quantization index is -1.

[0050] 또한, 이 식 1에 근거한 비교 및 양자화 방법을 비교 및 양자화 방법 A라고 부르기로 함에 유의한다.In addition, note that the comparison and quantization method based on the equation 1 will be referred to as the comparison and quantization method A.

[0051] 또, 비교 수단 (4) 은, 예를 들어, 영역 특징량이 스칼라량인 경우 (예를 들어 휘도치의 평균치), 차분치의 절대치가 미리 결정된 임계값 이하의 경우에는, 제1의 영역 특징량과 제2의 영역 특징량과의 사이에 차이가 없다고 판정되어, 차이가 없는 것을 나타내는 양자화 인덱스 0 이 설정되고, 그 이외의 경우에는, 비교 수단 (4) 은 그 대소를 비교해 제1의 영역 특징량 쪽이 큰 경우에는 양자화 인덱스 +1이 설정되는 한편, 그 이외의 경우에는 양자화 인덱스 ―1이 설정되어서, 양자화 인덱스는 +1, 0,-1의 3개 값 중 임의의 것이 되는 방식으로 양자화를 수행할 수도 있다. 여기서, 차원 n의 제1의 영역 특징량을 Vn1, 제2의 영역 특징량을 Vn2, 그리고 미리 결정된 임계값을 th로 가정하면, 차원 n의 양자화 인덱스 Qn는, 다음 식에서 산출할 수 있다.In addition, the comparison means 4, for example, when the area feature amount is a scalar amount (for example, an average value of the luminance values), when the absolute value of the difference value is equal to or less than a predetermined threshold value, It is determined that there is no difference between the amount and the second area feature amount, and a quantization index 0 indicating that there is no difference is set, and in other cases, the comparison means 4 compares the magnitude with the first area. If the feature amount is larger, the quantization index +1 is set. Otherwise, the quantization index -1 is set, and the quantization index is quantized in such a manner that the quantization index is any one of three values of +1, 0, -1. It can also be done. Here, assuming that the first region feature amount of the dimension n is Vn1, the second region feature amount is Vn2, and the predetermined threshold is th, the quantization index Qn of the dimension n can be calculated by the following equation.

[0052] [식 2][0052] [Equation 2]

Qn=+1 (|Vn1-Vn2|>th 또한 Vn1>Vn2 의 경우) Qn = + 1 (when | Vn1-Vn2 |> th and Vn1> Vn2)

0 (|Vn1-Vn2|≤th 의 경우)     0 (for | Vn1-Vn2 | ≤th)

-1 (|Vn1-Vn2|>th 또한 Vn1≤Vn2 의 경우)    -1 (when | Vn1-Vn2 |> th and Vn1≤Vn2)

[0053] 비교 수단 (4) 가, 식 2에 근거한 비교 및 양자화를 실시하는 경우에 있어서의, 비교 수단 (4) 의 보다 상세한 구성도를 도 4에 나타낸다.4 shows a more detailed configuration diagram of the comparison means 4 in the case where the comparison means 4 performs the comparison and quantization based on the equation (2).

[0054] 도 4를 참조하면, 비교 수단 (4) 은, 차분치 산출 수단 (43) 과 양자화 수단 (44) 을 포함한다. 양자화 수단 (44) 에는, 미리 결정된, 양자화의 경계를 나타내는 정보 (양자화 경계 정보) 인 임계값이, 입력으로서 미리 공급된다.Referring to FIG. 4, the comparing means 4 includes a difference value calculating means 43 and a quantization means 44. The quantization means 44 is previously supplied with a threshold value, which is information (quantization boundary information) that is predetermined, indicating the boundary of quantization.

[0055] 차분치 산출 수단 (43) 은, 제1의 영역 특징량과 제2의 영역 특징량이 공급되면, 제1의 영역 특징량의 값과 제2의 영역 특징량의 값과의 사이의 차분치를 산출해, 산출한 차분치를 양자화 수단 (44) 에 공급한다. 이것은, 차분치 산출 수단 (43) 은, Vn1-Vn2를 산출해, 그 결과값을 양자화 수단 (44) 에 공급함을 의미한다.The difference value calculating means 43, if the first region feature amount and the second region feature amount are supplied, the difference between the value of the first region feature amount and the value of the second region feature amount. Value is calculated and the calculated difference value is supplied to the quantization means 44. This means that the difference value calculating means 43 calculates Vn1-Vn2 and supplies the resultant value to the quantization means 44.

[0056] 양자화 수단 (44) 은, 차분치 산출 수단 (43) 으로부터 공급된 차분치와 입력으로서 공급되는 미리 결정된 양자화의 경계를 나타내는 정보 (양자화 경계 정보) 인 임계값에 기초하여, 식 2에 따라 양자화를 실시해, 양자화 인덱스를 출력한다. 이것은 양자화 수단 (42) 이, 차분치 산출 수단 41으로부터 공급된 Vn1-Vn2의 값과 입력으로서 공급되는 임계값 th에 기초하여, |Vn1-Vn2|>th 또한 Vn1-Vn2>0 의 경우에는 양자화 인덱스가 +1, |Vn1-Vn2|>th 또한 Vn1-Vn2≤0 의 경우에는 양자화 인덱스가 ―1, 그리고 |Vn1-Vn2|≤th 의 경우에는 양자화 인덱스가 0 으로 설정되는 방식으로 양자화 인덱스를 출력한다.The quantization means 44 is based on equation 2 based on a threshold value which is information (quantization boundary information) indicating the boundary of the difference value supplied from the difference value calculation means 43 and the predetermined quantization boundary supplied as an input. Quantization is performed accordingly, and a quantization index is output. This is based on the value of Vn1-Vn2 supplied from the difference calculating means 41 and the threshold value th supplied as an input, and the quantization means 42 quantizes in the case of | Vn1-Vn2 |> th and Vn1-Vn2> 0. If the index is +1, | Vn1-Vn2 |> th, and Vn1-Vn2≤0, the quantization index is -1, and if | Vn1-Vn2 | ≤th, the quantization index is output in such a manner that the quantization index is set to 0. do.

[0057] 또한, 이 식 2에 근거한 비교 및 양자화 방법을 이하에서 비교 및 양자화 방법 B라고 부르기로 한다.In addition, a comparison and quantization method based on this equation 2 will be referred to as a comparison and quantization method B hereinafter.

[0058] 여기서는 차분치에 기초하여 3개 값들에서 양자화가 수행되지만, 차분치의 크기에 따라, 보다 다수의 (레벨의) 양자화 인덱스에서 양자화를 수행하는 것이 가능하다. 이 경우도, 비교 수단 (4) 는, 도 4에 나타낸 구성을 가져, 양자화 수단 (44) 에는, 각 레벨의 양자화의 미리 결정된 경계를 나타내는 정보 (양자화 경계 정보) 로서의 복수의 임계값이 입력으로서 공급된다. 또한, 이 차분치와 입력으로서 공급된 복수의 임계값에 기초하여, 4 레벨 이상으로 양자화하는 비교 및 양자화 방법을 이하에서 비교 및 양자화 방법 C라고 부르기로 한다.Although quantization is performed here at three values based on the difference, it is possible to perform quantization at a more (level) quantization index, depending on the magnitude of the difference. Also in this case, the comparison means 4 has the structure shown in FIG. 4, and in the quantization means 44, a plurality of threshold values as information (quantization boundary information) indicating a predetermined boundary of quantization of each level are used as input. Supplied. In addition, a comparison and quantization method of quantizing at four or more levels based on the difference value and the plurality of threshold values supplied as an input will be referred to as a comparison and quantization method C below.

[0059] 이와 같이, 제1의 영역 특징량과 제2의 영역 특징량과의 사이의 차이가 작아서 (미리 결정된 임계값 이하이어서), 차이가 존재하지 않는 것으로 판정되는 경우에 차이가 없음을 나타내는 양자화 인덱스를 도입하는 것에 의해, 식 1의 방법에 비해, 영역 특징량 사이의 차이가 작은 추출 영역의 쌍의 차원의 특징량 (양자화 인덱스) 을 보다 안정적으로, 즉 각종 개변 처리나 노이즈에 대해 보다 강건하게 할 수 있다. 그 때문에, 국소 영역간의 특징의 차이가 전체적으로 적은, 전체적으로 변화의 적은 평탄한 화상 (예를 들어 푸른 하늘의 화상) 에 대해서도 안정적인, 즉 각종 개변 처리나 노이즈에 대해서도 강건한, 화상 식별자 (양자화 인덱스 벡터) 를 출력할 수 있다.As such, the difference between the first area feature amount and the second area feature amount is small (below a predetermined threshold value), indicating that there is no difference when it is determined that the difference does not exist. By introducing a quantization index, compared with the method of Equation 1, the feature amount (quantization index) of the dimension of the pair of the extraction regions where the difference between the area feature amounts is smaller is more stable, i.e., for various modification processing and noise. It can be hardened. Therefore, an image identifier (quantization index vector) that is stable even for a flat image (e.g., a blue sky image) that has a small overall difference in characteristics between local regions and that is robust against various alteration processes and noise is obtained. You can print

[0060] 또, 비교 수단 (4) 은, 예를 들어, 영역 특징량이 벡터량인 경우, 벡터량을 먼저 임의의 방법으로 스칼라량으로 변환하고 나서, 위에서 설명한 방법에 의해 양자화를 실시해도 된다 (이 비교 및 양자화 방법을 이하에서 비교 및 양자화 방법 D라고 부르기로 한다). 또 예를 들어, 제1의 추출 영역의 벡터로부터 제2의 추출 영역의 벡터와의 차인 차 벡터를 산출해, 차 벡터를 벡터 양자화해 양자화 인덱스를 산출해도 된다. 이 경우에는, 예를 들어, 각각의 양자화 인덱스에 대해 미리 결정된 대표 벡터 (중심 벡터 등) 가 공급되어 대표 벡터와 차 벡터 사이의 유사도가 가장 커 (거리가 가장 작아) 지는 양자화 인덱스로 분류된다 (이 비교 및 양자화 방법을 비교 및 양자화 방법 E라고 부르기로 한다). 또, 위에서 설명한 식 2에 의한 스칼라량의 양자화와 마찬가지로, 차 벡터의 놈 (norm) 이 미리 결정된 임계값 이하인 경우에는, 제1의 영역 특징량과 제2의 영역 특징량 사이의 차이가 없는 것으로 판정하여, 차이가 없는 것을 나타내는 양자화 인덱스 0으로서 차이가 없는 것을 나타내는 양자화 인덱스를 도입해도 된다.Further, the comparison means 4 may, for example, when the area feature amount is a vector amount, first convert the vector amount to a scalar amount by any method, and then perform quantization by the method described above (the comparison And the quantization method will be referred to as comparison and quantization method D below. For example, you may calculate the difference vector which is a difference with the vector of a 2nd extraction area | region from the vector of a 1st extraction area | region, vector-quantizes a difference vector, and may compute a quantization index. In this case, for example, a predetermined representative vector (such as a center vector) is supplied for each quantization index so that it is classified as a quantization index having the largest similarity (smallest distance) between the representative vector and the difference vector ( This comparison and quantization method will be referred to as comparison and quantization method E). In addition, similarly to the quantization of the scalar amount according to Equation 2 described above, when the norm of the difference vector is equal to or less than a predetermined threshold, there is no difference between the first region feature amount and the second region feature amount. By judging, a quantization index indicating no difference may be introduced as quantization index 0 indicating no difference.

[0061] 또한, 본 발명에서 출력된 양자화 인덱스 벡터를 조합 (matching) 할 때 (화상으로부터 추출한 양자화 인덱스 벡터와 다른 화상으로부터 추출한 양자화 인덱스 벡터를 비교해, 그들의 화상이 동일한가 아닌가를 판정할 때), 양자화 인덱스가 일치하는 차원수 (유사도), 혹은 양자화 인덱스가 비일치인 차원수 (해밍 거리) 를 동일성 척도로서 산출해, 산출된 동일성 척도를 임계값과 비교하여, 화상의 동일성이 판정될 수 있다. 또, 비교 수단 (4) 에 있어서, 양자화 인덱스가 식 2에 기초하여 산출된 경우에는, 이하와 같이 동일성 척도 (유사도) 를 산출할 수 있다. 먼저, 2개의 화상의 양자화 인덱스 벡터를 대응하는 차원사이에서 서로 비교해, 「양쪽 모두의 양자화 인덱스가 0」이 아닌 차원의 수를 산출한다 (이 값을 A로 설정한다). 다음으로, 「양쪽 모두의 양자화 인덱스가 0」이 아닌 차원에 있어서, 양자화 인덱스가 일치하는 차원의 수를 산출한다 (이 값을 B로 설정한다). 그리고, 유사도를 B/A로서 산출한다. 여기서 A=0의 경우 (즉, 모든 차원에서 양쪽 모두의 양자화 인덱스가 0이 되는 경우) 는, 유사도를 미리 결정된 수치 (예를 들어 0.5) 로 설정한다.In addition, when matching the quantization index vector output in the present invention (when comparing the quantization index vector extracted from the image and the quantization index vector extracted from another image to determine whether or not their image is the same), quantization The number of dimensions (similarity) in which the indexes match or the number of dimensions (hamming distance) in which the quantization indexes are inconsistent are calculated as the identity measure, and the calculated identity measure is compared with a threshold to determine the identity of the image. Moreover, in the comparison means 4, when the quantization index is calculated based on Formula 2, the identity measure (similarity) can be calculated as follows. First, the quantization index vectors of two images are compared with each other between corresponding dimensions to calculate the number of dimensions in which both quantization indexes are not 0 (this value is set to A). Next, in the dimension where both quantization indices are not 0, the number of dimensions with which the quantization indices match is calculated (set this value to B). The similarity is calculated as B / A. Here, in the case of A = 0 (ie, when both quantization indices become zero in all dimensions), the similarity is set to a predetermined numerical value (for example, 0.5).

[0062] [제1의 실시형태의 동작][Operation of the First Embodiment]

다음으로, 도 5의 플로우차트를 참조해, 제1의 실시형태에 있어서의 화상 식별자 추출 장치의 동작을 설명한다. 도 5의 플로우차트에서는, 특징 벡터의 차원 (의 수) 를 「n」으로 나타내고, 차원은 1으로부터 N까지의 합계 N 차원이 존재한다.Next, with reference to the flowchart of FIG. 5, operation | movement of the image identifier extraction apparatus in 1st Embodiment is demonstrated. In the flowchart of FIG. 5, the dimension (number) of the feature vector is represented by “n”, and the dimension includes a total N dimension from 1 to N. FIG.

[0063] 먼저, 차원 결정 수단 (1) 은, 특징 벡터를 추출하기 위한 최초의 차원으로서 차원 1을 결정해 (n=1), 추출 영역 취득 수단 (2) 에 공급한다 (단계 A1).First, the dimension determination means 1 determines dimension 1 as the first dimension for extracting the feature vector (n = 1), and supplies it to the extraction region acquisition means 2 (step A1).

[0064] 다음으로, 추출 영역 취득 수단 (2) 는, 입력으로서 공급된 차원별 추출 영역 정보로부터, 차원 n의 제1의 추출 영역과 제2의 추출 영역을 나타내는 정보를 취득해, 영역 특징량 산출 수단 (3) 에 공급한다 (단계 A2).Next, the extraction region acquisition means 2 obtains information indicating the first extraction region and the second extraction region of the dimension n from the dimensional extraction region information supplied as an input, and the region feature amount. It supplies to the calculating means 3 (step A2).

[0065] 다음으로, 영역 특징량 산출 수단 (3) 은, 입력으로서 공급되는 화상으로부터, 차원 n의 제1의 영역 특징량과 제2의 영역 특징량을 산출해, 비교 수단 (4) 에 공급한다 (단계 A3).[0065] Next, the area feature variable calculating means 3 calculates the first area feature variable and the second area feature variable of the dimension n from the image supplied as an input, and supplies it to the comparison means 4. (Step A3).

[0066] 다음으로, 비교 수단 (4) 는, 차원 n의 제1의 영역 특징량과 제2의 영역 특징량을 비교해, 비교한 결과를 양자화해, 양자화 인덱스를 출력한다 (단계 A4).Next, the comparison means 4 compares the first region feature amount and the second region feature amount of the dimension n, quantizes the comparison result, and outputs a quantization index (step A4).

[0067] 다음으로, 모든 차원에 대해 양자화 인덱스의 출력이 종료되었는지 여부를 판정 (즉 n<N가 참인지 거짓인지를 판정) 한다 (단계A5). 모든 차원에 대해 양자화 인덱스의 출력이 종료되었을 경우 (즉 n<N가 참인 경우) 는 처리를 종료한다. 모든 차원에 대해 양자화 인덱스의 출력이 종료되지 않은 경우 (즉 n<N가 참인 경우) 는, 처리는 단계 A6으로 이행한다. 단계 A6에서는, 차원 결정 수단 (1) 이, 특징 벡터를 추출하기 위한 다음의 차원을 결정해 (n=n+1), 추출 영역 취득 수단 (2) 에 공급한다. 그리고, 처리는 재차 단계 A2 로 이행한다.[0067] Next, it is determined whether or not the output of the quantization index has ended for all the dimensions (ie, it is determined whether n <N is true or false) (step A5). If the output of the quantization index has ended for all dimensions (that is, n <N is true), the process ends. If the output of the quantization index has not ended for all dimensions (i.e., n <N is true), the process proceeds to step A6. In step A6, the dimension determination means 1 determines the next dimension for extracting the feature vector (n = n + 1), and supplies it to the extraction region acquisition means 2. The process then proceeds to step A2 again.

[0068] 또한, 여기서는, 차원 1으로부터 차원 N까지 차례로 추출 처리를 실시하고 있지만, 이 차례에 한정되지 않고 임의의 차례가 취해질 수 있다. 또 이 처리 순서에 한정하지 않고, 복수의 차원에 대한 추출 처리를 병렬로 실시하는 것도 가능하다.In addition, although extraction processing is performed in order from dimension 1 to dimension N here, it is not limited to this order and arbitrary orders can be taken. Moreover, not only this process sequence but extracting process with respect to several dimension can also be performed in parallel.

[0069] [제1의 실시형태의 효과][Effects of the First Embodiment]

다음으로, 본 발명의 제1의 실시형태의 효과에 대해 설명한다.Next, the effect of 1st Embodiment of this invention is demonstrated.

[0070] 제1의 효과는, 복수의 차원의 특징 벡터로 구성되는 화상 식별자의, 상이한 화상을 식별할 수 있는 정도인 식별 능력을 높일 수 있다는 것이다. 특히, 화상의 국소 영역간의 상관이 큰 화상에 대해, 이 효과는 현저하다.[0070] The first effect is that it is possible to increase the identifying ability of the picture identifier composed of the feature vectors of the plurality of dimensions, which is the extent to which different pictures can be identified. In particular, this effect is remarkable for an image having a large correlation between local regions of the image.

[0071] 그 이유는, 차원간에서 특징량을 추출하는 영역의 형상이 상이한 (영역의 형상이 다양한) 것에 따라, 차원간의 상관을 작게 할 수 있기 때문이다.The reason is that the correlation between the dimensions can be reduced as the shapes of the regions from which the feature amounts are extracted from the dimensions are different (variable shapes of the regions).

[0072] 제2의 효과는, 특정의 주파수에 신호가 집중하는 화상에 대해서도, 식별 능력이 저하되지 않을 것이라는 것이다.The second effect is that the identification capability will not be degraded even for the image in which the signal concentrates on a specific frequency.

[0073] 그 이유는, 차원간에서 특징량을 추출하는 영역의 형상이 상이한 (영역의 형상들이 다양한) 것에 따라, 어느 특정의 주파수에 신호가 집중하는 화상에 대해서도, 동시에 모든 (많은) 추출 영역의 쌍 (차원) 의 특징량 사이에 차이가 없어져 식별 능력이 저하되는 경우가 발생하기 어려워지기 때문이다.The reason is that as the shape of the region extracting the feature quantities between the dimensions is different (various shapes of the region), even for an image in which the signal concentrates at a certain frequency, all (many) extraction regions at the same time This is because there is no difference between the feature quantities of the pairs (dimensions) of H, which makes it difficult to occur when the discrimination ability is lowered.

[0074] [제2의 실시형태][Second Embodiment]

[제2의 실시형태의 구성][Configuration of Second Embodiment]

다음으로, 본 발명의 제2의 실시형태에 대해 도면을 참조해 상세하게 설명한다.Next, 2nd Embodiment of this invention is described in detail with reference to drawings.

[0075] 본 발명의 제2의 실시형태는, 도 1에 나타낸 제1의 실시형태의 비교 수단 (4) 이, 도 6에 상세히 나타낸 비교 수단 (4A) 으로 교체되는 점에 있어서, 제1의 실시형태와 상이하다. 비교 수단 (4A) 이외의 성분들은, 제1의 실시형태와 같기 때문에, 여기서는 그러한 성분들에 대한 설명을 생략한다.In a second embodiment of the present invention, the comparison means 4 of the first embodiment shown in FIG. 1 is replaced with the comparison means 4A shown in detail in FIG. It differs from embodiment. Since components other than the comparison means 4A are the same as in the first embodiment, the description of such components is omitted here.

[0076] 도 6을 참조하면, 비교 수단 (4A) 은, 차분치 산출 수단 (43), 양자화 경계 결정 수단 (45), 및 양자화 수단 (44) 을 포함한다.Referring to FIG. 6, the comparison means 4A includes a difference value calculating means 43, a quantization boundary determining means 45, and a quantization means 44.

[0077] 차분치 산출 수단 (43) 은, 차원마다, 영역 특징량 산출 수단 (3) 으로부터 공급되는 제1의 영역 특징량과 제2의 영역 특징량 사이의 차분치를 산출해, 양자화 경계 결정 수단 (45) 과 양자화 수단 (44) 에 공급한다.The difference value calculating means 43 calculates a difference value between the first area feature amount and the second area feature amount supplied from the area feature variable calculating means 3 for each dimension, and determines the quantization boundary determination means. To 45 and the quantization means 44.

[0078] 차분치는, 영역 특징량이 스칼라량의 경우 (예를 들어 휘도치의 평균치) 는, 예를 들어, 제1의 영역 특징량으로부터 제2의 영역 특징량을 (혹은 그 역을) 감산해 획득된 스칼라량이다. 또, 영역 특징량이 벡터량인 경우에는, 예를 들어, 각각의 벡터를 임의의 방법에 의해 스칼라량으로 변환하고 나서, 스칼라량의 차분치를 획득해도 된다. 또, 영역 특징량이 벡터량인 경우에는, 제1의 영역 특징량과 제2의 영역 특징량 사이의 차 벡터를, 차분치 (벡터량) 라고 해도 된다.[0078] The difference value is obtained by subtracting a second area feature amount (or vice versa) from the first area feature amount, for example, when the area feature amount is a scalar amount (for example, an average value of luminance values). The amount of scalar In addition, when the area feature amount is a vector amount, for example, after converting each vector to a scalar amount by any method, a difference value of the scalar amount may be obtained. In addition, when the area feature amount is a vector amount, the difference vector between the first area feature amount and the second area feature amount may be referred to as a difference value (vector amount).

[0079] 차분치 산출 수단 (43) 으로부터 공급된 특징 벡터의 모든 차원에 대한 차분치가 양자화 경계 결정 수단 (45) 에 공급되면, 양자화 경계 결정 수단 (45) 은 모든 차원의 차분치의 분포에 기초하여, 양자화의 경계를 결정해, 결정된 양자화 경계 관련 정보를 양자화 수단 (44) 에 공급한다. 여기서 모든 차원의 차분치의 분포는, 차분치 (혹은 차 벡터) 에 대한 발생의 빈도 (확률) 을 의미한다.If the difference values for all the dimensions of the feature vector supplied from the difference value calculation means 43 are supplied to the quantization boundary determination means 45, the quantization boundary determination means 45 is based on the distribution of the difference values of all the dimensions. The boundary of the quantization is determined, and the determined quantization boundary related information is supplied to the quantization means 44. Here, the distribution of the difference values of all dimensions means the frequency (probability) of occurrence with respect to the difference value (or difference vector).

[0080] 또 양자화의 경계를 결정한다는 것은, 차분치를 양자화할 때에, 빠짐없이, 또한 배타적으로 양자화 인덱스에 할당하기 위한 파라미터를 결정하는 것을 의미한다. 차분치가 스칼라량인 경우는, 예를 들어, 각 양자화 인덱스 (양자화 레벨) 에 대한 치역 (즉 임계값) 을 결정해, 그 치역 (임계값) 을 양자화 경계의 정보로서 양자화 수단 (43) 에 공급한다. 또 차분치가 벡터량인 경우는, 예를 들어 벡터 양자화를 행하기 위한 파라미터, 즉, 예를 들어, 각 양자화 인덱스의 대표 벡터 (중심 벡터 등) 을 결정해, 그것을 양자화 경계의 정보로서 양자화 수단 (44) 에 공급한다.Determining the boundary of quantization means determining parameters for assigning the quantization index to the quantization index without exception and exclusively when quantizing the difference value. When the difference value is a scalar amount, for example, a range (that is, a threshold value) for each quantization index (quantization level) is determined, and the range (threshold value) is supplied to the quantization means 43 as information on the quantization boundary. do. When the difference value is a vector amount, for example, a parameter for performing vector quantization, that is, a representative vector (center vector, etc.) of each quantization index is determined, and the quantization means 44 is used as information on the quantization boundary. )

[0081] 양자화 경계 결정 수단 (45) 은, 차분치가 스칼라량이고 M 값의 양자화를 실시하는 경우 (M=2, 3,…등) 에, 모든 차원의 차분치의 분포에 기초하여, 각각의 양자화 인덱스의 전차원에 대한 비율이 균등하게 되도록, 양자화의 치역 (임계값) 을 결정해도 된다.[0081] The quantization boundary determining means 45, based on the distribution of the difference values of all dimensions, when the difference value is a scalar amount and quantizes M values (M = 2, 3, ..., etc.) You may determine the range (threshold) of quantization so that the ratio with respect to the whole dimension of an index is equal.

[0082] 예를 들어, 상기 식 1의 변형으로서 상수 α 를 이용해, Vn1+α>Vn2인 경우에는 양자화 인덱스가 +1, Vn1+α≤Vn의 경우에는 양자화 인덱스가 ―1인 2개 값의 양자화 (M=2) 를 수행하는 경우에, 양자화 인덱스 +1과 양자화 인덱스 ―1의 비율이 균등하게 되도록, 차분치의 분포의 중앙의 점 (좌우의 분포의 적분치가 동일해지는 점) 을 양자화의 임계값 α로 결정해도 된다. 또 차분치가 벡터량인 경우도 동일하게, M 값의 양자화를 실시하는 경우에, 모든 차원의 차 벡터의 분포에 기초하여, 각각의 양자화 인덱스의 전차원에 대한 비율이 균등하게 되도록, 각 양자화 인덱스에 할당되는 벡터 공간의 영역을 결정하거나 벡터 양자화를 실시할 때의 각 양자화 인덱스의 대표 벡터 (중심 벡터 등) 를 결정해도 된다. 이와 같이, 전차원에 대한 양자화 인덱스의 비율을 균등하게 하는 것에 의해 (즉, 양자화 인덱스의 편향을 제거하는 것에 의해), 엔트로피가 증가될 수 있어, 식별 능력이 향상될 수 있다.For example, using the constant α as a modification of Equation 1, the quantization index is +1 when Vn1 + α> Vn2, and the quantization index is −1 when Vn1 + α ≦ Vn (M = 2). ), The central point of the distribution of the difference value (the point where the integral of the left and right distributions are equal) may be determined as the threshold value α of the quantization so that the ratio of the quantization index +1 and the quantization index -1 is equal. . Similarly, when the difference value is a vector amount, when quantization of M values is performed, each quantization index is equalized based on the distribution of the difference vector of all dimensions so that the ratio of the respective quantization indexes to all dimensions is equal. You may determine the area | region of the vector space to be allocated, or determine the representative vector (center vector etc.) of each quantization index at the time of vector quantization. As such, by equalizing the ratio of the quantization indices to all dimensions (ie, by removing the deflection of the quantization indices), entropy can be increased, so that the identification capability can be improved.

[0083] 또한, 양자화 경계 결정 수단 (45) 이, 양자화 인덱스의 전차원에 대한 비율이 균등하게 되도록 양자화의 경계를 결정하고, 결정된 경계에 기초하여 양자화 수단 (44) 이 양자화를 실시하는 비교 및 양자화 방법을, 비교 및 양자화 방법 F라고 부르기로 한다.In addition, the quantization boundary determination means 45 determines the boundary of the quantization such that the ratio of the quantization index to the entire dimension is equalized, and the quantization means 44 performs quantization based on the determined boundary, and The quantization method will be referred to as the comparison and quantization method F.

[0084] 또 예를 들어, 양자화 경계 결정 수단 (45) 은, 차분치가 스칼라량이고 식 2에 의한 3개 값의 양자화를 실시하는 경우에 (양자화 인덱스가 +1, 0,-1 이다), 차가 없는 것을 나타내는 양자화 인덱스 0으로 양자화하는데 사용된 임계값 th (이 임계값 이하인 경우에 양자화 인덱스를 0으로 설정한다) 를, 모든 차원의 차분치의 분포에 기초하여 결정하고, 결정된 임계값 th를 양자화 수단 (44) 에 공급해도 된다 (제1의 실시형태의 도 4에 도시된 비교 수단 (4) 에서, 이 임계값 th는 미리 설정된다). 예를 들어, 모든 차원의 차분치의 절대치를 산출하고, 산출한 차분치의 절대치를 소트하고, 상위 또는 하위로부터, 미리 결정된 비율 (이 미리 결정된 비율은, 예를 들어, 입력으로서 공급된다) 의 점을 임계값 th로 설정해도 된다 (이 비교 및 양자화 방법을 비교 및 양자화 방법 G라고 부르기로 한다). 또, 미리 결정된 비율에 의해서가 아니라, +1, 0,-1의 양자화 인덱스의 비율이 균등하게 가까워지는 방식에 의해서, 임계값 th를 결정해도 된다 (이 비교 및 양자화 방법을 비교 및 양자화 방법 H라고 부르기로 한다). 비교 및 양자화 방법 H는, 식 2에 따라 수행된 비교 및 양자화 방법 F의 구체예에 상당한다.For example, the quantization boundary determination means 45 has a difference in the case where the difference value is a scalar amount and the quantization of three values by Equation 2 (the quantization index is +1, 0, -1). The threshold value th (used to set the quantization index to 0 if it is below this threshold value) used to quantize to the quantization index 0 indicating no is determined based on the distribution of the difference values of all dimensions, and the determined threshold value th is determined. You may supply to 44 (in the comparison means 4 shown in FIG. 4 of 1st Embodiment, this threshold th is set previously). For example, the absolute value of the difference value of all the dimensions is calculated, the absolute value of the calculated difference value is sorted, and from the upper or lower level, the point of a predetermined ratio (this predetermined ratio is supplied as an input, for example) is obtained. The threshold th may be set (this comparison and quantization method is called comparison and quantization method G). In addition, the threshold th may be determined not by a predetermined ratio but by a method in which the ratio of the quantization indexes of +1, 0, -1 is equally close (this comparison and quantization method is referred to as the comparison and quantization method H). To call). The comparison and quantization method H corresponds to the specific example of the comparison and quantization method F performed according to Formula 2.

[0085] 비교 및 양자화 방법 G의 보다 구체적인 방법을, 미리 결정된 백분율이 P% (예를 들어 P=25%) 인 예를 들어 설명한다. 모든 차원 (차원수=N) 의 차분치의 절대치를, 오름 순으로 소트하고, 오름 순으로 소트된 차분치의 절대치의 집합을 D(i)={D(0), D(1), D(2),…, D(N-1) } 로서 나타낸다. 여기서, 오름 순으로 소트된 순열의 하위로부터 P%의 위치에 있는 값은, 예를 들어, D(floor(N×P/100)) 가 되어, 임계값 th=D(floor(N×P/100)) 가 된다. 또한, floor() 는, 소수점 이하의 잘라버림을 실시하는 함수임에 유의한다.[0085] A more specific method of comparison and quantization method G is described by way of example, where the predetermined percentage is P% (eg P = 25%). The absolute values of the differences of all dimensions (number of dimensions = N) are sorted in ascending order, and the set of absolute values of the difference values sorted in ascending order is D (i) = {D (0), D (1), D (2 ),… , D (N-1)}. Here, the value at the position of P% from the lower part of the permutation sorted in ascending order becomes, for example, D (floor (N × P / 100)), and the threshold value th = D (floor (N × P / 100)). Note that floor () is a function that performs truncation after the decimal point.

[0086] 본 실시 형태에 있어서의 방법은, 제1의 실시형태에서처럼, 비교 수단 (4) 가 도 4에 도시된 구성을 취하는 경우와 대비될 수 있다. 제1의 실시형태의 도 4에 도시된 구성에서는, 미리 결정된 임계값 th가 입력으로서 공급되는데 대해, 제2의 실시형태의 위에서 설명한 방법에서, 양자화 경계 결정 수단 (45) 이, 모든 차원의 차분치의 분포에 기초하여, 화상에 대해 적응적으로 임계값 th를 산출한다. 이와 같이, 제1의 실시형태에서는 임계값 th가 고정화 되어 있는 반면, 제2의 실시형태에서는 임계값 th가 화상에 대해 적응적으로 산출된다. 화상에 대해 적응적으로 임계값 th가 산출되므로, 임계값 th가 고정화되어 있는 경우와 비교해, 특징 벡터의 차원의 값이, 특정의 양자화 인덱스에 치우치는 (특정의 양자화 인덱스의 출현 확률이 높은) 것을 억제할 수가 있기 때문에 (특히 기복이 적은 화상에 대해), 식별 능력을 높게 할 수 있다. 예를 들어, 제1의 실시형태에서처럼 고정화된 임계값 th를 사용한 경우, 기복이 적은 화상은, 특징 벡터의 대다수의 차원 (또는 모든 차원) 에서 양자화 인덱스가 0이 되어 버린다. 하지만, 제2의 실시형태의 적응적인 임계값 th를 사용하면, 기복이 적은 화상에 대해는 임계값 th가 작은 값으로 자동적으로 조정되기 때문에, 특징 벡터의 대다수의 차원에서 양자화 인덱스가 0이 되는 사태가 발생하지 않는다.The method in this embodiment can be contrasted with the case where the comparison means 4 take the configuration shown in FIG. 4, as in the first embodiment. In the configuration shown in FIG. 4 of the first embodiment, the predetermined threshold value th is supplied as an input, whereas in the above-described method of the second embodiment, the quantization boundary determining means 45 makes a difference of all dimensions. Based on the distribution of the values, the threshold value th is adaptively calculated for the image. Thus, while the threshold th is fixed in the first embodiment, the threshold th is adaptively calculated for the image in the second embodiment. Since the threshold th is adaptively calculated for the image, the value of the dimension of the feature vector is biased (high probability of occurrence of a specific quantization index) compared to the case where the threshold th is fixed. Since it can be suppressed (especially with respect to an image with few ups and downs), an identification ability can be made high. For example, when the fixed threshold value th is used as in the first embodiment, the quantized index becomes zero in the majority of dimensions (or all dimensions) of the feature vector. However, using the adaptive threshold value th of the second embodiment, the threshold value th is automatically adjusted to a small value for low-flip images, so that the quantization index becomes zero in the majority dimension of the feature vector. Things don't happen.

[0087] 양자화 수단 (44) 는, 차분치 산출 수단 (43) 으로부터 공급되는 각각의 차원의 차분치와 양자화 경계 결정 수단 (45) 으로부터 공급되는 양자화 경계의 정보에 기초하여, 양자화를 실시하고, 양자화 인덱스를 출력한다.The quantization means 44 performs quantization based on the difference value of each dimension supplied from the difference value calculation means 43 and the information of the quantization boundary supplied from the quantization boundary determination means 45, Output the quantization index.

[0088] 또한, 양자화 수단 (44) 는, 양자화 경계 결정 수단 (45) 으로부터 출력된 양자화 경계 정보를 무시한 양자화를 실시하는 경우 의미가 없어지기 때문에, 양자화 경계 결정 수단 (45) 이 양자화 경계를 결정했을 때 상정하고 있던 양자화 방법을 따를 필요가 있음에 유의한다.In addition, since the quantization means 44 becomes meaningless when quantization ignoring the quantization boundary information output from the quantization boundary determination means 45, the quantization boundary determination means 45 determines the quantization boundary. Note that it is necessary to follow the quantization method assumed.

[0089] [제2의 실시형태의 동작][Operation of Second Embodiment]

다음으로, 도 7의 플로우차트를 참조해, 제2의 실시형태에 있어서의 화상 식별자 추출 장치의 동작을 설명한다. 도 7의 플로우차트에서는, 특징 벡터의 차원 (의 번호) 은 「n」으로 나타내어지고, 1으로부터 N까지의 합계 N 차원이 존재한다.Next, with reference to the flowchart of FIG. 7, the operation | movement of the image identifier extraction apparatus in 2nd Embodiment is demonstrated. In the flowchart of Fig. 7, the dimension (number) of the feature vector is represented by &quot; n &quot;, and the total N dimension from 1 to N exists.

[0090] 먼저, 차원 결정 수단 (1) 은, 특징 벡터를 추출하기 위한 최초의 차원으로서 차원 1을 결정해 (n=1), 추출 영역 취득 수단 (2) 에 공급한다 (단계 B1).First, the dimension determination means 1 determines dimension 1 as the first dimension for extracting the feature vector (n = 1) and supplies it to the extraction region acquisition means 2 (step B1).

[0091] 다음으로, 추출 영역 취득 수단 (2) 는, 입력으로서 공급되는 차원별 추출 영역 정보로부터, 차원 n의 제1의 추출 영역과 제2의 추출 영역을 나타내는 정보를 취득해, 영역 특징량 대표치 산출 수단 (3) 에 공급한다 (단계 B2).Next, the extraction region acquisition means 2 acquires information indicating the first extraction region and the second extraction region of the dimension n from the region-specific extraction region information supplied as an input, and the region feature amount. It supplies to the representative value calculating means 3 (step B2).

[0092] 다음으로, 영역 특징량 대표치 산출 수단 (3) 은, 입력으로서 공급되는 화상으로부터, 차원 n의 제1의 영역 특징량과 제2의 영역 특징량을 산출해, 차분치 산출 수단 (43) 에 공급한다 (단계 B3).Next, the area feature variable representative value calculating means 3 calculates the first area feature amount and the second area feature amount of the dimension n from the image supplied as an input, and calculates the difference value calculation means ( 43) (step B3).

[0093] 다음으로, 차분치 산출 수단 (43) 은, 차원 n의 제1의 영역 특징량과 제2의 영역 특징량 사이의 차분치를 산출해, 양자화 경계 결정 수단 (45) 과 양자화 수단 (44) 에 공급한다 (단계 B4).Next, the difference value calculation means 43 calculates a difference value between the first area feature amount and the second area feature amount of the dimension n, and the quantization boundary determination means 45 and the quantization means 44 ) (Step B4).

[0094] 다음으로, 모든 차원에 대한 차분치의 산출까지의 처리가 종료했는지의 여부를 판정 (즉 n<N 이 참인지 거짓인지를 판정) 한다 (단계 B5). 모든 차원에 대한 차분치 산출까지의 처리를 종료했을 경우 (즉 n<N가 거짓인 경우) 는 단계 B7로 이행한다. 모든 차원에 대한 차분치 산출까지의 처리가 종료되지 않은 경우 (즉 n<N가 참인 경우) 에는, 단계 B6로 이행한다. 단계 B6에서는, 차원 결정 수단 (1) 이, 특징 벡터를 추출하기 위한 다음의 차원을 결정해 (n=n+1), 추출 영역 취득 수단 (2) 에 공급한다. 그리고, 재차 단계 B2로 이행한다.[0094] Next, it is determined whether or not the processing up to the calculation of the difference values for all the dimensions is finished (that is, whether n <N is true or false) (step B5). When the process up to the difference value calculation for all the dimensions is finished (that is, n <N is false), the process proceeds to step B7. If the processing up to the difference value calculation for all the dimensions is not finished (that is, n <N is true), the process proceeds to step B6. In step B6, the dimension determination means 1 determines the next dimension for extracting the feature vector (n = n + 1) and supplies it to the extraction region acquisition means 2. Then, the flow proceeds to step B2 again.

[0095] 또한, 여기서는, 차원 1으로부터 차원 N까지 차례로 추출 처리를 실시하고 있지만, 차례는 이것에 한정되지 않고 임의로 취해질 수도 있음에 유의한다.In addition, although the extraction process is performed in order from dimension 1 to the dimension N here, it is noted that the order is not limited to this and may be taken arbitrarily.

[0096] 다음으로, 양자화 경계 결정 수단 (45) 은, 차분치 산출 수단 (43) 으로부터 공급되는 특징 벡터의 모든 차원의 차분치가 공급되면, 모든 차원의 차분치의 분포에 기초하여, 양자화의 경계를 결정해, 결정한 양자화 경계의 정보를 양자화 수단 (44) 에 공급한다 (단계 B7).[0096] Next, when the difference values of all the dimensions of the feature vector supplied from the difference value calculating means 43 are supplied, the quantization boundary determination means 45 determines the boundary of the quantization based on the distribution of the difference values of all the dimensions. It determines and supplies the information of the determined quantization boundary to the quantization means 44 (step B7).

[0097] 다음으로, 단계 B8에서는, 양자화를 실시하는 (양자화 인덱스를 산출하는) 최초의 차원으로서 차원 1을 설정 (n=1) 한다.[0097] Next, in step B8, dimension 1 is set (n = 1) as the first dimension to quantize (calculate the quantization index).

[0098] 다음으로, 양자화 수단 (44) 은, 차원 n의 차분치와 양자화 경계 결정 수단 (45) 으로부터 공급된 양자화 경계에 기초하여, 양자화를 실시해, 양자화 인덱스를 출력한다 (단계 B9).[0098] Next, the quantization means 44 performs quantization based on the difference value of the dimension n and the quantization boundary supplied from the quantization boundary determination means 45, and outputs a quantization index (step B9).

[0099] 다음으로, 모든 차원에 대한 양자화 인덱스의 출력이 종료되었는지의 여부를 판정 (즉 n<N가 참인지 거짓인지를 판정) 한다 (단계B10). 모든 차원에 대한 양자화 인덱스의 출력을 종료했을 경우 (즉 n<N가 거짓인 경우) 에는, 처리를 종료한다. 모든 차원에 대한 양자화 인덱스의 출력이 종료되지 않은 경우 (즉 n<N가 참인 경우) 에는, 단계 B11 로 이행한다. 단계 B11에서는, 양자화를 실시하는 특징 벡터의 차원으로서 다음의 차원을 설정한다 (n=n+1). 그리고, 재차 단계 B9 로 이행한다.[0099] Next, it is determined whether the output of the quantization indexes for all the dimensions is finished (that is, whether n <N is true or false) (step B10). The process ends when the output of the quantization indexes for all dimensions is finished (that is, when n <N is false). If the output of the quantization indexes for all the dimensions is not finished (that is, n <N is true), the process proceeds to step B11. In step B11, the following dimension is set as the dimension of the feature vector to be quantized (n = n + 1). Then, the flow proceeds to step B9 again.

[0100] 또한, 여기서는, 차원 1으로부터 차원 N까지 차례로 양자화 처리를 실시하고 있지만, 차례는 이것에 한정되지 않고 임의로 취해질 수도 있음에 유의한다.In addition, although the quantization process is performed in order from the dimension 1 to the dimension N here, it is noted that the order is not limited to this and may be taken arbitrarily.

[0101] [제2의 실시형태의 효과][Effects of the Second Embodiment]

제2의 실시형태에서는, 양자화의 경계가 고정되어 있는 제1의 실시형태와 비교해, 양자화의 경계가 화상에 대해 적응적으로 (동적으로) 산출되는 점이 상이하다. 제1의 실시형태와 같이, 양자화의 경계가 고정화되면, 특정의 화상 (예를 들어 기복이 적은 평탄한 화상 등) 에 대해, 특징 벡터의 차원의 값이, 특정의 양자화 인덱스에 치우치는 (특정의 양자화 인덱스의 출현 확률이 높은) 사태가 발생해 (엔트로피가 낮아져), 이들의 화상에 대해 식별 능력이 저하되는 문제가 발생한다. 한편, 제2의 실시형태와 같이, 양자화의 경계가 화상에 대해 적응적으로 (동적으로) 산출됨으로써, 어느 화상에 대해서도, 특징 벡터의 차원의 값이, 특정의 양자화 인덱스에 치우치는 (특정의 양자화 인덱스의 출현 확률이 높은) 일을 억제할 수가 있기 때문에, 식별 능력을 높일 수 있다.In the second embodiment, compared with the first embodiment in which the boundary of quantization is fixed, the point in which the boundary of quantization is adaptively (dynamically) calculated for the image is different. As in the first embodiment, when the boundary of quantization is fixed, for a specific image (e.g., a flat image with low relief), the value of the dimension of the feature vector is biased to a specific quantization index (specific quantization). A situation where a high probability of the appearance of an index occurs occurs (entropy is lowered), which causes a problem that the discriminating ability of these images is degraded. On the other hand, as in the second embodiment, the boundary of the quantization is adaptively (dynamically) calculated with respect to the image, so that for any image, the value of the dimension of the feature vector is biased to a specific quantization index (specific quantization). It is possible to suppress work having a high probability of appearing in the index, so that the identification ability can be improved.

[0102] [제3의 실시형태][Third Embodiment]

[제3의 실시형태의 구성][Configuration of Third Embodiment]

다음으로, 본 발명의 제3의 실시형태에 대해 도면을 참조해 상세하게 설명한다.Next, 3rd Embodiment of this invention is described in detail with reference to drawings.

[0103] 도 8을 참조하면, 본 발명의 제3의 실시형태는, 도 1에 나타낸 제1의 실시형태의 구성에, 영역 특징량 산출 방법 취득 수단 (5) 이 추가되어 영역 특징량 산출 수단 (3) 이, 제1 및 제2의 영역 특징량 산출 수단 (31A 및 32 A) 를 갖는 영역 특징량 산출 수단 (3A) 으로 교체되는 점에서 상이하다. 또한, 그 이외의 구성에 관해서는, 제1의 실시형태의 구성과 같기 때문에, 여기서는 설명을 생략한다. 또한, 여기서는, 제1의 실시형태와의 편성으로서 설명하고 있지만, 제2의 실시형태와의 편성도 허용될 수 있다.Referring to FIG. 8, in the third embodiment of the present invention, the area feature variable calculating means 5 is added to the configuration of the first embodiment shown in FIG. (3) This is different in that it is replaced by the area feature variable calculating means 3A having the first and second area feature variable calculating means 31A and 32A. In addition, about the other structure, since it is the same as the structure of 1st Embodiment, description is abbreviate | omitted here. In addition, although it demonstrates as knitting with 1st Embodiment here, knitting with 2nd Embodiment is also acceptable.

[0104] 영역 특징량 산출 방법 취득 수단 (5) 에는, 차원 결정 수단 (1) 으로부터의 차원과 차원별 영역 특징량 산출 방법 정보가 공급된다.The region feature variable calculation method acquisition means 5 is supplied with the dimension and dimension region feature variable calculation method information from the dimension determination means 1.

[0105] 차원별 영역 특징량 산출 방법 정보는, 특징 벡터의 차원마다 결부된, 차원에서의 영역 특징량의 산출 방법을 나타내는 정보이며, 차원간에서 영역 특징량 산출 방법이 상이해야 하는 것이 필수 조건이다. 또한 여기서, 영역 특징량 산출 방법이 상이함은, 동일한 순서에 대해 상이한 파라미터 (임계값 등) 를 적용하는 경우도 포함한다는 것에 유의한다.[0105] The dimension feature amount calculation method information for each dimension is information indicating a method for calculating the region feature amount in the dimension, which is associated for each dimension of the feature vector, and it is essential that the method for calculating the region feature amount is different between the dimensions. to be. Note that the difference in the method for calculating the area feature amounts also includes the case where different parameters (threshold values, etc.) are applied to the same order.

[0106] 여기서 영역 특징량 산출 방법이란, 예를 들어, 제1의 실시형태의 영역 특징량 산출 수단 (3) 의 설명으로 기술한 각종 방법, 또 거기에 따르는 파라미터를 포함한다.Here, the area feature variable calculation method includes, for example, various methods described in the description of the area feature variable calculating means 3 of the first embodiment, and the parameters thereof.

[0107] 또한 차원별 영역 특징량 산출 방법 정보가 나타내는 차원마다의 영역 특징량 산출 방법은, 특징 벡터의 전차원안에, 영역 특징량 산출 방법이 상이한 차원의 적어도 한 쌍이 포함되야 하는 최저 조건을 가짐에 유의한다. 영역 특징량 산출 방법이 서로 상이한 차원이 많을수록, 바람직한데, 이것은, 영역 특징량 산출 방법이 서로 상이한 차원이 많을수록, 특징 벡터에서 많은 차원간에서 상관이 작아져, 식별 능력이 높아지기 때문이다. 예를 들어, 특징 벡터의 모든 차원간에서, 영역 특징량 산출 방법이 서로 상이해도 된다.[0107] Further, the area feature variable calculation method for each dimension indicated by the dimension feature feature calculation method information for each dimension has a minimum condition in which at least one pair of different dimensions is included in the area feature variable calculation method in all dimensions of the feature vector. Pay attention to The more the dimension of the region feature variable calculation method is different from each other, the more preferable. The more the dimension of the region feature variable calculation method is different from each other, the smaller the correlation between many dimensions in the feature vector and the higher the identification capability. For example, the area feature variable calculation methods may be different among all the dimensions of the feature vector.

[0108] 또한, 차원마다의 영역 특징량 산출 방법을 나타내는 정보는, 영역 특징량을 산출할 방법이 유일하게 특정되는 한은, 임의의 형식을 취할 수도 있다.[0108] In addition, the information indicating the method for calculating the area feature variable for each dimension may take any form as long as the method for calculating the area feature variable is uniquely specified.

[0109] 도 9는, 차원마다의 영역 특징량 산출 방법의 예를 나타낸다. 도 9에 나타낸 바와 같이, 차원간에서 영역 특징량 산출 방법이 상이하다. 또 도 9에 나타낸 예와 같이, 스칼라량과 벡터량의 특징량이 혼재할 수도 있다 (제1, 3, 5, 6, 8, 9, 10, 12 차원은 스칼라량, 제2, 4, 7, 11 차원은 벡터량이다).9 shows an example of an area feature variable calculation method for each dimension. As shown in Fig. 9, the method for calculating region feature amounts differs between dimensions. In addition, as shown in the example shown in FIG. 9, the feature amounts of the scalar amount and the vector amount may be mixed. Dimension is the vector quantity).

[0110] 영역 특징량 산출 방법 취득 수단 (5) 는, 입력으로서 공급되는 차원별 영역 특징량 산출 방법 정보로부터, 차원 결정 수단 (1) 으로부터 공급되는 차원과 결부된 영역 특징량 산출 방법을 나타내는 정보를 취득해, 영역 특징량 산출 수단 (3A) 에 공급한다.[0110] The area feature variable calculating method obtaining means 5 is information indicating the area feature variable calculating method associated with the dimension supplied from the dimension determining means 1 from the dimension feature variable calculating method information for each dimension supplied as an input. Is obtained and supplied to the area feature variable calculating means 3A.

[0111] 영역 특징량 산출 수단 (3A) 은, 입력으로서 공급되는 화상으로부터, 차원마다, 추출 영역 취득 수단으로부터 공급된 제1의 추출 영역과 제2의 추출 영역을 나타내는 정보에 근거해, 영역 특징량 산출 방법 취득 수단 (5) 로부터 공급되는 영역 특징량 산출 방법을 나타내는 정보에 따라, 제1의 추출 영역의 특징량과 제2의 추출 영역의 특징량을, 각각 제1의 영역 특징량과 제2의 영역 특징량으로서 산출해, 비교 수단 (4) 에 공급한다.[0111] The area feature variable calculating means 3A is an area feature based on information indicating the first extraction area and the second extraction area supplied from the extraction area acquisition means for each dimension from the image supplied as an input. According to the information indicating the area feature variable calculation method supplied from the quantity calculation method acquiring means 5, the feature amount of the first extraction region and the feature amount of the second extraction region are respectively determined by the first region feature amount and the first value. It calculates as 2 area | region feature quantities, and supplies them to the comparison means 4.

[0112] 영역 특징량 산출 수단 (3A) 에서는, 공급되는 추출 영역을 나타내는 정보의 차원과 영역 특징량 산출 방법을 나타내는 정보의 차원이 동기화될 필요가 있다.[0112] In the area feature variable calculating means 3A, the dimension of the information indicating the supplied extraction area and the dimension of the information indicating the area feature variable calculating method need to be synchronized.

[0113] [제3의 실시형태의 동작][Operation of Third Embodiment]

다음으로, 도 10의 플로우차트를 참조해, 제3의 실시형태에 있어서의 화상 식별자 추출 장치의 동작을 설명한다. 도 10의 플로우차트에서는, 특징 벡터의 차원 (의 번호) 을 「n」 로 나타내고, 1로부터 N까지의 합계 N차원이 존재한다.Next, with reference to the flowchart of FIG. 10, operation | movement of the image identifier extraction apparatus in 3rd Embodiment is demonstrated. In the flowchart of FIG. 10, the dimension (number) of the feature vector is denoted by "n", and there are total N dimensions from 1 to N. FIG.

[0114] 먼저, 차원 결정 수단 (1) 은, 특징 벡터를 추출하기 위한 최초의 차원으로서 차원 1을 결정해 (n=1), 추출 영역 취득 수단 (2) 및 영역 특징량 산출 방법 취득 수단 (5) 에 공급한다 (단계 C1). 다음으로, 추출 영역 취득 수단 (2) 는, 입력으로서 공급된 차원별 추출 영역 정보로부터, 차원 n의 제1의 추출 영역과 제2의 추출 영역을 나타내는 정보를 취득해, 영역 특징량 산출 수단 (3) A에 공급한다 (단계 C2).[0114] First, the dimension determination means 1 determines dimension 1 as the first dimension for extracting the feature vector (n = 1), and the extraction area acquisition means 2 and the area feature variable calculation method acquisition means ( 5) (step C1). Next, the extraction region acquisition means 2 acquires information indicating the first extraction region and the second extraction region of the dimension n from the dimension-specific extraction region information supplied as the input, and calculates the region feature variable calculating means ( 3) Supply to A (step C2).

[0115] 다음으로, 영역 특징량 산출 방법 취득 수단 (5) 는, 입력으로서 공급된 차원별 영역 특징량 산출 방법 정보로부터, 차원 n에 대응하는 영역 특징량 산출 방법을 나타내는 정보를 취득해, 영역 특징량 산출 수단 (3A) 에 공급한다 (단계 C3).[0115] Next, the area feature variable calculating method obtaining means 5 obtains information indicating the area feature variable calculating method corresponding to the dimension n from the dimension-specific area feature variable calculating method information supplied as the input and the area. It supplies to the feature-quantity calculating means 3A (step C3).

[0116] 다음으로, 영역 특징량 산출 수단 (3A) 은, 입력으로서 공급된 화상으로부터, 차원 n의 제1의 영역 특징량과 제2의 영역 특징량을 산출해, 비교 수단 (4) 에 공급한다 (단계 C4). 다음으로, 비교 수단 (4) 는, 차원 n의 제1의 영역 특징량과 제2의 영역 특징량을 비교하고, 비교한 결과를 양자화하고, 양자화 인덱스를 출력한다 (단계 C5). 다음으로, 모든 차원에 대해 양자화 인덱스의 출력이 종료되었는지의 여부를 판정한다 (단계 C6). 모든 차원에 대해 양자화 인덱스의 출력이 종료된 경우에는 처리를 종료한다. 모든 차원에 대해 양자화 인덱스의 출력이 종료되지 않은 경우에는, 단계 C7로 이행한다. 단계 C7에서는, 차원 결정 수단 (1) 이, 특징 벡터를 추출하기 위한 다음의 차원을 결정해 (n=n+1), 추출 영역 취득 수단 (2) 및 영역 특징량 산출 방법 취득 수단 (5) 에 공급한다. 그리고, 처리는 재차 단계 C2로 이행한다.[0116] Next, the area feature variable calculating means 3A calculates the first area feature variable and the second area feature variable of the dimension n from the image supplied as an input, and supplies it to the comparison means 4. (Step C4). Next, the comparison means 4 compares the first region feature amount in the dimension n with the second region feature amount, quantizes the result of the comparison, and outputs a quantization index (step C5). Next, it is determined whether or not the output of the quantization index has ended for all the dimensions (step C6). If the output of the quantization index has ended for all dimensions, the process ends. If the output of the quantization index has not finished for all the dimensions, the process proceeds to step C7. In step C7, the dimension determination means 1 determines the next dimension for extracting the feature vector (n = n + 1) and supplies it to the extraction region acquisition means 2 and the region feature variable calculation method acquisition means 5. do. The process then goes back to step C2.

[0117] 또한, 여기서는, 차원 1으로부터 차원 N까지 차례로 추출 처리를 실시하고 있지만, 이것에 한정되지 않고 임의의 차례가 취해질 수도 있다. 또 이 처리 순서에 한정하지 않고, 복수의 차원에 대한 추출 처리를 병렬로 실시하는 것도 가능하다. 게다가 단계 C2와 단계 C3의 순서를 반대로 해도 된다.In addition, although extraction processing is performed in order from dimension 1 to dimension N here, it is not limited to this, Arbitrary order may be taken. Moreover, not only this process sequence but extracting process with respect to several dimension can also be performed in parallel. In addition, the order of step C2 and step C3 may be reversed.

[0118] [제3의 실시형태의 효과][Effect of Third Embodiment]

제1의 실시형태의 효과에 더하여, 제3의 실시형태는 상이한 화상을 식별할 수 있는 정도인 식별 능력을 더욱 높게 할 수 있는 효과를 갖는다.In addition to the effects of the first embodiment, the third embodiment has an effect of further increasing the discrimination ability, which is a degree capable of identifying different images.

[0119] 그 이유는, 차원간에서 영역 특징량 산출 방법이 상이함 (다양한 영역 특징량 산출 방법이 사용됨) 에 따라, 차원간의 상관을 보다 작게 할 수 있기 때문이다.This is because the correlation between the dimensions can be made smaller because the method for calculating the region feature amount between the dimensions is different (various region feature amount calculation methods are used).

[0120] [제4의 실시형태][Fourth Embodiment]

[제4의 실시형태의 구성][Configuration of Fourth Embodiment]

다음으로, 본 발명의 제4의 실시형태에 대해 도면을 참조해 상세하게 설명한다.Next, the 4th Embodiment of this invention is described in detail with reference to drawings.

[0121] 도 11을 참조하면, 본 발명의 제4의 실시형태의 구성은, 도 1에 나타낸 제1의 실시형태의 구성과는, 비교 방법 취득 수단 6이 추가되어 비교 수단 (4) 이 비교 수단 (4B) 으로 교체되는 점에서 상이하다. 또한, 그 이외의 구성에 관해서는, 제1의 실시형태의 구성과 같기 때문에, 여기서는 설명을 생략한다. 또한, 여기서는, 제1의 실시형태와의 편성이 설명되어 있지만, 제2의 실시형태 및 제3의 실시형태와의 편성도 허용될 수 있다.Referring to FIG. 11, the configuration of the fourth embodiment of the present invention is compared with the configuration of the first embodiment shown in FIG. 1, and a comparison method acquisition means 6 is added, and the comparison means 4 is compared. It is different in that it is replaced by the means 4B. In addition, about the other structure, since it is the same as the structure of 1st Embodiment, description is abbreviate | omitted here. In addition, although knitting with 1st Embodiment is demonstrated here, knitting with 2nd Embodiment and 3rd Embodiment is also acceptable.

[0122] 비교 방법 취득 수단 6에는, 차원 결정 수단 (1) 으로부터의 차원과 차원별 비교 방법 정보가 공급된다.[0122] The comparison method acquisition means 6 is supplied with the dimension and dimension-by-dimensional comparison method information from the dimension determination means 1.

[0123] 차원별 비교 및 양자화 방법 정보는, 특징 벡터의 차원마다 결부된, 차원에서 영역 특징량을 비교해 양자화를 실시하는 방법을 나타내는 정보이며, 차원간에서 비교 및 양자화 방법이 상이해야 하는 것이 필수 조건이다. 또한 여기서, 비교 및 양자화 방법이 상이함은, 동일한 순서에 대해 상이한 파라미터 (임계값, 양자화 인덱스 수 등) 를 적용하는 것도 포함한다는 것에 유의한다.[0123] Dimensional comparison and quantization method information is information indicating a method of comparing quantization by comparing region feature quantities in a dimension, which are associated with each dimension of a feature vector, and it is essential that the comparison and quantization methods are different between dimensions. Condition. It is also noted here that different comparison and quantization methods also include applying different parameters (threshold value, quantization index number, etc.) for the same order.

[0124] 여기서 비교 및 양자화 방법은 제1의 실시형태의 비교 수단 (4) 의 설명에서 기술한 각종 비교 및 양자화의 방법, 또 거기에 따르는 파라미터 (임계값, 양자화 인덱스 수 등) 및, 제2의 실시형태의 비교 수단 (4A) 의 설명에서 기술한 각종 비교 및 양자화의 방법, 또 거기에 따르는 파라미터 (임계값, 양자화 인덱스 수 등) 를 포함한다.[0124] Here, the comparison and quantization method is a method of various comparison and quantization described in the description of the comparison means (4) of the first embodiment, the parameters (threshold value, number of quantization indexes, etc.) according thereto, and the second The various comparison and quantization methods described in the description of the comparison means 4A of the embodiment of the present invention, and the parameters (threshold value, quantization index number, etc.) according thereto are included.

[0125] 또한 차원별 비교 및 양자화 방법 정보가 나타내는 차원마다의 비교 및 양자화 방법은, 특징 벡터의 전차원안에, 비교 및 양자화 방법이 상이한 차원의 적어도 하나의 쌍이 포함되어야 하는 최저 조건을 갖는다. 비교 및 양자화 방법이 서로 상이한 차원이 많을수록, 바람직한데, 이것은, 비교 및 양자화 방법이 서로 상이한 차원이 많을수록, 특징 벡터에서 많은 차원간에서 상관이 작아져, 식별 능력이 높아지기 때문이다. 예를 들어, 특징 벡터의 모든 차원간에서, 비교 및 양자화 방법이 서로 상이해도 된다는 것에 유의한다.[0125] In addition, the comparison and quantization method for each dimension indicated by the dimension comparison and quantization method information has the lowest condition that at least one pair of different dimensions must be included in the comparison and quantization methods in all dimensions of the feature vector. The more dimensions with which the comparison and quantization methods are different from each other, the more preferable, since the more dimensions with which the comparison and quantization methods are different from each other, the smaller the correlation between many dimensions in the feature vector, the higher the identification capability. Note, for example, that the comparison and quantization methods may differ from one another between all dimensions of the feature vector.

[0126] 또한, 차원마다의 비교 및 양자화 방법을 나타내는 정보는, 영역 특징량을 비교해 양자화하는 방법이 유일하게 특정되는 한은, 임의의 형식을 취할 수도 있다.[0126] The information indicating the comparison and quantization methods for each dimension may take any form as long as the method for comparing and quantizing the area feature amounts is uniquely specified.

[0127] 도 12에, 차원마다의 비교 및 양자화 방법의 예를 나타낸다. 도 12에 나타내는 바와 같이, 차원간에서 비교 및 양자화 방법이 상이하다. 또, 제3, 5, 12 차원과 같이, 같은 비교 및 양자화 방법에서, 상이한 파라미터 (임계값 th) 를 설정 해도 된다. 또한, 도 12에 나타낸, 차원마다의 비교 및 양자화 방법의 예는, 도 9에 나타낸, 차원마다의 영역 특징량 산출 방법의 예와 결부된다. 그래서, 스칼라량의 영역 특징량에 대해는 스칼라량의 비교 및 양자화 방법을 예로서 나타내고, 벡터량의 영역 특징량에 대해는 벡터량의 비교 및 양자화 방법을 예로서 나타낸다.12 shows an example of the comparison and quantization method for each dimension. As shown in FIG. 12, the comparison and quantization methods differ between dimensions. In addition, different parameters (threshold th) may be set in the same comparison and quantization methods as in the third, fifth, and twelfth dimensions. In addition, the example of the comparison and quantization method for every dimension shown in FIG. 12 is connected with the example of the area characteristic amount calculation method for every dimension shown in FIG. Thus, the method for comparing and quantizing the scalar amount is shown as an example for the region feature amount of the scalar amount, and the method for comparing and quantizing the vector amount is shown as an example for the region feature amount of the vector amount.

[0128] 비교 방법 취득 수단 6은, 입력으로서 공급되는 차원별 비교 및 양자화 방법 정보로부터, 차원 결정 수단 (1) 으로부터 공급된 차원에 대응하는 비교 및 양자화 방법을 나타내는 정보를 취득해, 비교 수단 (4B) 에 공급한다.[0128] The comparison method acquisition means 6 acquires information indicating a comparison and quantization method corresponding to the dimension supplied from the dimension determination means 1 from the dimension comparison and quantization method information supplied as an input, and compares the comparison means ( 4B).

[0129] 비교 수단 (4B) 는, 차원마다, 영역 특징량 산출 수단 (3) 으로부터 공급되는 제1의 영역 특징량과 제2의 영역 특징량을, 비교 방법 취득 수단 6으로부터 공급되는 비교 및 양자화 방법을 나타내는 정보에 따라, 비교 및 양자화해, 양자화 인덱스를 출력한다. 비교 수단 (4B) 는, 비교 및 양자화 방법에 의해, 필요에 따라, 제1의 실시형태의 비교 수단 (4) 와 제2의 실시형태의 비교 수단 (4B) 의 양방을 내포하는 구성을 가질 수도 있다.[0129] The comparison means 4B compares and quantizes the first region feature amount and the second region feature amount supplied from the region feature variable calculating means 3 for each dimension from the comparison method acquisition means 6. According to the information indicating the method, the comparison and quantization are performed, and a quantization index is output. The comparison means 4B may have the structure which includes both the comparison means 4 of 1st Embodiment and the comparison means 4B of 2nd Embodiment as needed by a comparison and quantization method. have.

[0130] 비교 수단 (4B) 에서는, 공급되는 영역 특징량의 차원과 비교 및 양자화 방법을 나타내는 정보의 차원이 동기화될 필요가 있다.In the comparison means 4B, the dimension of the supplied region feature amount and the dimension of the information indicating the comparison and quantization method need to be synchronized.

[0131] [제4의 실시형태의 동작][0131] [Operation of Fourth Embodiment]

다음으로, 도 13의 플로우차트를 참조해, 제4의 실시형태에 있어서의 화상 식별자 추출 장치의 동작을 설명한다. 도 13의 플로우차트에서는, 특징 벡터의 차원 (의 번호) 을 「n」로 나타내고, 1으로부터 N까지의 합계 N차원이 존재한다.Next, with reference to the flowchart of FIG. 13, operation | movement of the image identifier extraction apparatus in 4th Embodiment is demonstrated. In the flowchart of FIG. 13, the dimension ((number)) of a feature vector is represented by "n", and there exists a total N dimension from 1 to N. In FIG.

[0132] 먼저, 차원 결정 수단 (1) 은, 특징 벡터를 추출하기 위한 최초의 차원으로서 차원 1을 결정해 (n=1), 추출 영역 취득 수단 (2) 및 비교 방법 취득 수단 6에 공급한다 (단계 D1). 다음으로, 추출 영역 취득 수단 (2) 는, 입력으로서 공급된 차원별 추출 영역 정보로부터, 차원 n의 제1의 추출 영역과 제2의 추출 영역을 나타내는 정보를 취득해, 영역 특징량 산출 수단 (3) 에 공급한다 (단계 D2).[0132] First, the dimension determining means 1 determines dimension 1 as the first dimension for extracting the feature vector (n = 1), and supplies it to the extraction region acquisition means 2 and the comparison method acquisition means 6. (Step D1). Next, the extraction region acquisition means 2 acquires information indicating the first extraction region and the second extraction region of the dimension n from the dimension-specific extraction region information supplied as the input, and calculates the region feature variable calculating means ( 3) (step D2).

[0133] 다음으로, 비교 방법 취득 수단 6은, 입력으로서 공급되는 차원별 비교 및 양자화 방법 정보로부터, 차원 n에 대응하는 비교 및 양자화 방법을 나타내는 정보를 취득해, 비교 수단 (4B) 에 공급한다 (단계 D3).[0133] Next, the comparison method acquisition means 6 obtains information indicating the comparison and quantization method corresponding to the dimension n from the dimension comparison and quantization method information supplied as an input and supplies it to the comparison means 4B. (Step D3).

[0134] 다음으로, 영역 특징량 산출 수단 (3) 은, 입력으로서 공급되는 화상으로부터, 차원 n의 제1의 영역 특징량과 제2의 영역 특징량을 산출해, 비교 수단 (4B) 에 공급한다 (단계 D4). 다음으로, 비교 수단 (4B) 는, 차원 n의 제1의 영역 특징량과 제2의 영역 특징량을 비교하고, 비교한 결과를 양자화하고, 양자화 인덱스를 출력한다 (단계 D5). 다음으로, 모든 차원에 대해 양자화 인덱스의 출력이 종료되었는지의 여부를 판정한다 (단계 D6). 모든 차원에 대해 양자화 인덱스의 출력이 종료된 경우에는 처리를 종료한다. 모든 차원에 대해 양자화 인덱스의 출력이 종료되지 않은 경우에는, 처리는 단계 D7로 이행한다. 단계 D7에서는, 차원 결정 수단 (1) 이, 특징 벡터를 추출하기 위한 다음의 차원을 결정해 (n=n+1), 추출 영역 취득 수단 (2) 및 비교 방법 취득 수단 6에 공급한다. 그리고, 처리는 재차 단계 D2로 이행한다.[0134] Next, the area feature variable calculating means 3 calculates the first area feature variable and the second area feature variable of the dimension n from the image supplied as an input, and supplies it to the comparison means 4B. (Step D4). Next, the comparison means 4B compares the first region feature amount in the dimension n with the second region feature amount, quantizes the result of the comparison, and outputs a quantization index (step D5). Next, it is determined whether or not the output of the quantization index has ended for all the dimensions (step D6). If the output of the quantization index has ended for all dimensions, the process ends. If the output of the quantization index has not finished for all the dimensions, the process proceeds to step D7. In step D7, the dimension determination means 1 determines the next dimension for extracting the feature vector (n = n + 1), and supplies it to the extraction region acquisition means 2 and the comparison method acquisition means 6. The process then proceeds to step D2 again.

[0135] 또한, 여기서는, 차원 1으로부터 차원 N까지 차례로 추출 처리를 실시하고 있지만, 이 차례에 한정되지 않고 임의의 차례가 취해질 수도 있다. 또 이 처리 순서에 한정하지 않고, 복수의 차원에 대한 추출 처리를 병렬로 실시해도 된다. 게다가 단계 D2와 단계 D3의 순서를 반대로 해도 되고, 단계 D3를 단계 D5의 직전에 실행해도 된다.In addition, although extraction processing is performed in order from dimension 1 to dimension N here, it is not limited to this order and arbitrary orders may be taken. Moreover, not only this process order but extracting process with respect to several dimension may be performed in parallel. In addition, the order of step D2 and step D3 may be reversed, and step D3 may be performed immediately before step D5.

[0136] [제4의 실시형태의 효과][Effect of Fourth Embodiment]

제1의 실시형태의 효과에 더하여, 제4의 실시형태는 상이한 화상을 식별할 수 있는 정도인 식별 능력을 더욱 높게 할 수 있다.In addition to the effects of the first embodiment, the fourth embodiment can further increase the identification capability, which is a degree capable of identifying different images.

[0137] 그 이유는, 차원간에서 비교 및 양자화 방법이 상이함 (다양한 비교 및 양자화 방법이 사용됨) 에 따라, 차원간의 상관을 보다 작게 할 수 있기 때문이다.The reason is that, as the comparison and quantization methods are different between dimensions (various comparison and quantization methods are used), the correlation between the dimensions can be made smaller.

[0138] [제5의 실시형태] [Fifth Embodiment]

[제5의 실시형태의 구성][Configuration of Fifth Embodiment]

다음으로, 본 발명의 제5의 실시형태에 대해 도면을 참조해 상세하게 설명한다.Next, a fifth embodiment of the present invention will be described in detail with reference to the drawings.

[0139] 도 20을 참조하면, 본 발명의 제5의 실시형태는, 도 1에 나타낸 제1의 실시형태의 구성에, 부호화 수단 (7) 이 추가되는 점에서 상이하다. 또한, 그 이외의 구성에 관해서는, 제1의 실시형태의 구성과 같기 때문에, 여기서는 설명을 생략한다. 또한, 여기서는, 제1의 실시형태와의 편성으로서 설명하고 있지만, 제2의 실시형태, 또는 제3의 실시형태, 또는 제4의 실시형태와의 편성도 허용가능하다.Referring to FIG. 20, the fifth embodiment of the present invention differs in that the encoding means 7 is added to the configuration of the first embodiment shown in FIG. In addition, about the other structure, since it is the same as the structure of 1st Embodiment, description is abbreviate | omitted here. In addition, although demonstrated as a knitting with 1st Embodiment here, knitting with 2nd Embodiment, 3rd Embodiment, or 4th Embodiment is also acceptable.

[0140] 부호화 수단 (7) 은, 비교 수단 (4) 으로부터 공급되는 양자화 인덱스 벡터를, 데이터량이 작아지도록 유일하게 복호 가능한 형식으로 부호화하고, 부호화된 양자화 인덱스 벡터를 출력한다.[0140] The encoding means 7 encodes the quantization index vector supplied from the comparison means 4 in a uniquely decodable format so that the data amount is small, and outputs the encoded quantization index vector.

[0141] 부호화 수단 (7) 은, 예를 들어, 양자화 인덱스 벡터의 각 차원을 독립적으로 부호화하는 것이 아니라, 복수의 차원을 정리해 부호화함으로써, 데이터량을 작게 부호화해도 된다.[0141] The encoding means 7 may encode the data amount small, for example, by collectively encoding a plurality of dimensions instead of encoding each dimension of the quantization index vector independently.

[0142] 여기서, 양자화 인덱스가 식 2에 기초하여 산출되었을 경우에 있어서, 부호화 수단 (7) 이 효율적으로 부호화하는 방법에 대해 말한다. 식 2에 기초하여 양자화 인덱스를 산출하면, 각 차원의 양자화 인덱스는, (+1, 0,-1) 의 3개 값 중 어느 하나의 값을 받는다. 각 차원을 독립적으로 부호화하는 경우에는, 각 차원에 대해 2비트 (=4상태) 가 필요하다. 여기서, 5 차원을 정리해 부호화하는 것을 생각하면 (이 5 차원은, 예를 들어 연속하는 5 차원을 포함하는 임의의 편성일 수도 있다), 그 상태수는 3의 5승=243상태가 되어, 1바이트=8비트 (=256상태) 로 나타낼 수 있다 (256 상태 이내이다). 그 경우에, 1 차원에 대하여 필요한 평균 비트수는 8/5=1.6비트가 되어, 각 차원을 독립적으로 부호화하는 경우보다, 데이터량을 작게 할 수 있다 (1 차원 당 0.4비트의 삭감이 가능). 예를 들어, 양자화 인덱스 벡터의 전차원수가 300 차원인 경우, 각 차원을 독립적으로 부호화한 경우에는 2비트×300=600비트=75바이트가 된다. 한편, 5 차원마다 정리해 부호화하면, 1.6비트×300=480비트=60바이트가 되어, 15바이트를 삭감할 수 있다.[0142] Here, when the quantization index is calculated based on the equation 2, the encoding means 7 refers to a method for efficiently encoding. When the quantization index is calculated based on Equation 2, the quantization index of each dimension receives any one of three values of (+1, 0, -1). In the case of encoding each dimension independently, two bits (= 4 states) are required for each dimension. Here, considering that the 5 dimensions are collectively encoded (the 5 dimensions may be, for example, an arbitrary combination including 5 consecutive dimensions), the number of states becomes a power of 3 = 243, and 1 Byte = 8 bits (= 256 states) can be represented (within 256 states). In that case, the average number of bits required for one dimension is 8/5 = 1.6 bits, so that the data amount can be made smaller than in the case of encoding each dimension independently (0.4 bits per dimension can be reduced). . For example, when the total number of quantization index vectors is 300 dimensions, when each dimension is encoded independently, 2 bits x 300 = 600 bits = 75 bytes. On the other hand, if the data is collectively encoded for every five dimensions, 1.6 bits x 300 = 480 bits = 60 bytes, and 15 bytes can be reduced.

[0143] 식 2에 따라 산출되는 (+1, 0,-1) 의 3개 값의 상태를 5 차원마다 부호화하는 구체예를 이하에 나타낸다. 각 5 차원 세트의 편성은, 어떠한 편성에서도 좋지만, 예를 들어, 연속하는 5 차원 세트마다 부호화하는 방법이 있다. 즉, 제1 차원으로부터 제5 차원을 정리해 부호화하고, 제6 차원으로부터 제10 차원을 정리해 부호화하고, 제11 차원으로부터 제15 차원을 정리해 부호화해 나갈 수가 있다 (물론, 중복이 없는 한은, 어떠한 5개의 차원의 편성이라도 좋다). 여기서, 정리해 부호화하는 5 차원의 양자화 인덱스의 값을 Qn, Qn +1, Qn +2, Qn +3, 및 Qn+4로 하면 (각각은+1, 0,-1의 어느 하나의 값을 취한다), 예를 들어, 이하의 식에 따라 부호화된 값 Z를 산출 할 수 있다.[0143] A specific example of encoding the state of three values of (+1, 0, -1) calculated in accordance with Expression 2 for every five dimensions is shown below. The combination of each 5-dimensional set may be any combination, but there is, for example, a coding method for each successive 5-dimensional set. That is, the fifth dimension can be collectively encoded from the first dimension, the tenth dimension can be collectively encoded from the sixth dimension, and the fifteenth dimension can be collectively encoded from the eleventh dimension. May be a combination of two dimensions). Here, if the values of the five-dimensional quantization indexes to be coded together are set to Q n , Q n +1 , Q n +2 , Q n +3 , and Q n + 4 (each takes one of +1, 0, -1). For example, the encoded value Z can be calculated according to the following equation.

[0144] [식 3][0144] [Equation 3]

Z={34×Qn+1)}+{33×Qn +1+1)}+{32×Qn +2+1)}+{31×Qn +3+1)}+{30×Qn +4+1)}Z = (3 4 × Q n +1)} + {3 3 × Q n +1 +1)} + {3 2 × Q n +2 +1)} + {3 1 × Q n +3 +1)} + {3 0 × Q n +4 +1)}

[0145] 이 부호화된 값 Z는, 0에서 242의 값을 취하기 때문에 (243 상태), 양자화 인덱스의 값은 1바이트 (8비트) 의 데이터로서 부호화 되게 된다. 또한, 정리해 부호화하는 5 차원의 양자화 인덱스의 값을 Qn, Qn +1, Qn +2, Qn +3, Qn +4를, 0에서 242의 값 (243 상태) 으로 매핑하는 방법은, [식 3]에만 한정되지 않는다. 5 차원의 양자화 인덱스의 상이한 편성에 대해, 상이한 값 (243 상태의 값) 으로 매핑되는 방법이면, 어떠한 방법도 사용될 수 있다. [식 3]과 같이 주어진 식에 기초하여, 매핑 (부호화 후의 값) 을 산출해, 부호화해도 되거나 미리 매핑의 대응표를 생성 및 기억해 두어, 기억된 대응표를 참조하면서 매핑 (부호화 후의 값) 을 취득하고, 부호화해도 된다.Since the encoded value Z takes a value from 0 to 242 (243 state), the value of the quantization index is encoded as one byte (8 bits) of data. In addition, a method of mapping the values of the five-dimensional quantization index to be collectively coded from Q n , Q n +1 , Q n +2 , Q n +3 , Q n +4 from 0 to 242 (243 states) is given by the following equation. 3] is not limited only. For different combinations of five-dimensional quantization indices, any method can be used as long as it is a method that maps to a different value (value of 243 states). Based on the equation given in [Equation 3], the mapping (value after encoding) may be calculated, encoded or generated and stored in the mapping table in advance, and the mapping (value after encoding) is obtained while referring to the stored correspondence table. May be encoded.

[0146] 단락 0142로부터 단락 0145에 있어서 설명한, 양자화 인덱스가 식 2에 기초하여 산출되었을 경우에 있어서 효율적으로 부호화하는 방법은, 양자화 인덱스가 식 2에 기초하여 산출되었을 경우에 한정하지 않고, 양자화 인덱스가 3개 값의 상태의 양자화 인덱스 벡터이면, 동일하게 적용 가능하다. 즉, 양자화 인덱스 벡터가, 3개 값의 상태의 양자화 인덱스로 이루어지는 경우에는, 5 차원을 정리해 1바이트=8비트로서 부호화 할 수 있다. 3개 값 상태를 가지는 5 차원의 양자화 인덱스는, 5 차원의 양자화 인덱스의 상이한 편성이 243 종류 가능하기 때문에, 각각의 편성을 0에서 242의 값 (243 상태) 으로 매핑함으로써, 1바이트=8비트로 부호화 할 수 있다. 또한 이 매핑은, [식 3]과 같이 주어진 식에 기초하여, 매핑 (부호화 후의 값) 을 산출하고 부호화 해도 되거나 미리 매핑의 대응표를 생성 및 기억해 두어, 기억된 대응표를 참조하면서 매핑 (부호화 후의 값) 을 취득하고, 부호화 해도 된다.[0146] The method of efficiently encoding when the quantization index described in paragraph 0145 to paragraph 0145 is calculated based on Equation 2 is not limited to the case where the quantization index is calculated based on Equation 2. Is equally applicable if is a quantization index vector of a state of three values. That is, when a quantization index vector consists of quantization indexes of three values, five dimensions can be collectively encoded as 1 byte = 8 bits. Since five-dimensional quantization indexes having three-value states can have 243 different combinations of five-dimensional quantization indices, each byte is mapped to a value of 0 to 242 (243 states) so that 1 byte = 8 bits. Can be encoded. In addition, this mapping may calculate and encode a mapping (value after encoding) based on a given expression as shown in [Equation 3], or generate and store a mapping table of mapping in advance, and refer to the stored mapping table while mapping (value after encoding). ) May be obtained and encoded.

[0147] 이와 같이, 양자화 인덱스 벡터의 각 차원을 독립적으로 부호화하는 것이 아니라, 복수의 차원을 정리해 부호화함으로써, 양자화 인덱스 벡터의 각 차원을 독립적으로 부호화하는 경우와 비교해, 데이터량을 작게 하면서 부호화할 수 있는 효과가 있다.[0147] As described above, instead of encoding each dimension of the quantization index vector independently, the plurality of dimensions are collectively encoded so that the encoding can be performed while reducing the amount of data as compared with the case of independently encoding each dimension of the quantization index vector. It can be effective.

[0148] 이것은, 양자화 인덱스가 3개 값의 상태로 표현되는 경우에 한정되지 않는다. 예를 들어, 양자화 인덱스가 5개 값의 상태로 표현되는 경우에는, 3 차원을 정리해 부호화 함으로써 5의 3승=125상태가 되어, 7비트=128상태로 부호화 할 수 있다 (128 상태 이내에 있다). 3 차원을 독립적으로 부호화하면 3비트 (8 상태) ×3 차원=9비트가 필요하다. 이 때문에, 3 차원을 정리해 부호화함으로써 2비트를 삭제할 수 있다.[0148] This is not limited to the case where the quantization index is expressed in the state of three values. For example, when the quantization index is expressed in the state of five values, the three-dimensional sum of 125 is 125 by encoding three dimensions together so that the encoding can be performed in 7 bits = 128 state (within 128 states). . Independently encoding three dimensions requires three bits (8 states) x 3 dimensions = 9 bits. For this reason, two bits can be deleted by encoding three dimensions together.

[0149] 또한, 부호화 수단 (7) 으로부터 출력되는 부호화된 양자화 인덱스 벡터를 조합할 때 (한 화상으로부터 추출한 양자화 인덱스 벡터와 다른 화상으로부터 추출한 양자화 인덱스 벡터를 비교해, 그들의 화상이 동일한가 아닌가를 판정할 때) 는, 부호화된 상태로부터, 각 차원마다의 양자화 인덱스의 값을 복호하고 (예를 들어 상기의 예에서는, 각 차원마다+1, 0,-1의 양자화 인덱스치로 복호하고), 복호된 양자화 인덱스를 기초로 동일성 척도 (양자화 인덱스가 일치하는 차원수 (유사도), 혹은 양자화 인덱스가 비일치인 차원수 (허밍 거리)) 를 산출해도 된다.[0149] Further, when combining the encoded quantization index vectors output from the encoding means 7 (when comparing quantization index vectors extracted from one picture with quantization index vectors extracted from another picture and determining whether or not those pictures are the same). ) Decodes the value of the quantization index for each dimension (for example, in the above example, decodes the quantization index value of +1, 0, -1 for each dimension) and decodes the decoded quantization index. You may calculate an identity measure (the number of dimensions (similarity) to which a quantization index matches, or the number of dimensions (humming distance) which a quantization index does not match) based on a basis.

[0150] 또, 룩업테이블을 사용하여, 부호화된 상태인 채로, 각 차원마다의 양자화 인덱스의 값으로 복호 하는 것 없이, 조합을 실시할 수도 있다. 즉, 부호화된 단위 마다, 미리 동일성 척도 (유사도나 거리) 를 테이블 (룩업테이블) 의 형태로 보존해 두어, 룩업테이블을 참조 함으로써, 부호화된 단위마다의 동일성 척도 (유사도나 거리) 를 취득하고, 그것들을 총계하여 (예를 들어 총합을 산출하여), 전차원의 동일성 척도를 산출할 수 있다.In addition, the lookup table may be used to perform a combination without decoding to the value of the quantization index for each dimension while being encoded. That is, for each encoded unit, the identity measure (similarity or distance) is stored in the form of a table (lookup table) in advance, and the identity measure (similarity or distance) for each coded unit is obtained by referring to the lookup table. By summating them (for example, by calculating the totals), one can measure the identity of all dimensions.

[0151] 예를 들어 상기의, 5 차원마다 정리해 1바이트 (8비트) 로 부호화된 경우에는, 각각의 5 차원 단위가 243 상태의 어느 하나이기 때문에, 243×243의 사이즈의 룩업테이블을 미리 생성해 두는 것으로, 대처할 수 있다. 즉, 비교하는 2개의 5 차원 단위의 부호의, 가능한 모든 편성 상태 (243 상태×243 상태) 사이의 동일성 척도, 즉 5 차원 중 양자화 인덱스가 일치하는 수 (유사도), 혹은 5 차원 중 양자화 인덱스가 비일치인 수 (허밍 거리) 를 미리 산출해두고, 그것을 243×243의 사이즈의 룩업테이블로서 기억해 둔다. 이 테이블로, 5 차원 단위 마다, 룩업테이블을 참조해 (각 차원마다의 양자화 인덱스로 복호하는 것 없이), 5 차원 단위마다의 동일성 척도를 취득할 수 있다. 예를 들어, 양자화 인덱스 벡터의 전차원수가 300 차원의 경우, 5 차원마다 1바이트로, 합계 60바이트로 부호화되고 있기 때문에, 룩업테이블을 60회 참조하고, 각각의 5 차원 단위의 동일성 척도를 취득하고, 그것들을 총합하는 것에 의해 전체 (300 차원) 의 동일성 척도 (유사도 혹은 허밍 거리) 를 산출할 수 있다. 룩업테이블을 사용하는 일로, 각 차원마다의 양자화 인덱스로 복호를 실시하는 것 없이 조합 (동일성 척도의 산출) 이 가능하게 되므로, 조합 (동일성 척도의 산출) 시의 처리 비용을 저감할 수 있고, 고속의 조합 (동일성 척도의 산출) 이 가능하게 되는 효과가 있다.For example, in the case where the above 5-dimensional units are encoded in one byte (8 bits), the lookup table having a size of 243 × 243 is generated in advance because each 5-dimensional unit is one of 243 states. We can cope by making it. That is, the equality measure between all possible combination states (243 states x 243 states) of the codes of the two five-dimensional units to be compared, that is, the number (similarity) in which the quantization indices in five dimensions coincide, or the quantization index in five dimensions, A non-matching number (humming distance) is calculated in advance and stored as a lookup table of 243 x 243 size. With this table, you can refer to the lookup table for every five-dimensional unit (without decoding to the quantization index for each dimension) to obtain a measure of equality for every five-dimensional unit. For example, in the case where the total number of quantization index vectors is 300 dimensions, since the total of the dimension of the quantization index vector is 300, one byte is encoded by 60 bytes in total, the lookup table is referred to 60 times, and the identity measure of each five-dimensional unit is obtained. The totality (300 dimensions) of the identity measure (similarity or humming distance) can be calculated by adding them together. By using a lookup table, the combination (calculation of the identity measure) can be performed without decoding by the quantization index for each dimension, thereby reducing the processing cost at the combination (calculation of the identity measure), There is an effect that the combination of (calculation of identity measure) becomes possible.

[0152] 또, 2개의 양자화 인덱스 벡터의 사이의 동일성 척도를, 단순하게 양자화 인덱스가 일치하는 차원수 (유사도) 나, 양자화 인덱스가 비일치인 차원수 (허밍 거리) 로서 산출하는 것이 아니라, 보다 복잡한 계산식에 기초하여 산출하는 경우에 있어서도, 룩업테이블을 사용하여, 각 차원마다의 양자화 인덱스에 대한 복호를 실시하는 것 없이 조합 (동일성 척도의 산출) 을 실시할 수 있다. 예를 들어, 양자화 인덱스가 식 2에 기초하여 산출된 양자화 인덱스 벡터의 동일성 척도로서 이하와 같은 동일성 척도의 산출 방법을 생각한다. 먼저, 2개의 화상의 양자화 인덱스 벡터를 대응하는 차원끼리 비교하고, 「양쪽 모두의 양자화 인덱스가 0」이 아닌 차원의 수를 산출하고, 이 값을 A로 설정한다. 다음으로, 「양쪽 모두의 양자화 인덱스가 0」이 아닌 차원에 있어서, 양자화 인덱스가 일치하는 차원수를 B로서 산출한다 (또는, 「양쪽 모두의 양자화 인덱스가 0」이 아닌 차원에 있어서, 양자화 인덱스가 비일치인 차원수를 C로서 산출한다). 그리고, 동일성 척도를 B/A로서 산출한다 (또는, 동일성 척도를 C/A로서 산출한다). 단, A=0의 경우 (즉, 모든 차원에서 양쪽 모두의 양자화 인덱스가 0이 되는 경우) 는, 동일성 척도를 미리 결정된 수치 (예를 들어 0.5) 로 설정한다. 이와 같은 동일성 척도의 산출 방법을 채용했을 경우, A의 값과 B의 값 (또는 C의 값) 의 2개의 값을 산출할 필요가 있다. 이 경우, 5 차원마다의 A의 값을 참조하기 위한 243×243의 사이즈의 룩업테이블과 5 차원마다의 B의 값 (또는 C의 값) 을 참조하기 위한 243×243의 사이즈의 룩업테이블을 미리 생성해 두는 것으로, 대처할 수 있다. 즉, 비교하는 2개의 5 차원 단위의 부호의, 가능한 모든 편성 상태 (243 상태×243 상태) 사이의 A의 값 (「양쪽 모두의 양자화 인덱스가 0」이 아닌 차원수) 과 가능한 모든 편성 상태 (243 상태×243 상태) 사이의 B의 값 (또는 C의 값) 을 미리 산출해 둔다. 그리고 각각을 243×243의 사이즈의 룩업테이블로서 기억해 둔다. 그렇다면, 5 차원 단위마다, 룩업테이블을 참조해 (각 차원마다의 양자화 인덱스를 복호 하는 것 없이 ), 5 차원 단위마다의 A의 값과 B의 값 (또는 C의 값) 을 취득할 수 있다. 예를 들어, 양자화 인덱스 벡터의 전차원수가 300 차원의 경우, 5 차원마다 1바이트로, 합계 60바이트로 부호화되기 때문에, 룩업테이블을 60회×2 참조해, 각각의 5 차원 단위의 A의 값과 B의 값 (또는 C의 값) 을 취득하고, 모두 5 차원 단위의 A의 값과 B의 값 (또는 C의 값) 을 총합하는 것에 의해, 전차원 (300 차원) 의 A의 값과 B의 값 (또는 C의 값) 을 산출 할 수 있다. 그리고, 마지막에 B/A (또는 C/A) 를 산출하는 것으로, 동일성 척도를 산출할 수 있다. 이와 같이, 동일성 척도를, 단순하게 양자화 인덱스가 일치하는 차원수 (유사도) 나, 양자화 인덱스가 비일치인 차원수 (허밍 거리) 로서 산출하는 것이 아니라, 보다 복잡한 계산식에 기초하여 동일성 척도를 산출하는 경우에 있어서도, 룩업테이블들을 참조하여, 각 차원마다 또는 양자화 인덱스에 대한 값을 복호하는 것 없이 조합 (동일성 척도의 산출) 이 가능하게 된다. 이는 조합 (동일성 척도의 산출) 시의 처리 비용을 저감할 수 있고, 고속의 조합 (동일성 척도의 산출) 이 가능하게 되는 효과가 있다.In addition, the identity measure between the two quantization index vectors is not simply calculated as a number of dimensions (similarity) in which the quantization indexes match or a number of dimensions (humming distance) in which the quantization indexes are inconsistent. Even when calculating based on a complicated calculation formula, a combination (calculation of the sameness measure) can be performed using a lookup table without decoding the quantization index for each dimension. For example, a method of calculating the following identity measure is considered as the identity measure of the quantization index vector whose quantization index is calculated based on the equation (2). First, quantization index vectors of two images are compared with corresponding dimensions, and the number of dimensions where both quantization indexes are not 0 is calculated, and this value is set to A. FIG. Next, in the dimension where both quantization indices are not 0, the number of dimensions to which the quantization indices match is calculated as B (or in the dimension where both quantization indices are not 0), the quantization index Calculates the number of dimensions for which C is non-matching as C). The identity measure is calculated as B / A (or the identity measure is calculated as C / A). However, in the case of A = 0 (that is, when both quantization indices become 0 in all dimensions), the identity measure is set to a predetermined numerical value (for example, 0.5). When employing such a method of calculating the identity measure, it is necessary to calculate two values, a value of A and a value of B (or a value of C). In this case, a lookup table of size 243 × 243 for referring to the value of A for every five dimensions and a lookup table of size 243 × 243 for referring to the value of B (or the value of C) for every five dimensions You can cope by creating it. That is, the value of A (the number of dimensions in which both quantization indices are not zero) and all possible pairing states (243 states × 243 states) of the two five-dimensional units of the sign to be compared. The value of B (or the value of C) between 243 states and 243 states is calculated beforehand. Each is stored as a lookup table having a size of 243 × 243. If so, you can look up the lookup table for every five-dimensional unit (without decoding the quantization index for each dimension) to obtain the values of A and B (or C) for each five-dimensional unit. For example, if the total number of quantization index vectors is 300, the size of A in each 5-dimensional unit is referred to 60 times by referring to the lookup table 60 times because the total number of dimensions of the quantization index vector is 300. The value of A and B in all dimensions (300 dimensions) are obtained by obtaining the values of A and B (or C), and then summing the values of A and B (or C) in 5-dimensional units. We can calculate the value of (or the value of C). And finally, by calculating B / A (or C / A), the identity measure can be calculated. In this way, the identity measure is not simply calculated as the number of dimensions (similarity) to which the quantization indexes match, or as the number of dimensions (humming distance) where the quantization indexes are inconsistent, but rather based on a more complex calculation. Even in the case, with reference to the lookup tables, a combination (calculation of the identity measure) is possible without decoding the value for each dimension or for the quantization index. This can reduce the processing cost at the time of the combination (calculation of the identity measure), and has the effect of enabling a high speed combination (calculation of the identity measure).

[0153] [제5의 실시형태의 효과][Effect of Fifth Embodiment]

보다 작은 데이터량으로서 양자화 인덱스 벡터를 출력하는 것이 가능하다.It is possible to output the quantization index vector as a smaller data amount.

[0154] 다음으로, 본 발명에 있어서의 제6~제8의 실시형태를 설명한다.[0154] Next, the sixth to eighth embodiments of the present invention will be described.

[0155] [제6의 실시형태][Sixth Embodiment]

제6의 실시형태에서는, 추출하는 특징 벡터의 차원수는 300 차원 (제1 차원으로부터 제300 차원) 이다.In the sixth embodiment, the number of dimensions of the feature vector to be extracted is 300 dimensions (300th dimension from the first dimension).

[0156] 제6의 실시형태에서는, 차원마다의 추출 영역 (제1의 추출 영역과 제2의 추출 영역) 은, 여러 가지 형상의 사각형으로 구성된다. 제6의 실시형태에 있어서, 추출 영역 취득 수단 (2) 에 입력으로서 공급되는 차원별 추출 영역 정보를 도 14에 나타낸다. 도 14는, 정의된 화상 사이즈인, 가로폭 320화소×세로폭 240화소의 화상 사이즈에 대한, 차원마다의 추출 영역 (제1의 추출 영역과 제2의 추출 영역) 의 사각형의 네 귀퉁이의 XY좌표치를 나타낸다. 예를 들어, 제1 차원의 추출 영역은, 좌표치 (262.000, 163.000), 좌표치 (178.068, 230.967), 좌표치 (184.594, 67.411), 좌표치 (100.662, 135.378) 를 네 귀퉁이로 하는 사각형으로 구성되는 제1의 추출 영역과 좌표치 (161.000, 133.000), 좌표치 (156.027, 132.477), 좌표치 (164.240, 102.170), 좌표치 (159.268, 101.647) 를 네 귀퉁이로 하는 사각형으로 구성되는 제1의 추출 영역으로 구성된다.[0156] In the sixth embodiment, the extraction regions (first extraction region and second extraction region) for each dimension are constituted by rectangles of various shapes. In the sixth embodiment, the dimensional extraction area information supplied as an input to the extraction area acquisition means 2 is shown in FIG. Fig. 14 shows XY of four corners of a rectangle of extraction areas (first extraction area and second extraction area) for each dimension for an image size of 320 pixels in width x 240 pixels in width, which is a defined image size. Represents a coordinate value. For example, the extraction region of the first dimension may include a first square consisting of four corners of coordinate values (262.000, 163.000), coordinate values (178.068, 230.967), coordinate values (184.594, 67.411), and coordinate values (100.662, 135.378). It is composed of a first extraction area consisting of a quadrangle of the extraction area of the coordinates (161.000, 133.000), coordinate values (156.027, 132.477), coordinate values (164.240, 102.170), coordinate values (159.268, 101.647).

[0157] 차원마다의 추출 영역 (제1의 추출 영역과 제2의 추출 영역) 은, 가로폭 320화소×세로폭 240화소의 화상 사이즈에 정규화된 화상에 대해, 이 네 귀퉁이의 좌표치로 둘러싸이는 영역안에 포함되는 정수치의 좌표치의 화소의 세트가 된다. 단, 네 귀퉁이의 좌표치로 둘러싸이는 영역안에 포함되는 부의 좌표치는, 추출 영역에 포함하지 않는다.[0157] The extraction area (first extraction area and second extraction area) for each dimension is surrounded by the coordinate values of these four corners with respect to an image normalized to an image size of 320 pixels in width x 240 pixels in width. It is a set of pixels of coordinate values of integer values contained in the area. However, the negative coordinate values contained in the area surrounded by the four corner coordinate values are not included in the extraction area.

[0158] 제6의 실시형태에 있어서, 영역 특징량 산출 방법 취득 수단 (5) 에 입력으로서 공급된 차원별 영역 특징량 산출 방법 정보를 도 15에 나타낸다. 제6의 실시형태에서는, 모든 차원에 대해, 각각의 추출 영역 (제1의 추출 영역과 제2의 추출 영역) 에 포함되는 화소 군의 휘도치의 평균치가, 각각의 추출 영역의 영역 특징량이 된다.In the sixth embodiment, the dimension-specific region feature variable calculation method information supplied as an input to the region feature variable calculating method acquisition unit 5 is shown in FIG. In 6th Embodiment, the average value of the luminance value of the pixel group contained in each extraction area | region (1st extraction area | region and 2nd extraction area | region) is an area feature amount of each extraction area | region in all the dimensions.

[0159] 제6의 실시형태에 있어서, 비교 방법 취득 수단 6에 입력으로서 공급된 차원별 비교 및 양자화 방법 정보를 도 17에 나타낸다. 제6의 실시형태에서는, 차원마다, 비교 및 양자화 방법 B 또는 비교 및 양자화 방법 G가 이용되고, 차원마다 그 파라미터의 값도 상이하다. 예를 들어, 제1 차원에서, 비교 및 양자화 방법 G가 사용되고, 임계값 th=D(floor(300×5.0/100)) 이다. 또, 예를 들어 제2 차원에서, 비교 및 양자화 방법 G가 사용되고, 임계값 th=D(floor(300×10.0/100)) 이다. 또, 예를 들어 제9 차원에서, 비교 및 양자화 방법 B가 사용되고, 임계값 th=3.0이다.In the sixth embodiment, dimensional comparison and quantization method information supplied as an input to the comparison method acquisition means 6 is shown in FIG. In the sixth embodiment, the comparison and quantization method B or the comparison and quantization method G is used for each dimension, and the value of the parameter differs for each dimension. For example, in the first dimension, the comparison and quantization method G is used and the threshold th = D (floor (300 × 5.0 / 100)). Further, for example, in the second dimension, the comparison and quantization method G is used, and the threshold value th = D (floor (300 × 10.0 / 100)). In addition, in the ninth dimension, for example, the comparison and quantization method B is used, and the threshold value th = 3.0.

[0160] [제7의 실시형태] [Seventh Embodiment]

제7의 실시형태는, 제6의 실시형태와 같이, 추출하는 특징 벡터의 차원수는 300 차원 (제1 차원으로부터 제300 차원) 이다. 또 제7의 실시형태에서는, 추출 영역 취득 수단 (2) 에 입력으로서 공급되는 차원별 추출 영역 정보로서 제6의 실시형태와 같이 도 14에 나타낸 정보를 사용한다. 또, 제7의 실시형태에서는, 비교 방법 취득 수단 6에 입력으로서 공급되는 차원별 비교 및 양자화 방법 정보로서 제6의 실시형태와 같이 도 17에 나타낸 정보를 사용한다.In the seventh embodiment, as in the sixth embodiment, the number of dimensions of the feature vector to be extracted is 300 dimensions (300th dimension from the first dimension). In the seventh embodiment, as shown in the sixth embodiment, the information shown in FIG. 14 is used as the dimensional extraction area information supplied as an input to the extraction area acquisition means 2. In the seventh embodiment, the information shown in FIG. 17 is used as the dimension comparison and quantization method information supplied as an input to the comparison method acquisition means 6 as in the sixth embodiment.

[0161] 제7의 실시형태에 있어서, 영역 특징량산출 방법 취득 수단 (5) 에 입력으로서 공급되는 차원별 영역 특징량산출 방법 정보를 도 16에 나타낸다. 제7의 실시형태에서는, 차원마다, 추출 영역 (제1의 추출 영역과 제2의 추출 영역) 에 포함되는 화소 군의 휘도치의 평균치, 또는, 퍼센타일 휘도치 특징량이 이용되고, 같은 퍼센타일 휘도치 특징량을 사용하는 경우에서도, 차원마다 그 특징량은 상이하다. 예를 들어, 제1 차원은, 추출 영역에 포함되는 화소의 휘도치의 평균치이다. 또, 예를 들어 제4 차원은, 퍼센타일 휘도치 특징량으로, Y(floor(N×20.0/100) 이다. 또, 제8 차원은, 퍼센타일 휘도치 특징량으로, Y(floor(N×80.0/100) 이다.[0161] In the seventh embodiment, the dimension-specific region feature amount calculation method information supplied as an input to the region feature variable calculation method acquisition means 5 is shown in FIG. In the seventh embodiment, for each dimension, the average value of the luminance values of the pixel groups included in the extraction region (the first extraction region and the second extraction region), or the percentage luminance value characteristic amount is used, and the same percentage luminance value characteristic is used. Even when an amount is used, the feature amount is different for each dimension. For example, the first dimension is an average value of luminance values of pixels included in the extraction region. For example, the fourth dimension is the percentage luminance characteristic value and Y (floor (N × 20.0 / 100). The eighth dimension is the percentage luminance characteristic value and Y (floor (N × 80.0). / 100).

[0162] [제8의 실시형태][Eighth Embodiment]

제8의 실시형태는, 추출하는 특징 벡터의 차원수는 325 차원 (제1 차원으로부터 제325 차원) 이다.In the eighth embodiment, the number of dimensions of the feature vector to be extracted is 325 dimensions (the first to 325 dimensions).

제8의 실시형태는, 추출하는 특징 벡터의 차원수는 325 차원 (제1 차원으로부터 제325 차원) 이다. 제7의 실시형태의 경우에는, 각 영역은, 화상을 세로 방향 32개, 가로방향 32개로 분할하여 형성된 1024개의 블록중에서 블록의 편성으로 구성된다. 여기서, 각 블록에 대해, 도 28에 나타내는 바와 같이, 좌상으로부터, 0으로부터 시작되는 인덱스를 부여해, 이 인덱스를 이용해 영역을 기술한다. 구체적으로는, 직사각형 영역을, 그 좌상의 블록의 인덱스 「a」 와 우하의 블록의 인덱스 「b」를 이용해 「a-b」 와 같이 표현한다. 예를 들어, 인덱스 0, 1, 32, 33의 4개의 블록으로 이루어지는 직사각형은, 0-33과 같이 기술한다. 또, 이런 방식으로 형성된 직사각형을 기호"|"를 이용해 연결한 경우에는, 그 기호의 전후의 직사각형을 연결해 형성된 영역을 표현한다. 예를 들어, 0-33|2-67는, 0-33에 의해 정의되는 직사각형과 2-67에 의해 정의되는 직사각형을 연결하여 형성된 영역, 즉, 블록 번호 0, 1, 2, 3, 32, 33, 34, 35, 66 및 67에 의해 형성되는 영역을 나타낸다.In the eighth embodiment, the number of dimensions of the feature vector to be extracted is 325 dimensions (the first to 325 dimensions). In the case of the seventh embodiment, each area is composed of a combination of blocks among 1024 blocks formed by dividing an image into 32 vertical directions and 32 horizontal directions. Here, for each block, as shown in FIG. 28, an index starting from 0 is given from the upper left, and an area is described using this index. Specifically, the rectangular area is expressed as "a-b" using the index "a" of the upper left block and the index "b" of the lower right block. For example, a rectangle composed of four blocks of indexes 0, 1, 32, and 33 is described as 0-33. In the case where the rectangles formed in this way are connected using the symbol "|", the area formed by connecting the rectangles before and after the symbol is represented. For example, 0-33 | 2-67 is an area formed by connecting a rectangle defined by 0-33 and a rectangle defined by 2-67, that is, block numbers 0, 1, 2, 3, 32, The area formed by 33, 34, 35, 66, and 67 is shown.

[0163] 이런 방식으로 기재된, 제8의 실시형태의 각 차원에 대응하는 영역을 나타낸 것이 도 26이다. 도에서, 영역의 타입별로 도 29a, 도 29b, 도 29c, 도 29d, 도 29e, 도 29f, 도 29g로 나누어 그 325 차원을 기술하고 있다. 여기서, 영역의 타입이란, 제1, 제2의 추출 영역간의 상대 위치나 형상의 편성에 의해 정해지는 유사한 영역 패턴을 갖는 차원들로 이루어지는 그룹을 의미한다.[0163] FIG. 26 shows regions corresponding to each dimension of the eighth embodiment described in this manner. In FIG. 29, dimensions 325 are described by dividing the regions into types of FIGS. 29A, 29B, 29C, 29D, 29E, 29F, and 29G. Here, the type of region means a group consisting of dimensions having a similar region pattern determined by the relative position between the first and second extraction regions or the knitting of the shape.

[0164] 구체적으로는, 도 29a의 경우에는, 도 31a에 일례를 나타내는 바와 같이, 종횡 4 블록으로 이루어지는 정방형을 세로 방향이나 가로방향으로 2 등분 해 형성되는 2개의 영역이 제1, 제2의 추출 영역으로서 이용된 경우에 상당한다. 이 때문에, 제1, 제2의 추출 영역 양쪽 모두의 형상은, 세로 4 블록, 가로 2 블록으로 이루어지는 직사각형, 혹은 세로 2 블록, 가로 4 블록으로 이루어지는 직사각형이다. 또, 제1, 제2의 추출 영역 사이의 상대적인 위치를 보면, 직사각형의 세로 변이 서로 겹치도록 서로 인접하는 위치에 존재한다.Specifically, in the case of FIG. 29A, as shown in FIG. 31A, two regions formed by dividing a square consisting of four vertical and horizontal blocks into two equally in the vertical direction and the horizontal direction are formed. It corresponds to the case where it is used as an extraction area. For this reason, the shape of both the 1st, 2nd extraction area | region is a rectangle which consists of 4 vertical blocks and 2 horizontal blocks, or a rectangle which consists of 2 vertical blocks and 4 horizontal blocks. Moreover, looking at the relative position between 1st, 2nd extraction area | region, it exists in the position adjacent to each other so that the vertical side of a rectangle may overlap each other.

[0165] 도 29b의 경우에는, 도 31b에 일례를 나타내는 바와 같이, 종횡 8 블록으로 이루어지는 정방형을 종횡 2 등분해 형성된 4개의 정방형 중에서, 좌상과 우하, 우상과 좌하를 각각 조합하여 형성된 2개의 영역을 각각 제1, 제2의 추출 영역으로서 이용된 경우에 상당한다. 이 때문에, 제1, 제2의 추출 영역의 양쪽 모두의 형상은, 종횡 2 블록으로 이루어지는 2개의 정방형을 1개의 정점을 공유하도록 45도 혹은 135도의 대각 선상에 배치한 형상이 된다. 또, 영역간의 상대적인 위치를 보면, 제2의 영역을 구성하는 2개의 정방형이, 제1의 영역의 좌상의 정방형의 바로 왼쪽과 아래에 인접하는 위치에 제2의 영역이 존재한다.In the case of FIG. 29B, as shown in FIG. 31B, two regions formed by combining the upper left and lower right, the upper right and the lower left, respectively, among four squares formed by vertically and horizontally equilateral squares consisting of eight vertical and horizontal blocks. Corresponds to the case where is used as the first and second extraction regions, respectively. For this reason, the shape of both the 1st, 2nd extraction area | region becomes a shape which arrange | positioned two squares which consist of two vertical and horizontal 2 blocks on the diagonal of 45 degree | time or 135 degree so that one vertex may share. In addition, in view of the relative position between the regions, the second region exists at the position immediately adjacent to the left side and the bottom of the square on the upper left side of the first region, which constitutes the second region.

[0166] 도 29c의 경우에는, 도 31c에 일례를 나타낸 바와 같이, 제1, 제2의 추출 영역의 양쪽 모두의 형상은, 종횡 10 블록으로 이루어지는 정방형이다. 또, 제1, 제2의 추출 영역간의 상대적인 위치를 보면, 종횡 모두 10 블록의 정수배 만큼 멀어진 위치에 존재한다.In the case of FIG. 29C, as shown in FIG. 31C, the shapes of both the first and second extraction regions are squares consisting of 10 vertical and horizontal blocks. Moreover, when looking at the relative position between the 1st, 2nd extraction area | regions, it exists in the position which is a distance of 10 blocks in both vertical and horizontal directions.

[0167] 도 29d의 경우에는, 도 31d에 일례를 나타내는 바와 같이, 제1, 제2의 추출 영역의 양쪽 모두의 형상은, 종횡 6 블록으로 이루어지는 정방형이다. 또 제1, 제2의 추출 영역간의 상대적인 위치를 보면, 종횡 모두 6 블록의 정수배 만큼 멀어진 위치에 존재한다.In the case of FIG. 29D, as shown in FIG. 31D, the shapes of both the first and second extraction regions are squares composed of six vertical and horizontal blocks. In addition, looking at the relative position between the first and second extraction regions, the vertical and horizontal regions exist at positions far apart by an integer multiple of 6 blocks.

[0168] 도 29e의 경우에는, 도 31e에 일례를 나타내는 바와 같이, 정방형 영역을 중심부 분의 정방형과 그 외측의 2개로 나누어 형성되는 2개의 영역을 제1, 제2의 추출 영역으로서 이용한 경우에 상당한다. 이 때문에, 제 2 추출 영역의 형상은, 중심 부분의 정방형이고, 제1의 추출 영역의 형상은, 전체의 정방형으로부터 제2의 추출 영역을 도려낸 형상이다. 또, 영역간의 상대적인 위치 관계를 보면, 제1의 추출 영역의 중앙의 구멍의 위치에 제2의 추출 영역이 존재한다.In the case of FIG. 29E, as shown in FIG. 31E, in the case where two regions formed by dividing a square region into a square of a central portion and two outside thereof are used as the first and second extraction regions. It is considerable. For this reason, the shape of a 2nd extraction area | region is a square of a center part, and the shape of a 1st extraction area | region is a shape which cut out the 2nd extraction area | region from the whole square. Moreover, looking at the relative positional relationship between the regions, the second extraction region exists at the position of the hole in the center of the first extraction region.

[0169] 도 29f의 경우에는, 도 31f에 일례를 나타내는 바와 같이, 제1의 추출 영역의 형상은 세로 6 블록, 가로 10 블록에 의해 정의된 직사각형, 제2의 추출 영역은 세로 10 블록, 가로 6 블록에 의해 정의된 직사각형이다. 또, 제1, 제2의 추출 영역간의 상대적인 위치 관계를 보면, 중심 위치가 일치하도록 배치되어 있다.In the case of FIG. 29F, as shown in FIG. 31F, the shape of the first extraction region is 6 blocks long, a rectangle defined by 10 blocks horizontally, and the second extraction region is 10 blocks vertically, horizontally. It is a rectangle defined by 6 blocks. Moreover, looking at the relative positional relationship between the 1st, 2nd extraction area | region, it arrange | positions so that a center position may correspond.

[0170] 도 29g의 경우에는, 도 31g에 일례를 나타낸 바와 같이, 세로 4 블록, 가로 12 블록으로 이루어지는 직사각형, 혹은 세로 12 블록, 가로 4 블록으로 이루어지는 직사각형을, 세로 변을 3 등분해 형성되는 중앙의 정방형과 그 이외의 2 영역이 제1, 제2의 추출 영역으로서 이용된 경우에 상당한다. 이 때문에, 제1의 추출 영역의 형상은 종횡 4 블록으로 이루어지는 정방형을 2개, 세로나 가로에 4 블록 떨어지게 배치한 형상이고, 제2의 추출 영역의 형상은 종횡 4 블록으로 이루어지는 정방형이다. 또, 영역의 상대적인 위치를 보면, 제1의 추출 영역의 사이에 제2의 추출 영역이 존재한다.In the case of FIG. 29G, as shown in FIG. 31G, three vertical sides are equally formed by forming a rectangle consisting of four vertical blocks and 12 horizontal blocks or a rectangle consisting of 12 vertical blocks and 4 horizontal blocks. This corresponds to a case where the central square and two other regions are used as the first and second extraction regions. For this reason, the shape of a 1st extraction area | region is a shape which arrange | positioned two squares which consist of 4 vertical and horizontal blocks, and 4 blocks apart vertically and horizontally, and the shape of a 2nd extraction area | region is a square consisting of 4 vertical and horizontal blocks. In addition, in view of the relative positions of the regions, a second extraction region exists between the first extraction regions.

[0171] 이하에서, 도 29a, 도 29b, 도 29c, 도 29d, 도 29e, 도 29f, 도 29g의 영역 타입을, 각각 영역 타입 a, 영역 타입 b, 영역 타입 c, 영역 타입 d, 영역 타입 e, 영역 타입 f, 영역 타입 g라고 부르기로 한다.Hereinafter, the region types of FIGS. 29A, 29B, 29C, 29D, 29E, 29F, and 29G are referred to as region type a, region type b, region type c, region type d, and region type, respectively. Let e be called area type f and area type g.

[0172] 제8의 실시형태에서는, 도 29에서 나타낸 각 영역에 있어서의 영역 특징량으로서 휘도치의 평균을 산출하고, 각 차원의 특징량을 산출한다. 물론, 휘도치의 평균치 대신에 미디언치이나 최대치 등, 전술한 여러 가지 추출 방법에 의해 추출한 값을 영역 특징량으로서 획득하는 것이 가능하다.In the eighth embodiment, the average of the luminance values is calculated as the area feature amounts in each area shown in FIG. 29, and the feature amounts of each dimension are calculated. Of course, instead of the average value of the luminance values, it is possible to obtain values extracted by the above-described various extraction methods such as median values and maximum values as the area feature amounts.

[0173] 각 차원의 특징량의 양자화에서는, 상기 서술한 영역의 타입별로 임계값을 정해 양자화를 실시한다. 예를 들어, 식 2에 따라 특징량을 3개의 값으로 양자화하는 경우에는, 영역의 타입별로, 0, 1,-1의 발생 비율이 균등하게 되도록 양자화의 임계값 th를 결정하고, 양자화를 실시한다. 구체적으로는, 단락 0085에서 기술한 방법을 P=33.333%이고, N이 영역 타입별의 차원 수를 나타내는, 영역 타입별로 적용하여, 임계값 th를 획득한다. 예를 들어, 영역 타입 a의 경우에는 N=113이 되기 때문에, th=D(floor(113×33.333/100))=D(37) 에 의해 임계값을 산출한다. 여기서, D(i) (i=0, 1,…, N-1) 는, 영역 타입 a에 해당 하는 제1 차원으로부터 제113 차원의 차분치의 절대치를 오름 순으로 소트한 세트임에 유의한다. 이 경우에는 임계값에 대응하는 인덱스가 37이 된다. 동일하게, 도 30에 나타낸 바처럼, 다른 영역 타입에 대해서도, 임계값에 대응하는 인덱스를 획득할 수가 있다. 이와 같이 영역 타입별로 임계값을 획득하는 것에 의해, 전체로 임계값을 결정하는 경우에 비해 각 차원에서의 0, 1,-1의 발생 확률을 균일화할 수 있게 되어, 식별 능력이 향상된다. 물론, 전술한 다른 여러 가지 양자화 방법에 의해 양자화를 수행하는 것이 가능하다.In quantization of the feature quantities in each dimension, quantization is performed by setting a threshold value for each type of region described above. For example, in the case of quantizing the feature amount to three values according to equation 2, the threshold value th of the quantization is determined so that the occurrence ratio of 0, 1,-1 is equalized for each type of region, and quantization is performed. do. Specifically, the method described in paragraph 0085 is applied for each region type, where P = 33.333% and N represents the number of dimensions for each region type, thereby obtaining a threshold value th. For example, in the case of the area type a, since N = 113, the threshold value is calculated by th = D (floor (113 × 33.333 / 100)) = D (37). Note that D (i) (i = 0, 1, ..., N-1) is a set sorted in ascending order of the absolute value of the difference value in the 113th dimension from the first dimension corresponding to the area type a. In this case, the index corresponding to the threshold becomes 37. Similarly, as shown in Fig. 30, the index corresponding to the threshold value can be obtained also for other area types. By obtaining the threshold value for each region type in this manner, the probability of occurrence of 0, 1, -1 in each dimension can be made uniform as compared with the case where the threshold value is determined as a whole, and the identification capability is improved. Of course, it is possible to perform quantization by the various other quantization methods described above.

[0174] 또한, 제8의 실시형태의 경우에는, 도 28에 나타낸 블록마다 대표치 (예를 들어, 블록내의 화소의 휘도치의 평균치) 를 먼저 산출하고, 다음으로 영역 특징량을 추출하는 것도 가능하다. 이로써, 영역내의 전 화소로부터 직접 영역 특징량을 추출하는 경우보다 고속으로 추출할 수 있게 된다. 또, 각 영역 타입의 추출 영역은, 전체로서 대칭성을 갖는다. 이 때문에, 화상의 오른쪽과 왼쪽을 반전시키거나 상하를 반전시키는 경우에서도, 차원의 대응 관계와 부호를 적절히 변경함으로써, 좌우 또는 상하 반전한 화상으로부터 추출된 특징량으로부터 원본 화상의 특징량을 복원할 수 있다. 이 때문에, 좌우 혹은 상하를 반전시킨 화상에 대해서 조합이 수행될 수도 있다.In the case of the eighth embodiment, it is also possible to first calculate the representative value (for example, the average value of the luminance values of the pixels in the block) for each block shown in FIG. 28, and then extract the region feature amount. Do. This makes it possible to extract at higher speed than in the case of extracting the region feature amount directly from all the pixels in the region. Moreover, the extraction region of each region type has symmetry as a whole. For this reason, even when the right and left sides of the image are inverted or the top and bottom are reversed, the characteristic amount of the original image can be restored from the feature amounts extracted from the left and right or upside down images by appropriately changing the correspondence and the sign of the dimension. Can be. For this reason, the combination may be performed on the image in which the left and the right or the top and bottom are reversed.

[0175] [조합 수단의 실시형태][Embodiment of Combination Means]

다음으로, 본 발명에서 출력된 양자화 인덱스 벡터들 사이의 조합을 수행하는 조합 수단에 대해 블록도를 이용해 설명한다.Next, a combination means for performing a combination between the quantization index vectors output in the present invention will be described using a block diagram.

[0176] 도 21을 참조하면, 본 발명에서 출력된 양자화 인덱스 벡터들 사이의 조합을 수행하는 조합 수단의 블록도가 나타나 있고, 조합 수단 (100) 은 차원 결정 수단 (101), 양자화치 취득 수단 (102 및 103), 그리고 척도 산출 수단 (104) 을 포함한다.Referring to FIG. 21, there is shown a block diagram of a combining means for performing a combination between the quantization index vectors output in the present invention, wherein the combining means 100 is a dimension determining means 101, a quantization value obtaining means. 102 and 103, and scale calculation means 104.

[0177] 차원 결정 수단 (101) 은 양자화치 취득 수단 (102 및 103) 에 접속되어 결정된 차원 정보를 출력한다. 양자화치 취득 수단 (102) 는, 제1의 양자화 인덱스 벡터로부터, 차원 결정 수단 (101) 으로부터 입력되는 차원의 양자화 인덱스치를 취득해, 제1의 양자화 인덱스치로서 척도 산출 수단 (104) 에 출력한다. 양자화치 취득 수단 103은, 제2의 양자화 인덱스 벡터로부터, 차원 결정 수단 (101) 으로부터 입력되는 차원의 양자화 인덱스치를 취득해, 제2의 양자화 인덱스치로서 척도 산출 수단 (104) 에 출력한다. 척도 산출 수단 (104) 는, 양자화치 취득 수단 (102 및 103) 으로부터 각각 출력되는 제1, 제2의 양자화 인덱스치로부터 동일성을 나타내는 척도를 산출하고, 그것을 출력한다.[0177] The dimension determining means 101 is connected to the quantized value obtaining means 102 and 103 and outputs the determined dimension information. The quantization value acquisition means 102 obtains the quantization index value of the dimension input from the dimension determination means 101 from the first quantization index vector, and outputs it to the scale calculation means 104 as the first quantization index value. . The quantization value acquisition means 103 obtains the quantization index value of the dimension input from the dimension determination means 101 from the second quantization index vector, and outputs it to the scale calculation means 104 as the second quantization index value. The scale calculation means 104 calculates a scale indicating identity from the first and second quantization index values output from the quantization value acquisition means 102 and 103, respectively, and outputs it.

[0178] 다음으로, 도 21의 조합 수단 (100) 의 동작에 대해 설명한다.[0178] Next, the operation of the combining means 100 of FIG. 21 will be described.

[0179] 먼저, 조합 수단 (100) 에는, 제1의 화상으로부터 추출되는 양자화 인덱스 벡터인 제1의 양자화 인덱스 벡터와 제2의 화상으로부터 추출되는 양자화 인덱스 벡터인 제2의 양자화 인덱스 벡터가 입력된다. 입력된 제1, 제2의 양자화 인덱스 벡터는, 각각 양자화치 취득 수단 (102, 103) 에 입력된다.[0179] First, the combining means 100 receives a first quantization index vector, which is a quantization index vector extracted from a first image, and a second quantization index vector, which is a quantization index vector extracted from a second image. . The input first and second quantization index vectors are input to the quantization value acquisition means 102 and 103, respectively.

[0180] 양자화치 취득 수단 (102 및 103) 에는, 차원 결정 수단 (101) 으로부터 출력된 차원 정보도 입력된다. 차원 결정 수단 (101) 에서는, N차원 벡터인 양자화 인덱스 벡터의 각 차원을 지정하는 정보를 순차 출력한다. 출력하는 순서는 반드시 1으로부터 N까지 1개씩 증가될 필요는 없고, 1으로부터 N까지의 차원이 과부족 없게 지정되는 순서이면, 어떠한 순서로서도 된다.[0180] Dimensional information output from the dimension determination means 101 is also input to the quantization value acquisition means 102 and 103. The dimension determining means 101 sequentially outputs information specifying each dimension of the quantization index vector, which is an N-dimensional vector. The order of output does not necessarily need to be increased from 1 to N one by one, and may be any order as long as the order from 1 to N is specified without being insufficient.

[0181] 양자화치 취득 수단 (102 및 103) 에서는, 입력된 양자화 인덱스 벡터로부터, 차원 결정 수단 (101) 으로부터 출력된 차원 정보에서 지정되는 차원의 양자화 인덱스치를 취득하고, 취득한 양자화 인덱스치를 척도 산출 수단 (104) 에 출력한다.In the quantization value acquisition means 102 and 103, the quantization index value of the dimension specified in the dimensional information output from the dimension determination means 101 is obtained from the input quantization index vector, and the acquired quantization index value is measured. Output to 104.

[0182] 척도 산출 수단 (104) 에서는, 양자화치 취득 수단 (102) 로부터 출력되는 제1의 양자화 인덱스치와 제2의 양자화 인덱스치를 비교한다. 이 비교를 각 차원에 대해 실시해, 제1, 제2의 양자화 인덱스 벡터간의 유사 척도 (혹은 거리 척도) 를 동일성 척도로서 산출한다.[0182] The scale calculating means 104 compares the first quantization index value and the second quantization index value output from the quantization value obtaining means 102. This comparison is performed for each dimension to calculate a similar measure (or distance measure) between the first and second quantization index vectors as the identity measure.

[0183] 얻어진 동일성 척도는 미리 정한 임계값과 비교해, 동일성의 판정을 실시한다. 동일성 척도가 유사도 값을 나타내는 척도인 경우에는, 척도치가 임계값 이상의 경우에 동일한 것으로 판정한다. 한편, 동일성 척도가 거리를 나타내는 척도인 경우에는, 척도치가 임계값 이하의 경우에 동일한 것으로 판정한다.The obtained identity measure is compared with a predetermined threshold value to determine the identity. If the identity measure is a measure representing the similarity value, it is determined that the measure value is the same when the measure value is equal to or greater than the threshold value. On the other hand, when the identity measure is a measure indicating distance, it is determined that the measure value is the same when the measure value is equal to or less than the threshold value.

[0184] 다음으로, 플로우차트를 이용해 도 21의 조합 수단 (100) 의 동작을 설명한다. 먼저, 동일성 척도로서 유사도 값을 사용하는 경우의 동작에 대해 설명한다.Next, the operation of the combining means 100 of FIG. 21 will be described using a flowchart. First, the operation in the case of using the similarity value as the identity measure will be described.

[0185] 도 22는, 조합 수단 (100) 의 동작을 나타내는 플로우차트이다. 도 22의 플로우차트에서는, 양자화 인덱스 벡터의 차원 (의 번호) 을 「n」 으로 나타내고, 1으로부터 N까지의 합계 N차원 존재한다. 또, 유사도 값을 산출하는 변수를 B로 나타낸다.FIG. 22 is a flowchart showing the operation of the combining means 100. As shown in FIG. In the flowchart of FIG. 22, the dimension (number) of a quantization index vector is represented by "n", and there exists a total N dimension from 1 to N. FIG. Moreover, the variable which calculates a similarity value is shown by B. FIG.

[0186] 먼저, 차원 결정 수단 (101) 은, 조합되는 양자화 인덱스 벡터의 최초의 차원으로서 차원 1을 결정해 (n=1), 양자화치 취득 수단 (102 및 103) 에 공급함과 함께, 척도 산출 수단 (104) 에 있어서 변수 B를 0로 설정한다 (단계 S100).[0186] First, the dimension determination means 101 determines dimension 1 as the first dimension of the combined quantization index vector (n = 1), supplies it to the quantization value acquisition means 102 and 103, and calculates the scale. In the means 104, the variable B is set to 0 (step S100).

[0187] 다음으로, 양자화치 취득 수단 (102 및 103) 에 있어서, 제1의 양자화 인덱스 벡터, 제2의 양자화 인덱스 벡터로부터, 차원 n의 제1의 양자화 인덱스치와 제2의 양자화 인덱스치를 취득해, 척도 산출 수단 (104) 에 공급한다 (단계 S102).[0187] Next, in the quantization value obtaining means 102 and 103, the first quantization index value and the second quantization index value of the dimension n are obtained from the first quantization index vector and the second quantization index vector. The solution is supplied to the scale calculation means 104 (step S102).

[0188] 다음으로, 척도 산출 수단 (104) 은 제1의 양자화 인덱스치와 제2의 양자화 인덱스치로부터, 각각의 양자화 인덱스에 대응하는 특징량의 사이의 유사도 값 ΔB를 산출한다 (단계 S104). 예를 들어, 양자화 인덱스가 일치하는 경우에는 ΔB=1으로 하고, 그 이외의 경우에는 ΔB=0으로 한다. 혹은, 양자화 인덱스로부터 양자화 전의 특징량의 대표치를 산출하고, 대표치간의 차분이 작을 수록 커지는 값을 ΔB로서 사용해도 된다. 이때, 특징량의 대표치를 산출해 차분을 획득하는 대신에, 양자화 인덱스치의 편성에 의해 ΔB의 값이 취득되는 테이블을 유지하고, 양자화 인덱스치의 편성으로부터 이 테이블을 이용해 ΔB의 값을 직접 획득하는 것이 가능하다.[0188] Next, the scale calculation means 104 calculates a similarity value ΔB between the first and second quantization index values and the feature amount corresponding to each quantization index (step S104). . For example, when the quantization indices coincide, ΔB = 1, otherwise ΔB = 0. Alternatively, the representative value of the feature amount before quantization may be calculated from the quantization index, and a value that increases as the difference between the representative values becomes smaller may be used as ΔB. In this case, instead of calculating the representative value of the feature quantities and obtaining the difference, it is necessary to maintain a table in which the value of ΔB is obtained by the combination of the quantization index values, and to directly obtain the value of ΔB using this table from the combination of the quantization index values. It is possible.

[0189] 다음으로, ΔB의 값은 변수 B에 가산된다 (단계 S106). 이때, ΔB의 값이 0인 경우에는, 변수 B에 0을 가산하는 대신에, 가산하지 않게 제어하는 것이 가능하다.[0189] Next, the value of ΔB is added to the variable B (step S106). At this time, when the value of ΔB is 0, instead of adding 0 to the variable B, it is possible to control not to add.

[0190] 다음으로, 차원의 번호 n 가 차원수 N에 도달했는지 여부를 조사하고 (단계 S108), 도달하지 않는 경우에 처리는 단계 S112로 이행하는 한편, 도달한 경우에는, 그 때의 변수 B의 값을 동일성 척도 (유사도 값을 나타내는 척도) 로서 출력 하고 (단계 S110), 처리를 종료한다.[0190] Next, it is checked whether the number n of the dimension has reached the dimension number N (step S108), and if it does not reach, the process proceeds to step S112, and when it reaches, the variable B at that time. Is output as an identity measure (a measure representing the similarity value) (step S110), and the processing ends.

[0191] 단계 112에서는, 차원 결정 수단 (101) 이, 취득하는 양자화 인덱스의 차원으로서 n=n+1로부터 다음의 차원을 결정해, 양자화치 취득 수단 (102 및 103) 에 공급한다. 그리고, 처리는 재차 단계 S102로 이행한다.In step 112, the dimension determining means 101 determines the next dimension from n = n + 1 as the dimension of the quantization index to be obtained and supplies it to the quantization value obtaining means 102 and 103. The process then proceeds to step S102 again.

[0192] 또한, 여기서는, 차원 1으로부터 N까지 차례로 추출 처리를 실시하고 있지만, 이것에 한정되지 않고 임의의 차례가 취해질 수도 있음에 유의한다.In addition, although extraction processing is performed in order from dimension 1 to N here, it is noted that an arbitrary order may be taken without being limited to this.

[0193] 다음으로, 동일성 척도로서 거리를 사용하는 경우의 동작에 대해 설명한다.[0193] Next, operation in the case of using distance as the identity measure will be described.

[0194] 도 23은, 조합 수단 (100) 의 동작을 나타내는 다른 플로우차트이다. 도 23의 플로우차트에서도, 양자화 인덱스 벡터의 차원 (의 번호) 을 n로 나타내고, 1으로부터 N까지의 합계 N차원이 존재한다. 또, 거리 척도를 산출하는 변수를 C로 나타낸다.23 is another flowchart showing the operation of the combining means 100. As shown in FIG. Also in the flowchart of FIG. 23, the dimension (number) of a quantization index vector is represented by n, and there exists a total N dimension from 1 to N. FIG. In addition, the variable which calculates a distance measure is shown by C. FIG.

[0195] 기본적인 플로우는, 도 22의 경우와 같지만, 도 23은 단계 S100, S104, S106, S110가 각각 단계 S200, S204, S206, S210로 교체되는 점이 상이하다.The basic flow is the same as in the case of FIG. 22, but FIG. 23 differs in that the steps S100, S104, S106, and S110 are replaced by the steps S200, S204, S206, and S210, respectively.

[0196] 먼저, 단계 S200에서는, 차원 결정 수단 (101) 이, 조합되는 양자화 인덱스 벡터의 최초의 차원으로서 차원 1을 결정해 (n=1), 양자화치 취득 수단 (102 및 103) 에 공급함과 함께, 척도 산출 수단 104에 있어서 변수 C를 0으로 설정한다.First, in step S200, the dimension determination means 101 determines dimension 1 as the first dimension of the combined quantization index vector (n = 1) and supplies it to the quantization value acquisition means 102 and 103; In addition, in the scale calculation means 104, the variable C is set to zero.

[0197] 단계 S204에서는, 척도 산출 수단 (104) 은, 제1의 양자화 인덱스치와 제2의 양자화 인덱스치로부터, 각각의 양자화 인덱스에 대응하는 특징량 사이의 거리 ΔC를 산출한다. 예를 들어, 양자화 인덱스가 일치하는 경우에는 ΔC=0으로 하고, 그 이외의 경우에는 ΔC=1으로 한다. 또한, 양자화 인덱스로부터 양자화 전의 특징량의 대표치를 산출하고, 대표치간의 차분이 작을수록 작아지는 값을 ΔC로서 사용해도 된다. 이때, 특징량의 대표치를 산출해 차분을 획득하는 대신에, 양자화 인덱스치의 편성으로부터 ΔC의 값이 획득되는 테이블을 유지하고, 양자화 인덱스치의 편성으로부터 이 테이블을 이용해 ΔC의 값을 직접 획득하는 것도 가능하다.In step S204, the scale calculation means 104 calculates the distance ΔC between the feature amounts corresponding to the respective quantization indexes from the first quantization index value and the second quantization index value. For example, when the quantization indexes coincide, ΔC = 0, otherwise ΔC = 1. The representative value of the feature amount before quantization may be calculated from the quantization index, and a smaller value as the difference between the representative values becomes smaller may be used as ΔC. In this case, instead of calculating the representative value of the feature quantities to obtain the difference, it is also possible to maintain a table from which the value of ΔC is obtained from the combination of the quantization index values, and to directly obtain the value of ΔC from this combination of the quantization index values. Do.

[0198] 단계 S206에서는, ΔC의 값은 변수 C에 가산된다. 이때, ΔC의 값이 0의 경우에는, 변수 C에 0을 가산하는 대신에, 가산하지 않게 제어하는 것이 가능하다.In step S206, the value of ΔC is added to the variable C. At this time, when the value of ΔC is 0, instead of adding 0 to the variable C, it is possible to control not to add.

[0199] 단계 S210에서는, 그때의 변수 C의 값을 동일성 척도 (거리를 나타내는 척도) 로서 출력해, 처리를 종료한다.In step S210, the value of the variable C at that time is output as an identity measure (measurement indicating distance), and the process ends.

[0200] 그 이외의 단계에 대해서는, 도 22의 경우와 같다. 단, 단계 S108에서 차원의 번호 n가 차원수 N에 도달한 경우에는, 처리는 단계 S210로 이행한다.Other steps are the same as in the case of FIG. However, if the number n of the dimension reaches the dimension number N in step S108, the process proceeds to step S210.

[0201] 또한, 여기서는, 차원 1으로부터 N까지 차례로 추출 처리를 실시하고 있지만, 이것에 한정되지 않고 임의의 차례가 취해질 수도 있음에 유의한다.In addition, although extraction processing is performed in order from dimension 1 to N here, it is noted that an arbitrary order may be taken without being limited to this.

[0202] 다음으로, 제1의 양자화 인덱스치와 제2의 양자화 인덱스치로, 「양쪽 모두의 양자화 인덱스가 0」인 차원을 제외해, 동일성 척도로서 유사도 값을 사용하는 경우의 동작에 대해 설명한다.[0202] Next, an operation in the case where the similarity value is used as the identity measure except for the dimension in which both quantization index values are 0 as the first quantization index value and the second quantization index value will be described. .

[0203] 도 24는, 조합 수단 (100) 의 동작을 나타내는 다른 플로우차트이다. 도 24의 플로우차트에서도, 양자화 인덱스 벡터의 차원 (의 번호) 을 「n」 으로 나타내고, 1로부터 N까지의 합계 N 차원이 존재한다. 또, 유사도 값을 산출하는 변수를 B로 나타내고, 「양쪽 모두의 양자화 인덱스가 0」이 아닌 차원을 카운트하기 위한 변수를 A로 나타낸다.24 is another flowchart illustrating the operation of the combining means 100. Also in the flowchart of FIG. 24, the dimension (number) of a quantization index vector is represented by "n", and there exists a total N dimension from 1 to N. FIG. Moreover, the variable which calculates similarity value is shown by B, and the variable for counting the dimension whose "quantization index of both is not 0" is represented by A.

[0204] 먼저, 차원 결정 수단 (101) 은, 조합되는 양자화 인덱스 벡터의 최초의 차원으로서 차원 1을 결정하고 (n=1), 양자화치 취득 수단 (102 및 103) 에 공급함과 함께, 척도 산출 수단 (104) 에 있어서 변수 A 및 B를 0에 설정하고 (단계 S300), 그 다음 단계 S102로 이행한다.[0204] First, the dimension determination means 101 determines dimension 1 as the first dimension of the combined quantization index vector (n = 1), supplies it to the quantization value acquisition means 102 and 103, and calculates the scale. In the means 104, the variables A and B are set to 0 (step S300), and the process proceeds to the next step S102.

[0205] 단계 S102는 도 22의 경우와 같고, 단계 S102가 종료한 후, 처리는 단계 S314로 이행한다.Step S102 is the same as the case of FIG. 22, and after the step S102 ends, the process proceeds to step S314.

[0206] 단계 S314에서는, 척도 산출 수단 (104) 는, 제1의 양자화 인덱스치와 제2의 양자화 인덱스치 양쪽 모두가 0인지 여부를 조사한다. 양쪽 모두의 값이 0인 경우에는, 처리는 단계 S108로 이행하고, 어느 한쪽이 0이 아닌 경우에는, 변수 A의 값을 1만큼 증분시키고 (단계 S316), 처리는 단계 S104로 이행한다.In step S314, the scale calculation means 104 checks whether both the first quantization index value and the second quantization index value are zero. If both values are zero, the process proceeds to step S108. If either value is not zero, the value of variable A is incremented by one (step S316), and the process proceeds to step S104.

[0207] 단계 S104, S106, S108, S112의 처리는 도 22의 경우와 같다. 단계 S108에서 차원의 번호 n가 차원수 N에 도달한 경우에는, 처리는 단계 S310로 이행한다.[0207] The processing of steps S104, S106, S108, and S112 is the same as that of FIG. If the number n of dimensions reaches the dimension number N in step S108, the process proceeds to step S310.

[0208] 단계 S310에서는, 척도 산출 수단 (104) 는, B/A의 값을 산출하고, 그것을 동일성 척도로서 출력하고, 처리를 종료한다. 단, A=0의 경우에는, 척도 산출 수단 (104) 는 미리 결정된 값 (예를 들어 0.5) 을 출력한다.In step S310, the scale calculation means 104 calculates a value of B / A, outputs it as an identity measure, and ends the processing. However, in the case of A = 0, the scale calculation means 104 outputs a predetermined value (for example, 0.5).

[0209] 또한, 여기서는, 차원 1으로부터 N까지 차례로 추출 처리를 실시하고 있지만, 이것에 한정되지 않고 임의의 차례가 취해질 수도 있음에 유의한다. In addition, although extraction processing is performed in order from dimension 1 to N here, it is noted that an arbitrary order may be taken without being limited to this.

[0210] [조합 수단의 다른 실시형태][Other Embodiments of Combination Means]

다음으로, 본 발명에서 출력되는 양자화 인덱스 벡터들 사이의 조합을 수행하는 조합 수단의 다른 실시형태에 대해 블록도를 이용해 설명한다.Next, another embodiment of the combining means for performing the combination between the quantization index vectors output in the present invention will be described using a block diagram.

[0211] 도 25를 참조하면, 본 발명에서 출력되는 양자화 인덱스 벡터들 사이의 조합을 수행하는 조합 수단 (200) 의 블록도가 나타나고 있고, 조합 수단 (200) 은 부호 결정 수단 (201), 부호 값 취득 수단 (202 및 203), 척도 산출 수단 (204) 을 포함한다.Referring to FIG. 25, there is shown a block diagram of a combining means 200 for performing a combination between quantization index vectors output in the present invention, the combining means 200 being a code determining means 201, a sign. Value obtaining means (202 and 203) and scale calculating means (204).

[0212] 부호 결정 수단 (201) 은 부호 값 취득 수단 (202 및 203) 에 접속되고 결정된 부호 지정 정보를 출력한다. 부호 값 취득 수단 (202) 는, 제1의 부호화 양자화 인덱스 벡터로부터, 부호 결정 수단 (201) 으로부터 입력되는 부호 지정 정보에 의해 정해지는 부호의 값을 취득하고, 제1의 부호 값으로서 척도 산출 수단 (204) 에 출력한다. 부호 값 취득 수단 (203)은, 제2의 부호화 양자화 인덱스 벡터로부터, 부호 결정 수단 (201) 으로부터 입력되는 부호 지정 정보에 의해 정해지는 부호의 값을 취득하고, 제2의 부호 값으로서 척도 산출 수단 (204) 에 출력한다. 척도 산출 수단 (204) 는, 부호 값 취득 수단 (202 및 203) 으로부터 각각 출력되는 제1, 제2의 부호 값으로부터 동일성을 나타내는 척도를 산출하고, 그것을 출력한다.[0212] The code determining means 201 is connected to the code value obtaining means 202 and 203 and outputs the determined code designation information. The code value obtaining unit 202 obtains the value of the code determined by the code designation information input from the code determining unit 201 from the first coded quantization index vector, and measures the scale as the first code value. Output to 204. The code value obtaining unit 203 obtains the value of the code determined by the code designation information input from the code determining unit 201 from the second coded quantization index vector, and measures the scale as the second code value. Output to 204. The scale calculation means 204 calculates a scale indicating the identity from the first and second code values output from the code value acquisition means 202 and 203, respectively, and outputs it.

[0213] 다음으로, 도 25의 조합 수단 (200) 의 동작에 대해 설명한다.[0213] Next, the operation of the combining means 200 of FIG. 25 will be described.

[0214] 먼저, 조합 수단 (200) 에는, 제1의 화상으로부터 추출되는 양자화 인덱스 벡터를 부호화하여 생성된 벡터인 제1의 부호화 양자화 인덱스 벡터와 제2의 화상으로부터 추출되는 양자화 인덱스 벡터를 부호화하여 생성된 벡터인 제2의 부호화 양자화 인덱스 벡터가 입력된다. 여기서, 부호화 양자화 인덱스 벡터는, 양자화 인덱스 벡터의 양자화 인덱스치를 복수 차원에 대해 정리해 부호화하는 것에 의해 얻어지는 부호들로 이루어지는 부호 열이다. 단락 0142에서 설명한 바와 같이, 특징 벡터의 각 차원의 특징량을 3개 값으로 양자화하고, 5 차원에 대해 정리해 부호화하는 경우에는, 5 차원마다 1개의 부호가 생성된다. 따라서, 특징 벡터의 차원수가 N인 경우에는, N/5개의 부호가 생성된다. 이 경우, 부호화 양자화 인덱스 벡터는 N/5개의 부호로 이루어지는 부호 열이 된다.[0214] First, the combining means 200 encodes a first coded quantization index vector, which is a vector generated by encoding a quantization index vector extracted from a first image, and a quantization index vector extracted from a second image. A second coded quantization index vector, which is a generated vector, is input. Here, the coded quantization index vector is a code string consisting of codes obtained by collectively encoding the quantization index values of the quantization index vectors for a plurality of dimensions. As described in paragraph 0142, when the feature quantities of each dimension of the feature vector are quantized to three values and collectively encoded for five dimensions, one code is generated for every five dimensions. Therefore, when the number of dimensions of the feature vector is N, N / 5 codes are generated. In this case, the coded quantization index vector is a code string consisting of N / 5 codes.

[0215] 입력된 제1, 제2의 부호화 양자화 인덱스 벡터는, 각각 부호 값 취득 수단 (202 및 203) 에 입력된다.[0215] The input first and second coded quantization index vectors are input to the code value obtaining means 202 and 203, respectively.

[0216] 부호 값 취득 수단 (202 및 203) 에는, 부호 결정 수단 (201) 으로부터 출력되는 부호 지정 정보도 입력된다. 부호 결정 수단 (201) 에서는, 부호 열중의 각 부호를 지정하는 정보를 순차 출력한다. 부호 열중의 부호의 수를 M (상기 서술한 예에서는 M=N/5) 이라 하면, 출력하는 순서는 반드시 1으로부터 M까지 1개씩 증가해 갈 필요는 없고, 1으로부터 M까지의 값이 과부족 없게 지정되는 순서이면, 어떠한 순서도 가능하다.[0216] Sign designation information output from the sign determining means 201 is also input to the sign value obtaining means 202 and 203. The code determination means 201 sequentially outputs information specifying each code in the code string. If the number of codes in the code string is M (M = N / 5 in the example described above), the output order does not necessarily need to increase from 1 to M one by one, so that the values from 1 to M are not insufficient. As long as the order is specified, any order is possible.

[0217] 부호 값 취득 수단 (202 및 203) 에서는, 입력된 부호화 양자화 인덱스 벡터로부터, 부호 결정 수단 (201) 으로부터 출력된 부호 지정 정보에서 지정되는 부호의 값을 취득하고, 취득한 부호 값을 척도 산출 수단 (204) 에 출력한다.In the code value obtaining means (202 and 203), from the input coded quantization index vector, the value of the code specified in the code designation information output from the code determining means 201 is obtained, and the code value obtained is scaled. Output to the means 204.

[0218] 척도 산출 수단 (204) 에서는, 부호 취득 수단 (201 및 202) 으로부터 출력되는 제1의 부호 값과 제2의 부호 값을 비교한다. 이때, 양자화 인덱스치로 복호하지 않고서 부호 값을 직접 비교한다. 단락 0150으로부터 단락 0152로 설명한 바와 같이, 2개의 부호 값으로부터 그들의 부호의 사이의 동일성 척도를 획득할 수 있는 룩업테이블이 준비되어 있고, 이것을 이용해 부호 단위로 동일성 척도를 산출한다. 이 프로세스를 각 부호에 대해 실시하고, 제1, 제2의 부호 치간의 유사도 척도 (혹은 거리 척도) 를 동일성 척도로서 산출한다.In the scale calculation means 204, the first code value output from the code acquisition means 201 and 202 is compared with the second code value. At this time, the code values are directly compared without decoding to the quantization index value. As described in paragraph 0150 to paragraph 0152, a lookup table capable of obtaining an identity measure between their codes from two code values is prepared, and the identity measure is calculated in units of codes using this. This process is performed for each code, and the similarity measure (or distance measure) between the first and second code values is calculated as the identity measure.

[0219] 취측된 동일성 척도치는 미리 결정된 임계값과 비교해, 동일성의 판정을 실시한다. 동일성 척도가 유사도 값을 나타내는 척도인 경우에는, 척도치가 임계값 이상의 경우에 동일한 것으로 판정한다. 한편, 동일성 척도가 거리를 나타내는 척도인 경우에는, 척도치가 임계값 이하의 경우에 동일한 것으로 판정한다.[0219] The measured identity measure is compared with a predetermined threshold value to determine the identity. If the identity measure is a measure representing the similarity value, it is determined that the measure value is the same when the measure value is equal to or greater than the threshold value. On the other hand, when the identity measure is a measure indicating distance, it is determined that the measure value is the same when the measure value is equal to or less than the threshold value.

[0220] 다음으로, 플로우 차트를 이용해 도 25의 조합 수단 (200) 의 동작을 설명한다. 먼저, 동일성 척도로서 유사도 값을 사용하는 경우의 동작에 대해 설명한다.[0220] Next, the operation of the combining means 200 of FIG. 25 will be described using a flow chart. First, the operation in the case of using the similarity value as the identity measure will be described.

[0221] 도 26은, 조합 수단 (200) 의 동작을 나타내는 플로우 차트이다. 도 26의 플로우차트에서는, 부호화 양자화 인덱스 벡터의 부호의 번호를 「m」 으로 나타내고, 1으로부터 M까지의 합계 M개의 부호가 존재한다. 또, 유사도 값을 산출하는 변수를 B로 나타낸다.FIG. 26 is a flowchart showing the operation of the combining means 200. As shown in FIG. In the flowchart of FIG. 26, the code | symbol number of the coded quantization index vector is represented by "m", and there exist M codes from 1 to M in total. Moreover, the variable which calculates a similarity value is shown by B. FIG.

[0222] 먼저, 부호 결정 수단 (201) 은, 조합하는 부호화 양자화 인덱스 벡터의 최초의 부호로서 1번째의 부호를 취득하는 것을 결정해 (m=1), 부호 값 취득 수단 (202, 203)에 공급함과 함께, 척도 산출 수단 (204) 에서 변수 B를 0로 설정한다. (단계 S600).[0222] First, the code determination means 201 determines to acquire the first code as the first code of the coded quantization index vector to be combined (m = 1), and gives the code value acquisition means (202, 203). In addition to supplying, the variable B is set to zero by the scale calculation means 204. (Step S600).

[0223] 다음으로, 부호 값 취득 수단 (202 및 203) 에 있어서, 제1의 부호화 양자화 인덱스 벡터 및 제2의 부호화 양자화 인덱스 벡터로부터, m번째의 제1의 부호 값과 제2의 부호 값을 취득해, 척도 산출 수단 (204) 에 공급한다 (단계 S602).[0223] Next, in the code value obtaining means 202 and 203, the m-th first code value and the second code value are obtained from the first coded quantization index vector and the second coded quantization index vector. It acquires and supplies to the scale calculation means 204 (step S602).

[0224] 다음으로, 척도 산출 수단 (204) 은, 제1의 부호 값과 제2의 부호 값으로부터, 각각의 부호 값에 대응하는 복수 차원의 특징량간의 유사도 값 ΔB를, 단락 0150에서 설명한 룩업테이블을 참조함으로써 산출한다 (단계 S604).[0224] Next, the scale calculation means 204 looks up, from the first code value and the second code value, the similarity value ΔB between the feature quantities of the plurality of dimensions corresponding to the respective code values, as described in paragraph 0150. It calculates by referring to a table (step S604).

[0225] 다음으로, ΔB의 값은 변수 B에 가산된다 (단계 S106). 이때, ΔB의 값이 0인 경우에는, 변수 B에 0을 가산하는 대신에, 가산하지 않게 제어하는 것도 가능하다.[0225] Next, the value of ΔB is added to the variable B (step S106). At this time, when the value of ΔB is 0, instead of adding 0 to the variable B, it is also possible to control not to add.

[0226] 다음으로, 부호의 번호 m이 부호들의 수 M에 도달했는지 여부를 조사하고 (단계 S608), 도달하지 않는 경우에는 단계 S612로 이행하는 한편, 도달한 경우에는, 그 때의 변수 B의 값을 동일성 척도 (유사도 값을 나타내는 척도) 로서 출력해 (단계 S110), 처리를 종료한다.[0226] Next, it is checked whether the number m of the code has reached the number M of the codes (step S608). If not, the process proceeds to step S612. The value is output as an identity measure (a measure representing the similarity value) (step S110), and the process ends.

[0227] 단계 612에서는, 부호 결정 수단 (201) 이, 양자화 인덱스를 취득하기 위한 차원으로서 m=m+1으로부터 다음의 부호의 번호를 결정하고, 부호 지정 정보로서 부호 값 취득 수단 (202, 203) 에 공급한다. 그리고, 처리는 재차 단계 S602로 이행한다.In step 612, the code determination means 201 determines the number of the next code from m = m + 1 as a dimension for obtaining the quantization index, and gives the code value acquisition means 202,203 to the code designation information. Supply. The process then proceeds to Step S602 again.

[0228] 또한, 여기서는, 부호의 번호 1으로부터 M까지 차례로 추출 처리를 실시하고 있지만, 차례는 이것에 한정되지 않고 임의의 차례도 취해질 수 있음에 유의한다. 또, 여기서는 유사도 값을 산출하는 경우에 대해 말했지만, 마찬가지로, 거리 척도를 동일성 척도로서 산출할 수도 있다. 이 경우, 룩업테이블에는, 유사도 값 대신에 거리 척도를 유지해 두도록 맞추어진다.In addition, although extraction processing is performed in order from code | symbol number 1 to M here, it is noted that the order is not limited to this, and arbitrary order may also be taken. In addition, although the case where the similarity value is computed was demonstrated here, similarly, the distance scale can also be computed as an identity measure. In this case, the lookup table is fitted to maintain the distance scale instead of the similarity value.

[0229] 도 27은, 조합 수단 (200) 의 동작을 나타내는 다른 플로우차트이다. 도 27의 플로우차트에서도, 부호화 양자화 인덱스 벡터의 부호의 번호를 m로 나타내고, 번호는 1으로부터 M까지의 합계 M개의 부호가 존재한다. 또, 유사도 값을 산출하는 변수를 B로 나타내고, 「양쪽 모두의 양자화 인덱스가 0」이 아닌 차원을 카운트하기 위한 변수를 A로 나타낸다.FIG. 27 is another flowchart showing the operation of the combining means 200. As shown in FIG. Also in the flowchart of FIG. 27, the code | symbol number of the coded quantization index vector is represented by m, and there exist M code | symbols from 1 to M in total. Moreover, the variable which calculates similarity value is shown by B, and the variable for counting the dimension whose "quantization index of both is not 0" is represented by A.

[0230] 먼저, 부호 결정 수단 (201) 은, 조합하는 부호화 양자화 인덱스 벡터의 최초의 부호로서 1번째의 부호를 취득하는 것을 결정하고 (m=1), 부호 값 취득 수단 (202 및 203) 에 공급함과 함께, 척도 산출 수단 (204) 에서 변수 A, B를 0으로 설정하고 (단계 S700), 단계 S602로 이행한다.First, the code determination means 201 determines to acquire the first code as the first code of the coded quantization index vector to be combined (m = 1), and to the code value acquisition means 202 and 203. While supplying, the variables A and B are set to 0 in the scale calculating means 204 (step S700), and the process proceeds to step S602.

[0231] 단계 S602는 도 26의 경우와 같고, 종료후, 단계 S714로 이행한다.Step S602 is the same as in the case of FIG. 26, and the process proceeds to step S714 after the end.

[0232] 단계 S714에서는, 척도 산출 수단 (204) 에 있어서, 제1의 부호 값과 제2의 부호 값으로부터, 부호 값에 대응하는 특징 벡터들의 차원내에, 「양쪽 모두의 값이 0」이 아닌 차원이 몇 개 있는지를 조사한다. 이 차원들의 수를 ΔA로 설정한다. 이것은 또한, 단락 0152에서 설명한 것처럼, 부호 값과 ΔA와의 관계를 기술한 룩업테이블을 사용하는 것에 의해 산출할 수 있다.In step S714, in the scale calculation means 204, in the dimension of the feature vectors corresponding to the sign value from the first sign value and the second sign value, the value of both is not zero. Examine how many dimensions there are. Set the number of these dimensions to ΔA. This can also be calculated by using a lookup table describing the relationship between the sign value and ΔA, as described in paragraph 0152.

[0233] 다음으로, ΔA의 값은 변수 A에 가산된다 (단계 S716). 이때, ΔA의 값이 0인 경우에는, 변수 A에 0을 가산하는 대신에, 가산하지 않게 제어하는 것이 가능하다.[0233] Next, the value of ΔA is added to the variable A (step S716). At this time, when the value of ΔA is 0, instead of adding 0 to the variable A, it is possible to control not to add.

[0234] 단계 S604, S106, S608, S612의 처리는 도 26의 경우와 같다. 단계 S608에서 부호 번호 m이 부호들의 수 M에 도달한 경우에는, 단계 S310로 이행한다.[0234] The processing of steps S604, S106, S608, and S612 is the same as the case of FIG. If the code number m reaches the number M of codes in step S608, the flow advances to step S310.

[0235] 단계 S310에서는, 척도 산출 수단 (204) 에 있어서, B/A의 값을 산출하고, 그것을 동일성 척도로서 출력해, 처리를 종료한다. 단, A=0의 경우에는, 척도 산출 수단 (204) 은 미리 결정된 값 (예를 들어 0.5) 을 출력한다.In step S310, the scale calculation means 204 calculates a value of B / A, outputs it as an identity measure, and ends the process. However, in the case of A = 0, the scale calculation means 204 outputs a predetermined value (for example, 0.5).

[0236] 또한, 여기서는, 부호의 번호 m로부터 M까지 차례로 추출 처리를 실시하고 있지만, 차례는 이것에 한정되지 않고 임의로 된다. 또, 여기서는 유사도 값을 산출하는 경우에 대해 설명했지만, 마찬가지로, 거리 척도를 동일성 척도로서 산출할 수도 있다. 이 경우, 룩업테이블에는, 유사도 값 대신에 거리 척도를 유지하도록 맞추어진다.In addition, although extraction processing is performed in order from the code | symbol number m to M here, in order, it is not limited to this, It is arbitrary. In addition, although the case where the similarity value is computed was demonstrated here, similarly, the distance scale can also be computed as an identity measure. In this case, the lookup table is fitted to maintain the distance scale instead of the similarity value.

[0237] 이상 본 발명의 실시형태에 대해 설명했지만, 본 발명은, 상기 서술한 실시형태로 한정되는 것은 아니다. 본 발명의 구성이나 상세는, 본 발명의 범위 내에서 당업자가 이해할 수 있는 여러 가지 변경을 할 수 있다. 또, 본 발명의 화상 식별자 추출 장치는, 그의 기능을 하드웨어적으로 실현되는 것은 물론, 컴퓨터와 프로그램으로 실현될 수가 있다. 그러한 프로그램은, 자기 디스크나 반도체 메모리 등의 컴퓨터 판독가능 기록 매체에 기록된 형태로 제공되고 예를 들면 컴퓨터의 시작시에 컴퓨터에 판독되어 그 컴퓨터의 동작을 제어함으로써, 그 컴퓨터를 전술한 각 실시형태에 있어서의 차원 결정 수단, 추출 영역 취득 수단, 영역 특징량산출 수단, 비교 수단, 영역 특징량산출 방법 취득 수단, 비교 방법 취득 수단으로서 기능시킨다.Although the embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment. The structure and details of the present invention can be variously modified by those skilled in the art within the scope of the present invention. In addition, the image identifier extracting apparatus of the present invention can be realized not only by its hardware but also by a computer and a program. Such a program is provided in a form recorded in a computer readable recording medium such as a magnetic disk or a semiconductor memory, and is read into the computer at the start of the computer, for example, to control the operation of the computer, thereby implementing the computer as described above. It functions as dimensional determination means, extraction area acquisition means, area feature variable calculation means, comparison means, area feature variable calculation method acquisition means, and comparison method acquisition means in the form.

[0238] 또한, 본 발명은, 2009년 3월 13일에 특허 출원된 일본 특허출원 2009-061022, 및 2009년 4월 14일에 특허 출원된 일본 특허출원 2009-097864에 근거하는 우선권 주장의 이익을 향수하는 것이어서, 당해 특허 출원에 기재된 내용은, 모두 본 명세서에 포함되는 것으로 한다.[0238] Furthermore, the present invention provides the benefit of claiming priority based on Japanese Patent Application No. 2009-01022, filed on March 13, 2009, and Japanese Patent Application No. 2009-097864, filed on April 14, 2009. Since it is a perfume, all the content described in the said patent application shall be included in this specification.

[0239] 1…차원 결정 수단
2…추출 영역 취득 수단
3, 3 A…영역 특징량 산출 수단
31, 31 A…제1의 영역 특징량 산출 수단
32, 32 A…제2의 영역 특징량 산출 수단
4, 4 B…비교 수단
41…대소 비교 수단
42, 44…양자화 수단
43…차분치 산출 수단
45…양자화 경계 결정 수단
5…영역 특징량 산출 방법 취득 수단
6…비교 방법 취득 수단
7…부호화 수단
[0239] 1... Dimension
2… Extraction area acquisition means
3, 3 A... Domain feature calculation unit
31, 31 A... First region feature variable calculating means
32, 32 A... Second area feature variable calculating means
4, 4 B... Comparison means
41... Comparison measure
42, 44... Quantization means
43 ... Difference calculation means
45... Quantization Boundary Determination Means
5... Area feature variable calculation method acquisition means
6... Comparison method acquisition means
7 ... Encoding means

Claims (57)

쌍을 이루는 2개의 부분 영역의 형상의 편성과 쌍을 이루는 2개의 부분 영역 사이의 상대적인 위치 양쪽 모두가, 적어도 1개의 다른 부분 영역 쌍과는 상위한 1이상의 부분 영역 쌍을 포함하는, 화상중의 복수의 부분 영역 쌍에 따라, 화상의 각 부분 영역에서 영역 특징량을 추출하고, 상기 추출한 각 부분 영역의 영역 특징량에 기초하여, 상기 화상의 식별에 사용하는 화상 식별자를 생성하는 화상 식별자 생성 수단; 및
상기 화상 식별자를 부호화하는 부호화 수단을 포함하는, 화상 식별자 추출 장치.
Both of the pairing of the shape of two paired subregions and the relative position between the two paired subregions includes one or more partial region pairs that differ from at least one other subregion pair. Image identifier generating means for extracting an area feature amount from each partial area of an image according to a plurality of partial area pairs, and generating an image identifier for use in identifying the image based on the extracted area feature amounts of each partial area; ; And
And encoding means for encoding the image identifier.
제 1 항에 있어서,
상기 부호화 수단은, 상기 화상 식별자를, 데이터량이 적게 되도록 부호화하는, 화상 식별자 추출 장치.
The method of claim 1,
And the encoding means encodes the image identifier so that the amount of data is small.
제 1 항 또는 제 2 항에 있어서,
상기 부호화 수단은, 상기 화상 식별자를, 유일하게 복호화 가능한 형식으로 부호화하는, 화상 식별자 추출 장치.
The method according to claim 1 or 2,
And the encoding means encodes the image identifier into a uniquely decodable format.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
쌍을 이루는 2개의 부분 영역의 형상의 편성과 쌍을 이루는 2개의 부분 영역 사이의 상대적인 위치 양쪽 모두가 같은 부분 영역 쌍에서는, 절대적인 위치가 상위한, 화상 식별자 추출 장치.
The method according to any one of claims 1 to 3,
An image identifier extracting apparatus in which absolute positions differ in both a pair of partial region pairs and a relative position between two paired partial regions in the same partial region pair.
제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
상기 화상 식별자 생성 수단은, 쌍을 이루는 2개의 부분 영역의 양쪽 모두로부터 영역 특징량을 추출하고, 상기 추출한 영역 특징량을 이용해 화상 식별자 요소를 산출하고, 상기 화상 식별자 요소의 세트인 상기 화상 식별자를 생성하는, 화상 식별자 추출 장치.
The method according to any one of claims 1 to 4,
The image identifier generating means extracts an area feature amount from both of the paired two partial regions, calculates an image identifier element using the extracted area feature amount, and extracts the picture identifier that is a set of the picture identifier elements. An image identifier extraction device to generate.
제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
상기 화상 식별자 생성 수단은, 쌍을 이루는 2개의 부분 영역의 양쪽 모두로부터 영역 특징량을 추출하고, 상기 추출한 영역 특징량의 차분치로부터 화상 식별자 요소를 산출하고, 상기 화상 식별자 요소의 세트인 상기 화상 식별자를 생성하는, 화상 식별자 추출 장치.
6. The method according to any one of claims 1 to 5,
The image identifier generating means extracts an area feature amount from both of the paired two partial regions, calculates an image identifier element from the difference value of the extracted area feature amounts, and is the set of the picture identifier elements. An image identifier extraction device for generating an identifier.
제 6 항에 있어서,
상기 화상 식별자 생성 수단은, 상기 양쪽 모두의 영역 특징량의 차분치를 양자화하여 상기 화상 식별자 요소를 산출하는, 화상 식별자 추출 장치.
The method according to claim 6,
And the image identifier generating means quantizes the difference value of both area feature amounts to calculate the image identifier element.
제 1 항 내지 제 6항 중 어느 한 항에 있어서,
상기 화상 식별자 생성 수단은, 상기 영역 특징량을 양자화하여 상기 화상 식별자를 산출하는, 화상 식별자 추출 장치.
The method according to any one of claims 1 to 6,
And the image identifier generating means quantizes the area feature amounts to calculate the image identifier.
제 7 항 또는 제 8 항에 있어서,
상기 화상 식별자 생성 수단은, 부분 영역 쌍마다의 양쪽 모두의 영역 특징량 사이의 차분치의 분포에 기초하여, 상기 양자화에 사용하는 양자화 경계를 결정하는, 화상 식별자 추출 장치.
The method according to claim 7 or 8,
And the image identifier generating means determines the quantization boundary used for the quantization based on the distribution of the difference values between both region feature amounts for each partial region pair.
제 7 항 내지 제 9 항 중 어느 한 항에 있어서,
상기 화상 식별자 생성 수단은, 각각 상이한 양자화치로 분류되는 부분 영역 쌍의 비율이 거의 균등하게 되도록, 상기 양자화에 사용하는 양자화 경계를 결정하는, 화상 식별자 추출 장치.
The method according to any one of claims 7 to 9,
And the image identifier generating means determines the quantization boundary used for the quantization so that the ratios of the partial region pairs each classified into different quantization values are almost equal.
제 7 항 내지 제 10 항 중 어느 한 항에 있어서,
상기 화상 식별자 생성 수단은, 3개 값으로 양자화를 수행하는, 화상 식별자 추출 장치.
The method according to any one of claims 7 to 10,
And the image identifier generating means performs quantization with three values.
제 11 항에 있어서,
상기 3개 값은, 제1의 양자화치, 상기 제1의 양자화치보다 작은 값인 제2의 양자화치, 상기 제2의 양자화치보다 작은 값인 제3의 양자화치를 포함하고, 상기 제1의 양자화치와 상기 제2의 양자화치 사이의 차이와 상기 제2의 양자화치와 상기 제3의 양자화치 사이의 차이가 동등한, 화상 식별자 추출 장치.
The method of claim 11,
The three values include a first quantized value, a second quantized value that is less than the first quantized value, and a third quantized value that is less than the second quantized value, wherein the first quantized value And a difference between the second quantized value and a difference between the second quantized value and the third quantized value is equal.
제 11 항 또는 제 12 항에 있어서,
상기 화상 식별자 생성 수단은, 부분 영역 쌍을 구성하는 2개의 부분 영역 중 제1의 부분 영역으로부터 추출한 영역 특징량이 V1이고, 제2의 부분 영역으로부터 추출한 영역 특징량이 V2이고, 양자화 경계인 임계값이 th인 경우, V1로부터 V2를 감산하여 획득된 값이 th보다 크면 제1의 양자화치를 생성하고, V1로부터 V2를 감산하여 획득된 값이―th보다 작으면 제3의 양자화치를 생성하고, V1로부터 V2를 감산하여 획득된 값의 절대치가 th이하이면 제2의 양자화치를 생성하는, 화상 식별자 추출 장치.
The method according to claim 11 or 12,
In the image identifier generating means, the region feature amount extracted from the first partial region of the two partial regions constituting the partial region pair is V1, the region feature quantity extracted from the second partial region is V2, and the threshold value of the quantization boundary is th If the value obtained by subtracting V2 from V1 is greater than th, a first quantized value is generated. If the value obtained by subtracting V2 from V1 is less than -th, a third quantized value is generated. And generating a second quantized value if the absolute value of the value obtained by subtracting is equal to or less than th.
제 13 항에 있어서,
상기 화상 식별자 생성 수단은, 부분 영역 쌍마다의 차분치의 절대치를 소트하고, 상위 또는 하위로부터 미리 정해진 비율의 위치에 있는 값을 상기 임계값 th로서 사용하는, 화상 식별자 추출 장치.
The method of claim 13,
And the image identifier generating means sorts the absolute value of the difference value for each partial region pair and uses the value at a position of a predetermined ratio from the upper or lower portion as the threshold value th.
제 11 항 내지 제 14 항 중 어느 한 항에 있어서,
상기 부호화 수단은, 5개의 부분 영역 쌍의 양자화치를, 1개의 단위로서 부호화하는, 화상 식별자 추출 장치.
The method according to any one of claims 11 to 14,
And the encoding means encodes a quantized value of five partial region pairs as one unit.
제 11 항 내지 제 15 항 중 어느 한 항에 있어서,
상기 부호화 수단은, 5개의 부분 영역 쌍의 양자화치를, 1바이트의 정보로서 부호화하는, 화상 식별자 추출 장치.
The method according to any one of claims 11 to 15,
And the encoding means encodes the quantized values of the five partial region pairs as one byte of information.
제 11 항 내지 제 15 항 중 어느 한 항에 있어서,
상기 부호화 수단은, 5개의 부분 영역 쌍의 양자화치의 상이한 243개 편성을, 1바이트로 표현된 0에서 242까지의 값으로 매핑하는, 화상 식별자 추출 장치.
The method according to any one of claims 11 to 15,
And said encoding means maps 243 different sets of quantization values of five partial region pairs to values from 0 to 242 expressed in one byte.
제 17 항에 있어서,
상기 부호화 수단은, 상기 매핑을 수행할 때, 상기 양자화치의 3개 값들 중에서, 가장 작은 양자화치를 0, 다음으로 작은 양자화치를 1, 가장 큰 양자화치를 2로서 취급하고, 5개의 부분 영역 쌍의 양자화치가, X4, X3, X2, X1, X0이면, 부호화된 값 Z를, Z=81×X4+27×X3+9×X2+3×X1+X0 으로서 산출하는, 화상 식별자 추출 장치.
The method of claim 17,
When performing the mapping, the encoding means treats the smallest quantized value as 0, the next smallest quantized value as 1, and the largest quantized value as 2, among the three values of the quantized value, , X 4 , X 3 , X 2 , X 1 , X 0 , image identifier extraction to calculate the encoded value Z as Z = 81 × X 4 + 27 × X 3 + 9 × X 2 + 3 × X 1 + X 0 Device.
제 5 항 내지 제 7 항 중 어느 한 항에 있어서,
상기 부호화 수단은, 복수의 화상 식별자 요소를 1개의 단위로서 부호화하는, 화상 식별자 추출 장치.
The method according to any one of claims 5 to 7,
And the encoding means encodes a plurality of image identifier elements as one unit.
제 1 항 내지 제 19 항 중 어느 한 항에 있어서,
상기 화상 식별자 생성 수단은, 화상의 각 부분 영역의 화소 값의 대표치를, 상기 부분 영역의 영역 특징량으로서 추출하는, 화상 식별자 추출 장치.
20. The method according to any one of claims 1 to 19,
And the image identifier generating means extracts a representative value of pixel values of each partial region of the image as an area feature amount of the partial region.
제 1 항 내지 제 20 항에 있어서,
상기 화상 식별자 생성 수단은, 화상의 각 부분 영역의 평균 휘도치를, 상기 부분 영역의 영역 특징량으로서 추출하는, 화상 식별자 추출 장치.
The method of claim 1, wherein
And the image identifier generating means extracts an average luminance value of each partial region of the image as an area feature amount of the partial region.
제 1 항 내지 제 21 항 중 어느 한 항에 기재된 화상 식별자 추출 장치에 의해 생성된 화상 식별자를 이용해 조합을 수행하는, 조합 장치.A combining apparatus that performs combining using an image identifier generated by the image identifier extracting apparatus according to any one of claims 1 to 21. 제 1 항 내지 제 21 항 중 어느 한 항에 기재된 화상 식별자 추출 장치에 의해 생성된 화상 식별자를 이용해 식별을 수행하는, 식별 장치.An identification apparatus for performing identification using an image identifier generated by the image identifier extracting apparatus according to any one of claims 1 to 21. 제1의 화상을 식별하기 위한 제 1의 부호화된 화상 식별자와 제2의 화상을 식별하기 위한 제 2의 부호화된 화상 식별자를 이용해, 상기 제1의 부호화된 화상 식별자와 상기 제2의 부호화된 화상 식별자를 복호하지 않고 상기 제1의 부호화된 화상 식별자와 상기 제2의 부호화된 화상 식별자 사이의 조합을 수행하는, 화상 식별자 조합 장치.The first coded picture identifier and the second coded picture, using a first coded picture identifier for identifying a first picture and a second coded picture identifier for identifying a second picture. And a combination between the first coded picture identifier and the second coded picture identifier without decoding an identifier. 제 24 항에 있어서,
상기 조합에서는, 상기 제1의 화상과 상기 제2의 화상이 동일한 정도를 나타내는 동일성 척도가 산출되는, 화상 식별자 조합 장치.
The method of claim 24,
In the combination, an image identifier combination device in which an identity measure indicating a degree to which the first image and the second image are equal is calculated.
제 24 항 또는 제 25 항에 있어서,
부호화된 단위 마다, 제1의 부호화된 화상 식별자의 부호 값과 제2의 부호화 된 화상 식별자의 부호 값 사이의 거리 또는 유사도 값이, 미리 상기 부호 값 사이의 거리 또는 유사도 값을 산출해 기록한 룩업테이블로부터 취득되고, 조합이 수행되는, 화상 식별자 조합 장치.
The method of claim 24 or 25,
For each coded unit, a lookup table in which the distance or similarity value between the code value of the first coded picture identifier and the code value of the second coded picture identifier calculates and records the distance or similarity value between the code values in advance. And a combination is performed.
제 26 항에 있어서,
상기 부호 값 사이의 거리는, 상기 부호 값을 복호한 복호 정보 사이의 허밍 거리인, 화상 식별자 조합 장치.
The method of claim 26,
And the distance between the code values is a humming distance between decoding information that decodes the code value.
제 26 항에 있어서,
상기 제1의 부호화된 화상 식별자 및 제2의 부호화된 화상 식별자가, 1개 요소당 3개 값을 갖는, 5개 요소마다 1바이트로 부호화되도록 부호화된 경우에, 상기 룩업테이블은 243×243 방식의 거리 또는 유사도를 기록하는, 화상 식별자 조합 장치.
The method of claim 26,
When the first coded picture identifier and the second coded picture identifier are encoded to be encoded in one byte every five elements having three values per one element, the lookup table is a 243 × 243 scheme. And a distance or similarity of the two.
쌍을 이루는 2개의 부분 영역의 형상의 편성과 쌍을 이루는 2개의 부분 영역 사이의 상대적인 위치 양쪽 모두가, 적어도 1개의 다른 부분 영역 쌍과는 상위한 1이상의 부분 영역 쌍을 포함하는, 화상중의 복수의 부분 영역 쌍에 따라, 화상의 각 부분 영역에서 영역 특징량을 추출하고, 상기 추출한 각 부분 영역의 영역 특징량에 기초하여, 상기 화상의 식별에 사용하는 화상 식별자를 생성하는 단계; 및
상기 화상 식별자를 부호화하는 단계를 포함하는, 화상 식별자 추출 방법.
Both of the pairing of the shape of two paired subregions and the relative position between the two paired subregions includes one or more partial region pairs that differ from at least one other subregion pair. Extracting an area feature amount from each partial area of the image according to a plurality of partial area pairs, and generating an image identifier for use in identifying the image based on the extracted area feature amounts of each partial area; And
Encoding the picture identifier.
제 29 항에 있어서,
상기 부호화하는 단계는, 상기 화상 식별자를, 데이터량이 적어지도록 부호화하는, 화상 식별자 추출 방법.
The method of claim 29,
In the encoding step, the image identifier extraction method encodes the image identifier so that the amount of data decreases.
제 29 항 또는 제 30 항에 있어서,
상기 부호화하는 단계는, 상기 화상 식별자를, 유일하게 복호화 가능한 형식으로 부호화하는, 화상 식별자 추출 방법.
32. The method according to claim 29 or 30,
And the encoding step encodes the image identifier in a uniquely decodable format.
제 29 항 내지 제 31 항 중 어느 한 항에 있어서,
쌍을 이루는 2개의 부분 영역의 형상의 편성과 쌍을 이루는 2개의 부분 영역의 상대적인 위치 양쪽 모두가 같은 부분 영역 쌍에서는, 절대적인 위치가 상위한, 화상 식별자 추출 방법.
The method of any one of claims 29 to 31,
2. The method of extracting an image identifier, in which the absolute position differs in a partial region pair in which both a pair of shapes of paired two partial regions and a relative position of two paired partial regions are the same.
제 29 항 내지 제 32 항 중 어느 한 항에 있어서,
상기 화상 식별자를 생성하는 단계는, 쌍을 이루는 2개의 부분 영역의 양쪽 모두로부터 영역 특징량을 추출하는 단계, 상기 추출한 영역 특징량을 이용해 화상 식별자 요소를 산출하는 단계, 및 상기 화상 식별자 요소의 세트인 상기 화상 식별자를 생성하는 단계를 포함하는, 화상 식별자 추출 방법.
The method according to any one of claims 29 to 32,
The generating of the image identifier comprises: extracting an area feature amount from both of the paired two partial regions, calculating an image identifier element using the extracted area feature amount, and the set of image identifier elements Generating the picture identifier.
제 29 항 내지 제 33 항 중 어느 한 항에 있어서,
상기 화상 식별자를 생성하는 단계는, 쌍을 이루는 2개의 부분 영역의 양쪽 모두로부터 영역 특징량을 추출하는 단계, 상기 추출한 영역 특징량의 차분치로부터 화상 식별자 요소를 산출하는 단계, 및 상기 화상 식별자 요소의 세트인 상기 화상 식별자를 생성하는 단계를 포함하는, 화상 식별자 추출 방법.
The method according to any one of claims 29 to 33,
The generating of the image identifier may include extracting an area feature amount from both of the paired two partial regions, calculating an image identifier element from the difference between the extracted area feature amounts, and the image identifier element. Generating the picture identifier which is a set of pictures.
제 34 항에 있어서,
상기 화상 식별자를 생성하는 단계는, 상기 양쪽 모두의 영역 특징량의 차분치를 양자화하여 상기 화상 식별자 요소를 산출하는 단계를 포함하는, 화상 식별자 추출 방법.
35. The method of claim 34,
And generating the picture identifier comprises quantizing the difference of both area feature amounts to calculate the picture identifier element.
제 29 항 내지 제 34 항 중 어느 한 항에 있어서,
상기 화상 식별자를 생성하는 단계는, 상기 영역 특징량을 양자화하여 상기 화상 식별자를 산출하는 단계를 포함하는, 화상 식별자 추출 방법.
The method according to any one of claims 29 to 34, wherein
And generating the image identifier comprises calculating the image identifier by quantizing the area feature amount.
제 35 항 또는 제 36 항에 있어서,
상기 화상 식별자를 생성하는 단계는, 부분 영역 쌍마다의 양쪽 모두의 영역 특징량 사이의 차분치의 분포에 기초하여, 상기 양자화에 사용하는 양자화 경계를 결정하는 단계를 포함하는, 화상 식별자 추출 방법.
The method of claim 35 or 36,
The generating of the picture identifier includes determining a quantization boundary used for the quantization based on a distribution of difference values between both area feature amounts for each partial region pair.
제 35 항 내지 제 37 항 중 어느 한 항에 있어서,
상기 화상 식별자를 생성하는 단계는, 각각 상이한 양자화치로 분류되는 부분 영역 쌍의 비율이 거의 균등하게 되도록, 상기 양자화에 사용하는 양자화 경계를 결정하는 단계를 포함하는, 화상 식별자 추출 방법.
The method according to any one of claims 35 to 37,
The generating of the image identifier includes determining a quantization boundary used for the quantization such that the ratio of the partial region pairs each classified into different quantization values is nearly equal.
제 35 항 내지 제 38 항 중 어느 한 항에 있어서,
상기 화상 식별자를 생성하는 단계는, 3개 값으로 양자화를 수행하는 단계를 포함하는, 화상 식별자 추출 방법.
The method according to any one of claims 35 to 38,
Generating the picture identifier comprises performing quantization with three values.
제 39 항에 있어서,
상기 3개 값은, 제1의 양자화치, 상기 제1의 양자화치보다 작은 값인 제2의 양자화치, 상기 제2의 양자화치보다 작은 값인 제3의 양자화치를 포함하고, 상기 제1의 양자화치와 상기 제2의 양자화치 사이의 차이 및 상기 제2의 양자화치와 상기 제3의 양자화치 사이의 차이가 동등한, 화상 식별자 추출 방법.
The method of claim 39,
The three values include a first quantized value, a second quantized value that is less than the first quantized value, and a third quantized value that is less than the second quantized value, wherein the first quantized value And a difference between the second quantized value and a difference between the second quantized value and the third quantized value is equal.
제 39 항 또는 제 40 항에 있어서,
상기 화상 식별자를 생성하는 단계는, 부분 영역 쌍을 구성하는 2개의 부분 영역 중 제1의 부분 영역으로부터 추출한 영역 특징량이 V1이고, 제2의 부분 영역으로부터 추출한 영역 특징량이 V2이고, 양자화 경계인 임계값이 th인 경우, V1로부터 V2를 감산하여 획득된 값이 th보다 크면 제1의 양자화치를 생성하는 단계, V1로부터 V2를 감산하여 획득된 값이―th보다 작으면 제3의 양자화치를 생성하는 단계, 및 V1로부터 V2를 감산한 값의 절대치가 th이하이면 제2의 양자화치를 생성하는 단계를 포함하는, 화상 식별자 추출 방법.
41. The method of claim 39 or 40 wherein
The generating of the image identifier includes: a threshold value of a region feature amount extracted from the first partial region of the two partial regions constituting the partial region pair is V1, an area feature quantity extracted from the second partial region of V2, and a quantization boundary; Is th, subtracting V2 from V1 to generate a first quantized value if greater than th, and subtracting V2 from V1 to generate a third quantized value if less than -th. And generating a second quantized value if the absolute value of the value obtained by subtracting V2 from V1 is less than or equal to th.
제 41 항에 있어서,
상기 화상 식별자를 생성하는 단계는, 상기 부분 영역 쌍마다의 차분치의 절대치를 소트하는 단계, 및 상위 또는 하위로부터 미리 정해진 비율의 위치에 있는 값을 상기 임계값 th로서 사용하는 단계를 포함하는, 화상 식별자 추출 방법.
42. The method of claim 41 wherein
Generating the image identifier includes sorting the absolute value of the difference value for each of the partial region pairs, and using the value at a predetermined ratio position from a higher or lower position as the threshold value th. Identifier extraction method.
제 39 항 내지 제 42 항 중 어느 한 항에 있어서,
상기 부호화하는 단계는, 5개의 부분 영역 쌍의 양자화치를, 1개의 단위로서 부호화하는 단계를 포함하는, 화상 식별자 추출 방법.
43. The compound of any one of claims 39 to 42 wherein
The encoding step includes encoding the quantized values of the five partial region pairs as one unit.
제 39 항 내지 제 43 항 중 어느 한 항에 있어서,
상기 부호화하는 단계는, 5개의 부분 영역 쌍의 양자화치를, 1바이트의 정보로서 부호화하는 단계를 포함하는, 화상 식별자 추출 방법.
The method according to any one of claims 39 to 43,
The encoding step includes encoding a quantized value of five partial region pairs as one byte of information.
제 39 항 내지 제 43 항 중 어느 한 항에 있어서,
상기 부호화하는 단계는, 5개의 부분 영역 쌍의 양자화치의 상이한 243개의 편성을, 1바이트로 표현한 0에서 242의 값으로 매핑하는 단계를 포함하는, 화상 식별자 추출 방법.
The method according to any one of claims 39 to 43,
And the encoding step includes mapping 243 different sets of quantization values of five partial region pairs from 0 to 242 expressed in one byte.
제 45 항에 있어서,
상기 부호화하는 단계는, 상기 매핑을 수행할 때, 상기 양자화치의 3개 값 중에서, 가장 작은 양자화치를 0, 다음으로 작은 양자화치를 1, 가장 큰 양자화치를 2로서 취급하는 단계, 및 5개의 부분 영역 쌍의 양자화치가 X4, X3, X2, X1, X0이면, 부호화 된 값 Z를, Z=81×X4+27×X3+9×X2+3×X1+X0 으로서 산출하는 단계를 포함하는, 화상 식별자 추출 방법.
The method of claim 45,
The encoding may include treating the smallest quantized value as 0, the next smallest quantized value as 1, and the largest quantized value as 2, when performing the mapping, and 5 partial region pairs. If the quantization value of is X 4 , X 3 , X 2 , X 1 , X 0 , calculating the coded value Z as Z = 81 × X 4 + 27 × X 3 + 9 × X 2 + 3 × X 1 + X 0 . And an image identifier extraction method.
제 33 항 내지 제 35 항 중 어느 한 항에 있어서,
상기 부호화하는 단계는, 복수의 화상 식별자 요소를 1개의 단위로서 부호화하는 단계를 포함하는, 화상 식별자 추출 방법.
The method according to any one of claims 33 to 35,
The encoding step includes encoding a plurality of image identifier elements as one unit.
제 29 항 내지 제 47 항 중 어느 한 항에 있어서,
상기 화상 식별자를 생성하는 단계는, 화상의 각 부분 영역의 화소 값의 대표치를, 상기 부분 영역의 영역 특징량으로서 추출하는 단계를 포함하는, 화상 식별자 추출 방법.
The method according to any one of claims 29 to 47,
The generating of the image identifier includes extracting a representative value of the pixel value of each partial region of the image as an area feature amount of the partial region.
제 29 항 내지 제 48 항 중 어느 한 항에 있어서,
상기 화상 식별자를 생성하는 단계는, 화상의 각 부분 영역의 평균 휘도치를, 상기 부분 영역의 영역 특징량으로서 추출하는 단계를 포함하는, 화상 식별자 추출 방법.
49. The method of any of claims 29 to 48,
The generating of the image identifier includes extracting an average luminance value of each partial region of the image as an area feature amount of the partial region.
제 29 항 내지 제 49 항의 어느 한 항에 기재된 화상 식별자 추출 방법에 의해 생성된 화상 식별자를 이용해 조합을 수행하는, 조합 방법.A combining method, wherein combining is performed using an image identifier generated by the image identifier extracting method according to any one of claims 29 to 49. 제 29 항 내지 제 49 항의 어느 한 항에 기재된 화상 식별자 추출 방법에 의해 생성된 화상 식별자를 이용해 식별을 수행하는, 식별 방법.An identification method which performs identification using an image identifier generated by the image identifier extraction method according to any one of claims 29 to 49. 제1의 화상을 식별하기 위한 제1의 부호화된 화상 식별자와 제2의 화상을 식별하기 위한 제2의 부호화된 화상 식별자를 이용해, 상기 제1의 부호화된 화상 식별자와 상기 제2의 부호화된 화상 식별자를 복호하지 않고 상기 제1의 부호화된 화상 식별자와 상기 제2의 부호화된 화상 식별자 사이의 조합을 수행하는 단계를 포함하는, 화상 식별자 조합 방법.The first coded picture identifier and the second coded picture, using a first coded picture identifier for identifying a first picture and a second coded picture identifier for identifying a second picture. And performing a combination between the first coded picture identifier and the second coded picture identifier without decoding the identifier. 제 52 항에 있어서,
상기 조합에서는, 상기 제1의 화상과 상기 제2의 화상이 동일한 정도를 나타내는 동일성 척도가 산출되는, 화상 식별자 조합 방법.
The method of claim 52, wherein
In the combination, an image identifier combination method is calculated in which an identity measure indicating a degree to which the first image and the second image are the same.
제 52 항 또는 제 53 항에 있어서,
부호화된 단위마다, 상기 제1의 부호화된 화상 식별자의 부호 값과 상기 제2의 부호화된 화상 식별자의 부호 값의 사이의 거리 또는 유사도 값이, 미리 상기 부호 값 사이의 거리 또는 유사도 값을 산출해 기록한 룩업테이블로부터 취득되고, 조합이 수행되는, 화상 식별자 조합 방법.
The method of claim 52 or 53,
For each coded unit, the distance or similarity value between the code value of the first coded picture identifier and the code value of the second coded picture identifier calculates a distance or similarity value between the code values in advance. An image identifier combining method, obtained from a recorded lookup table, and combining is performed.
제 54 항에 있어서,
상기 부호 값 사이의 거리는, 상기 부호 값을 복호하여 획득된 복호 정보 사이의 허밍 거리인, 화상 식별자 조합 방법.
The method of claim 54, wherein
And the distance between the code values is a humming distance between decoding information obtained by decoding the code value.
제 54 항에 있어서,
상기 제1의 부호화된 화상 식별자 및 상기 제2의 부호화된 화상 식별자가, 1개 요소당 3개 값을 갖는, 5개 요소마다 1바이트로 부호화되도록 부호화된 경우, 상기 룩업테이블은 243×243 방식의 거리 또는 유사도를 기록하는, 화상 식별자 조합 방법.
The method of claim 54, wherein
When the first coded picture identifier and the second coded picture identifier are encoded to be encoded in one byte every five elements having three values per one element, the lookup table is a 243 × 243 scheme. And recording the distance or the similarity of the.
컴퓨터로 하여금,
쌍을 이루는 2개의 부분 영역의 형상의 편성과 쌍을 이루는 2개의 부분 영역의 상대적인 위치 양쪽 모두가, 적어도 1개의 다른 부분 영역 쌍과는 상위한 1이상의 부분 영역 쌍을 포함하는, 화상중의 복수의 부분 영역 쌍에 따라, 화상의 각 부분 영역에서 영역 특징량을 추출하고, 상기 추출한 각 부분 영역의 영역 특징량에 기초하여, 상기 화상의 식별로 사용하는 화상 식별자를 생성하는 화상 식별자 생성 수단; 및
상기 화상 식별자를 부호화하는 부호화 수단으로서 기능시키기 위한, 프로그램.
The computer,
The plurality of images in the image, wherein both the pairing of the shape of the paired two subregions and the relative positions of the paired two subregions comprise at least one subregion pair that differs from at least one other subregion pair. Image identifier generating means for extracting an area feature amount from each partial area of the image according to a partial area pair of and generating an image identifier to be used for identification of the image based on the extracted area feature amount of each partial area; And
And a program for functioning as encoding means for encoding the image identifier.
KR1020117021099A 2009-03-13 2010-03-12 Image identifier extraction device KR101335902B1 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JPJP-P-2009-061022 2009-03-13
JP2009061022 2009-03-13
JP2009097864 2009-04-14
JPJP-P-2009-097864 2009-04-14
PCT/JP2010/001769 WO2010103849A1 (en) 2009-03-13 2010-03-12 Image identifier extraction device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020137022199A Division KR101344627B1 (en) 2009-03-13 2010-03-12 Image identifier extraction device

Publications (2)

Publication Number Publication Date
KR20110123770A true KR20110123770A (en) 2011-11-15
KR101335902B1 KR101335902B1 (en) 2013-12-02

Family

ID=42728146

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020137022199A KR101344627B1 (en) 2009-03-13 2010-03-12 Image identifier extraction device
KR1020117021099A KR101335902B1 (en) 2009-03-13 2010-03-12 Image identifier extraction device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020137022199A KR101344627B1 (en) 2009-03-13 2010-03-12 Image identifier extraction device

Country Status (6)

Country Link
US (1) US10133956B2 (en)
EP (1) EP2407931B1 (en)
JP (2) JP5045845B2 (en)
KR (2) KR101344627B1 (en)
CN (1) CN102349092B (en)
WO (1) WO2010103849A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101981000B1 (en) * 2018-02-01 2019-05-21 선문대학교 산학협력단 Depth Image Based Feature Detection Method Using Hybrid Filter

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11126902B2 (en) * 2014-06-03 2021-09-21 IE-9 Technology Corp. Optically variable data storage device
CN109117845A (en) * 2018-08-15 2019-01-01 广州云测信息技术有限公司 Object identifying method and device in a kind of image
US11275933B2 (en) 2018-08-24 2022-03-15 Genpact Luxembourg S.Á R.L Systems and methods for segmentation of report corpus using visual signatures
CN113033394B (en) * 2021-03-24 2024-05-14 北京达佳互联信息技术有限公司 Image signature generation method and device, electronic equipment and storage medium

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4072928A (en) * 1975-10-10 1978-02-07 Sangamo Weston, Inc. Industrial system for inspecting and identifying workpieces
JP2585606B2 (en) 1987-07-06 1997-02-26 株式会社日立製作所 Image pattern search method
JPS6412371U (en) * 1987-07-13 1989-01-23
US4905002A (en) * 1988-03-09 1990-02-27 Eastman Kodak Company Delta modulation encoder/decoder method and system
JPH02268388A (en) 1989-04-10 1990-11-02 Hitachi Ltd Character recognizing method
JPH0368272A (en) 1989-08-05 1991-03-25 Ricoh Co Ltd Picture data processor
US5436653A (en) 1992-04-30 1995-07-25 The Arbitron Company Method and system for recognition of broadcast segments
JP4458429B2 (en) 1993-12-10 2010-04-28 株式会社リコー Color image recognition method and apparatus
ES2171432T3 (en) 1993-12-10 2002-09-16 Ricoh Kk APPARATUS AND METHODS TO RECOGNIZE A SPECIFIC IMAGE FROM AN INPUT IMAGE SIGNAL.
JP3431331B2 (en) * 1995-03-01 2003-07-28 株式会社日立製作所 Video encoding device, video transmission device, and video conference device
JP3847832B2 (en) 1995-03-31 2006-11-22 キヤノン株式会社 Image information processing method and apparatus, and control method therefor
JPH10336682A (en) * 1997-04-02 1998-12-18 Canon Inc Coder, its method and storage medium storing the method
JPH1169164A (en) * 1997-08-21 1999-03-09 Toshiba Corp Image encoding method, image encoder, image decoder and image forming device
AU1062999A (en) * 1997-09-29 1999-04-23 Rockwell Semiconductor Systems, Inc. System and method for compressing images using multi-threshold wavelet coding
US6208692B1 (en) * 1997-12-31 2001-03-27 Sarnoff Corporation Apparatus and method for performing scalable hierarchical motion estimation
JP2002109596A (en) * 2000-09-28 2002-04-12 Nippon Conlux Co Ltd Method and device for identifying coin
JP4190739B2 (en) * 2001-02-19 2008-12-03 日本電気株式会社 Image feature value generating apparatus and method, and storage medium storing image feature value generating program
AU2002345551A1 (en) * 2001-06-29 2003-03-03 Oki Electric Industry Co., Ltd. Method and system for watermarking an electrically depicted image
JP2003087467A (en) 2001-09-11 2003-03-20 Canon Inc Image forming apparatus, copy control method, storage medium and program
US7469012B2 (en) * 2002-05-14 2008-12-23 Broadcom Corporation System and method for transcoding entropy-coded bitstreams
JP2004192555A (en) * 2002-12-13 2004-07-08 Fuji Xerox Co Ltd Information management method, device and program
JP2004326362A (en) 2003-04-23 2004-11-18 Casio Comput Co Ltd Checking device, vector sequence checking method, program and storage medium
JP2005031901A (en) * 2003-07-10 2005-02-03 Nippon Conlux Co Ltd Coin identifying device and method
WO2005055138A2 (en) * 2003-11-26 2005-06-16 Yesvideo, Inc. Statical modeling of a visual image for use in determining similarity between visual images
US7114074B2 (en) 2003-12-22 2006-09-26 Graphic Security Systems Corporation Method and system for controlling encoded image production using image signatures
CN1934588B (en) * 2004-01-15 2012-04-25 日本电气株式会社 Pattern identifying system, pattern identifying method
JP2006268825A (en) * 2005-02-28 2006-10-05 Toshiba Corp Object detector, learning device, and object detection system, method, and program
JP2006351001A (en) 2005-05-19 2006-12-28 Nippon Telegr & Teleph Corp <Ntt> Content characteristic quantity extraction method and device, and content identity determination method and device
JP2007293438A (en) * 2006-04-21 2007-11-08 Omron Corp Device for acquiring characteristic quantity
US20090324199A1 (en) * 2006-06-20 2009-12-31 Koninklijke Philips Electronics N.V. Generating fingerprints of video signals
EP2315161A1 (en) 2006-10-11 2011-04-27 Mitsubishi Electric Information Technology Centre Europe B.V. Image descriptor for image recognition
US8094872B1 (en) * 2007-05-09 2012-01-10 Google Inc. Three-dimensional wavelet based video fingerprinting
CN100507936C (en) * 2007-06-19 2009-07-01 中山大学 Zernike moment based robust hashing image authentification method
US8902972B2 (en) * 2008-04-11 2014-12-02 Qualcomm Incorporated Rate-distortion quantization for context-adaptive variable length coding (CAVLC)
US8200021B2 (en) * 2009-06-16 2012-06-12 Nec Corporation Image signature matching device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101981000B1 (en) * 2018-02-01 2019-05-21 선문대학교 산학협력단 Depth Image Based Feature Detection Method Using Hybrid Filter

Also Published As

Publication number Publication date
EP2407931B1 (en) 2019-10-30
CN102349092B (en) 2015-08-12
JP5045845B2 (en) 2012-10-10
EP2407931A1 (en) 2012-01-18
US20120027306A1 (en) 2012-02-02
WO2010103849A1 (en) 2010-09-16
US10133956B2 (en) 2018-11-20
EP2407931A4 (en) 2012-08-29
KR101335902B1 (en) 2013-12-02
JP5686120B2 (en) 2015-03-18
JPWO2010103849A1 (en) 2012-09-13
JP2012195012A (en) 2012-10-11
KR101344627B1 (en) 2013-12-26
KR20130099261A (en) 2013-09-05
CN102349092A (en) 2012-02-08

Similar Documents

Publication Publication Date Title
KR101398272B1 (en) Image identifier matching device
US8200021B2 (en) Image signature matching device
US9042656B2 (en) Image signature extraction device
KR101355299B1 (en) Image signature extraction device
KR101344627B1 (en) Image identifier extraction device
KR101322524B1 (en) Image signature extraction device
KR101335877B1 (en) Image identifier extraction device

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
A107 Divisional application of patent
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171107

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181101

Year of fee payment: 6