JP2007316950A - Method, apparatus and program for processing image - Google Patents

Method, apparatus and program for processing image Download PDF

Info

Publication number
JP2007316950A
JP2007316950A JP2006145875A JP2006145875A JP2007316950A JP 2007316950 A JP2007316950 A JP 2007316950A JP 2006145875 A JP2006145875 A JP 2006145875A JP 2006145875 A JP2006145875 A JP 2006145875A JP 2007316950 A JP2007316950 A JP 2007316950A
Authority
JP
Japan
Prior art keywords
similarity
partial
image
images
effective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006145875A
Other languages
Japanese (ja)
Other versions
JP4685711B2 (en
Inventor
Satoshi Shimada
聡 嶌田
Masashi Morimoto
正志 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006145875A priority Critical patent/JP4685711B2/en
Publication of JP2007316950A publication Critical patent/JP2007316950A/en
Application granted granted Critical
Publication of JP4685711B2 publication Critical patent/JP4685711B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To accurately find out similarity between images on the basis of the contents of the images. <P>SOLUTION: An image is divided into M partial areas on the basis of a previously set rule, and then inter-partial areas similarity Sab(i, j) which is the similarity of partial area images of all combinations of M partial area images Pa(i)i=1, 2, ..., M constituting an image Fa and M partial area images Pb(j)i=1, 2, ..., M constituting an image Fb is calculated. Out of M(M-1)/2 combinations of the partial area images Pa(i) and Pb(j), effective partial areas are detected by referring to a parameter to be used for effective partial area decision in a storage means and image similarity between two images Fa and Fb is calculated from the inter-partial areas similarity Sab(i, j) of N partial area pairs decided to be the effective partial areas. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像処理方法及び装置及びプログラムに係り、特に、画像の管理・閲覧を効率的に行うための画像分類や、類似画像検索などにおいて必要となる、2つの画像間の類似度を算出する画像処理方法及び装置及びプログラムに関する。   The present invention relates to an image processing method, apparatus, and program, and in particular, calculates the similarity between two images required for image classification and image search for efficient image management and browsing. The present invention relates to an image processing method, apparatus, and program.

二つの画像間の類似度を算出する従来技術として、以下のものがある。   The following is a conventional technique for calculating the similarity between two images.

(1) 画像全体で照合する方法:
画像全体から抽出した特徴量に基づいて類似度を求める方法である。特徴量として画像全体での色の頻出部分布を表した色ヒストグラムがよく用いられており、この場合は、2つの画像から抽出した色ヒストグラムの距離を画像間の類似度としている。この方法は、簡易な処理で実現することが特徴である。
(1) Method for matching the entire image:
This is a method for obtaining the similarity based on the feature amount extracted from the entire image. As a feature quantity, a color histogram representing the frequent distribution of colors in the entire image is often used. In this case, the distance between the color histograms extracted from two images is used as the similarity between the images. This method is characterized by being realized by simple processing.

(2)規則的に分割された領域間での照合による方法:
画像全体で照合するのではなく、画像を矩形ブロックで規則的に分割し、各ブロック領域から抽出した特徴量でブロック間の照合を行う方法である。ブロック間の照合を行う方法として、画像での位置が同じブロック間の類似度の総和で画像間の類似度を求める方法がある。また、2つの画像の各ブロックの全ての組み合わせについて、カラーヒストグラムを用いてブロック間の色に対する類似度と、ブロックの位置に関する類似度の乗算により類似度を求めている。この方法では、画像における位置関係と色が似ているブロックが多く含まれる画像ほど類似度が高くなるような画像間の類似度を求めることができる(例えば、非特許文献1参照)。
(2) Method by collation between regularly divided areas:
Instead of collating the entire image, the image is regularly divided into rectangular blocks, and the blocks are collated with the feature values extracted from each block area. As a method of collating between blocks, there is a method of obtaining a similarity between images by a sum of similarities between blocks having the same position in the image. For all combinations of each block of two images, the similarity is obtained by multiplying the similarity between the colors between the blocks by the color histogram and the similarity regarding the position of the block. In this method, it is possible to obtain a similarity between images such that the image includes a larger number of blocks whose colors are similar to the positional relationship in the image (see, for example, Non-Patent Document 1).

(3)オブジェクト領域間での照合による方法:
画像をオブジェクトに対応した領域に分割する前処理を行い、各画像から抽出したオブジェクト領域の対応付けを行った後、対応付けられたオブジェクト領域間の類似度から、画像間の類似度を求める方法である。
堀田政二、井上光平、浦浜喜一「画像集合間距離に基づくビデオの類似検索」映像情報メディア学会誌VOL.54, NO.11, pp.1653-1656, 2000
(3) Method by collation between object areas:
A method for obtaining similarity between images from the similarity between the associated object regions after performing preprocessing for dividing the image into regions corresponding to the objects, associating the object regions extracted from each image It is.
Seiji Hotta, Kohei Inoue, Kiichi Urahama "Similar search of video based on distance between image sets" VOL.54, NO.11, pp.1653-1656, 2000

しかしながら、上記の(1)の、画像全体で照合する方法では、類似度算出において、画像における位置的な構成が十分反映されないため、画像内容が似ていなくても画像全体の特徴が似ている場合には類似度が高くなってしまう問題がある。   However, in the above-described method (1) for collating the entire image, the positional configuration in the image is not sufficiently reflected in the similarity calculation, and thus the characteristics of the entire image are similar even if the image content is not similar. In some cases, there is a problem that the degree of similarity becomes high.

上記の(2)の規則的に分割された領域間での照合による方法は、画像における位置的な構成を反映した照合が行えるので、画像全体で照合する方法の問題は改善できる。しかし、この方法では、画像内容が同じでも被写体の位置が異なるなど、画像の構成要素は同じであるが、それらの位置関係が異なる場合には類似度が低くなるという問題がある。   The above-described method (2) based on collation between the regularly divided regions can perform collation reflecting the positional configuration in the image, so that the problem of the collation method for the entire image can be improved. However, this method has the same image component such as different subject positions even if the image contents are the same, but there is a problem that the degree of similarity is low when the positional relationship is different.

上記の(3)のオブジェクト領域間での照合による方法は、この問題を解決できるが、オブジェクト領域を正しく検出できることが前提となる。背景が均一な場合や画像に出現するオブジェクトが特定できる場合などの限定された状況では、オブジェクト領域を抽出することは可能であるが、一般的な画像からオブジェクト領域を精度高く抽出することは困難である。   The method (3) based on collation between object areas can solve this problem, but it is assumed that the object area can be detected correctly. In limited situations, such as when the background is uniform or the object appearing in the image can be identified, it is possible to extract the object region, but it is difficult to extract the object region from a general image with high accuracy. It is.

以上述べた通り、画像内容が類似しているかを反映させた画像間の類似度を一般的な画像に対して精度よく求めることは困難である。   As described above, it is difficult to accurately obtain the similarity between images reflecting whether the image contents are similar with respect to a general image.

本発明は、上記の点に鑑みなされたもので、画像内容に基づいた、画像間の類似度を精度よく求める方法を提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide a method for accurately obtaining similarity between images based on image contents.

図1は、本発明の原理を説明するための図である。   FIG. 1 is a diagram for explaining the principle of the present invention.

本発明(請求項1)は、2つの画像FaとFbが入力されたときに、該画像の類似度を算出する画像処理方法であって、
領域分割手段が、予め設定しておいたルールに基づいて画像をM個の部分領域に分割する領域分割ステップ(ステップ1)と、
領域間類似度算出手段が、領域分割ステップ(ステップ1)で得られた、画像Faを構成するM個の部分領域画像Pa(i)i=1,2,…Mと、画像Fbを構成するM個の部分領域画像Pb(j)j=1,2,…,Mの全ての組み合わせに対する部分領域画像の類似度である部分領域間類似度Sab(i,j)を算出する領域間類似度算出ステップ(ステップ2)と、
有効部分領域検出手段が、部分領域画像Pa(i)とPb(j)のM(M−1)/2通りの組み合わせの中で、有効部分領域判定に用いるパラメータが格納されている記憶手段を参照して、有効部分領域判定に用いるパラメータが格納されている記憶手段を参照して有効な部分領域を検出する有効部分領域検出ステップ(ステップ3)と、
画像類似度算出手段が、有効部分領域検出ステップ(ステップ3)で、有効な部分領域と判定されたN個の部分領域ペアの部分領域間類似度Sab(i,j)から、2つの画像FaとFbとの画像類似度を算出する画像類似度算出ステップ(ステップ4)と、を行う。
The present invention (Claim 1) is an image processing method for calculating the similarity between two images Fa and Fb when the images are input.
An area dividing step (step 1) in which the area dividing means divides the image into M partial areas based on a preset rule;
The inter-region similarity calculation means constructs an image Fb with M partial region images Pa (i) i = 1, 2,... M constituting the image Fa obtained in the region dividing step (step 1). Inter-region similarity for calculating the partial region similarity Sab (i, j), which is the similarity of the partial region images for all combinations of M partial region images Pb (j) j = 1, 2,. A calculation step (step 2);
The effective partial area detection means includes a storage means for storing parameters used for determining the effective partial area among M (M−1) / 2 combinations of the partial area images Pa (i) and Pb (j). Referring to an effective partial area detecting step (step 3) for detecting an effective partial area with reference to a storage means storing parameters used for determining an effective partial area;
The image similarity calculation means calculates two images Fa from the inter-partial region similarity Sab (i, j) of the N partial region pairs determined to be effective partial regions in the effective partial region detection step (step 3). And an image similarity calculation step (step 4) for calculating the image similarity between Fb and Fb.

また、本発明(請求項2)は、有効部分領域検出ステップ(ステップ3)において、
部分領域間類似度Sab(i,j)の大きい順に、画像Faの部分領域と画像Fbの部分領域を重複することなく対応付けるステップと、
対応付けられたM通りの部分領域ペアの類似度が高いK個のペアに対する領域間類似度の分布から有効な部分領域であると判定する領域間類似度の閾値を求めるステップと、を行う。
Further, the present invention (Claim 2), in the effective partial region detection step (Step 3),
Associating the partial areas of the image Fa with the partial areas of the image Fb in the descending order of the similarity Sab (i, j) between the partial areas;
A step of obtaining a threshold value of similarity between regions determined to be an effective partial region from the distribution of similarity between regions for K pairs having high similarity of the M partial region pairs associated with each other.

図2は、本発明の原理構成図である。   FIG. 2 is a principle configuration diagram of the present invention.

本発明(請求項3)は、2つの画像FaとFbが入力されたときに、該画像の類似度を算出する画像処理装置であって、
有効部分領域判定に用いるパラメータを格納したパラメータ記憶手段5と、
予め設定しておいたルールに基づいて画像をM個の部分領域に分割する領域分割手段2と、
領域分割手段2で得られた、画像Faを構成するM個の部分領域画像Pa(i)i=1,2,…Mと、画像Fbを構成するM個の部分領域画像Pb(j)j=1,2,…,Mの全ての組み合わせに対する部分領域画像の類似度である部分領域間類似度Sab(i,j)を算出する領域間類似度算出手段3と、
部分領域画像Pa(i)とPb(j)のM(M−1)/2通りの組み合わせの中で、パラメータ記憶手段を参照して、有効な部分領域を検出する有効部分領域検出手段4と、
有効部分領域検出手段4で、有効な部分領域と判定されたN個の部分領域ペアの部分領域間類似度Sab(i,j)から、2つの画像FaとFbとの画像類似度を算出する画像類似度算出手段5と、を有する。
The present invention (Claim 3) is an image processing apparatus that calculates the similarity between two images Fa and Fb when they are input.
Parameter storage means 5 for storing parameters used for effective partial area determination;
Area dividing means 2 for dividing an image into M partial areas based on a preset rule;
M partial area images Pa (i) i = 1, 2,... M constituting the image Fa and M partial area images Pb (j) j constituting the image Fb obtained by the area dividing means 2. = 1, 2,..., M between the partial area similarity calculating means 3 for calculating the partial area similarity Sab (i, j) which is the similarity of the partial area image;
An effective partial region detecting unit 4 for detecting an effective partial region with reference to the parameter storage unit among M (M−1) / 2 combinations of the partial region images Pa (i) and Pb (j); ,
The effective partial region detecting means 4 calculates the image similarity between the two images Fa and Fb from the inter-partial region similarity Sab (i, j) of the N partial region pairs determined to be effective partial regions. Image similarity calculation means 5.

また、本発明(請求項4)は、有効部分領域検出手段4において、
部分領域間類似度Sab(i,j)の大きい順に、画像Faの部分領域と画像Fbの部分領域を重複することなく対応付ける手段と、
対応付けられたM通りの部分領域ペアの類似度が高いK個のペアに対する領域間類似度の分布から有効な部分領域であると判定する領域間類似度の閾値を求める手段と、を有する。
Further, the present invention (Claim 4) is provided in the effective partial area detecting means 4,
Means for associating the partial area of the image Fa and the partial area of the image Fb in the descending order of the similarity Sab (i, j) between the partial areas;
Means for determining a threshold value of similarity between regions determined to be an effective partial region from a distribution of similarity between regions for K pairs having high similarity of the M partial region pairs associated with each other.

本発明(請求項5)は、コンピュータに、請求項3または、4記載の画像処理装置の各手段を実行させる画像処理プログラムである。   The present invention (Claim 5) is an image processing program for causing a computer to execute each means of the image processing apparatus according to Claim 3 or 4.

上記のように本発明によれば、2つの画像の背景や被写体などの構成要素が類似しているものは、構成要素の画像の中での位置関係が変動しても、それらの画像間の類似度が高くなるような、画像内容の類似性を反映した画像間類似度を算出することができる。   As described above, according to the present invention, the components of the two images, such as the background and the subject, are similar even if the positional relationship of the components in the image fluctuates. It is possible to calculate the inter-image similarity that reflects the similarity of the image contents so that the similarity is high.

以下、図面と共に本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

最初に本発明の概要を説明する。   First, the outline of the present invention will be described.

本発明では、オブジェクト領域間での照合による方法において、オブジェクト領域を検出する前処理を用いずに矩形ブロックのように規則的に分割した領域をオブジェクト領域とみなすことで、オブジェクト領域検出の問題を解決する。規則的に分割した部分領域を用いることで、被写体や背景の境界付近の部分領域では本来類似しているにもかかわらず類似度が低くなること、及び、小領域に分割することで、本来、類似していないのに類似度が高くなることの問題は以下の方針で解決する。   In the present invention, in the method based on the collation between object areas, the object area detection problem is solved by regarding the area divided regularly like a rectangular block without using the preprocessing for detecting the object area as the object area. Resolve. By using regularly divided partial areas, the similarity in the partial area near the boundary of the subject or background is essentially similar, but by dividing into small areas, The problem of high similarity even though they are not similar is solved by the following policy.

類似した構成要素を含む画像間において、被車体や背景の境界付近の部分領域では本来類似しているにもかかわらず類似度が低くなることもあるが、境界付近を殆ど含まない部分領域の類似度は高く、このような部分領域が多いと考えられる。また、類似した構成要素を含まない画像間において、小さい部分領域では類似する場合があるかも知れないが、このような部分領域を少ないと考えられる。   The similarity between the images containing similar components may be low in the partial area near the boundary of the vehicle body and background, although the similarity may be low, but the similarity of the partial area that hardly includes the vicinity of the boundary. It is considered that there are many such partial areas. In addition, images that do not include similar components may be similar in small partial areas, but such partial areas are considered to be small.

従って、被車体や背景の境界付近の影響を受けることなく、類似度が信頼できる部分領域を全体のp%、本来類似していないにも関わらず、小さい部分領域では類似度が高くなる部分領域を全体のq%とすると、図3に示すように、q<<pと考えられる。この場合、画像間で最も類似する部分領域を対応付けた後、類似度が高い上位p%の部分領域の類似度のみを採用すれば、図3の(a)のように、本来、画像の構成が同一の画像間に対しては、類似度が信頼できる部分領域のみ採用され、図3(b)のように、本来、画像の構成が類似していない画像間に対しては誤って類似度が高くなった部分領域の割合はq/pと小さいため、その影響は小さい。   Therefore, the partial area whose similarity is reliable without being influenced by the vicinity of the vehicle body or the background boundary is p% of the whole, and the partial area whose similarity is high in a small partial area even though it is not originally similar. Is considered to be q << p, as shown in FIG. In this case, after associating the most similar partial areas between images, if only the similarity of the upper p% partial areas having a high similarity is adopted, the original image as shown in FIG. For images with the same configuration, only a partial region whose degree of similarity is reliable is adopted, and as shown in FIG. 3B, similar images are erroneously similar for images that are not originally similar in image configuration. Since the ratio of the partial region with a high degree is as small as q / p, the influence is small.

しかし、被写体や背景の境界付近の影響を受けることなく類似度が信頼できる部分領域の割合pは画像により異なるので、処理対象の画像から計測する必要があるが、自動計測することは困難である。そこで、多くの画像に対するpの実測値の平均値を初期値をpとして予め設定しておき、画像間で対応付けた部分領域ペアの中から類似度が大きいペアをK個選択し(p=K/M),K個の部分領域ペアの類似度の分布に基づいて図3に示す類似度の閾値T1を推定することとする。 However, since the ratio p of the partial area whose similarity can be trusted without being affected by the vicinity of the boundary between the subject and the background varies depending on the image, it is necessary to measure from the image to be processed, but it is difficult to perform automatic measurement. . Therefore, an average value of actually measured values of p for many images is preset as an initial value p 0 , and K pairs having a high similarity are selected from the partial region pairs associated between the images (p 0 = K / M), the similarity threshold T1 shown in FIG. 3 is estimated based on the similarity distribution of K partial region pairs.

本発明では、上記の考え方に基づき、以下に示す装置構成及び動作を行う。   In the present invention, the following apparatus configuration and operation are performed based on the above concept.

図4は、本発明の一実施の形態における画像処理装置の構成を示す。   FIG. 4 shows the configuration of the image processing apparatus according to the embodiment of the present invention.

同図に示す画像処理装置は、画像取得部1、領域分割処理部2、領域間類似度算出部3、有効部分領域検出部4、パラメータ記憶部5、画像類似度算出部6から構成される。   The image processing apparatus shown in FIG. 1 includes an image acquisition unit 1, an area division processing unit 2, an inter-region similarity calculation unit 3, an effective partial region detection unit 4, a parameter storage unit 5, and an image similarity calculation unit 6. .

画像取得部1は、処理対象の2つの画像FaとFbを読み取り、それらの画像を領域分割処理部2に出力する。   The image acquisition unit 1 reads two images Fa and Fb to be processed and outputs these images to the region division processing unit 2.

領域分割処理部2は、画像取得部1より受け取った各画像に対して、予め設定しておいたルールに基づいてM個の部分領域に分割する。例えば、水平方向にm1等分、垂直方向にm2等分して、合計M=m1×m2個のブロックに分割する方法を用いればよい。画像Faの部分領域画像Pa(i)=i=1,2,…,Mと、画像Fbの部分領域画像Pb(j)j=1,2,…,Mを領域間類似度算出部3に出力する。   The region division processing unit 2 divides each image received from the image acquisition unit 1 into M partial regions based on a preset rule. For example, a method of dividing the block into a total of M = m1 × m2 blocks by dividing m1 equally in the horizontal direction and m2 equally in the vertical direction may be used. The partial area image Pa (i) = i = 1, 2,..., M of the image Fa and the partial area image Pb (j) j = 1, 2,. Output.

領域間類似度算出部3は、受け取った部分領域画像Pa(i)とPb(j)の全ての組み合わせのM(M−1)/2通りに対して、部分領域画像の類似度である部分領域間類似度Sab(i,j)を算出する。算出した類似度Sab(i,j)を有効部分領域判定部4と画像類似度算出部6に出力する。部分領域画像の類似度として、部分領域画像から色ヒストグラムを求め、色ヒストグラムの差分に基づいて算出する方法、色ヒストグラムの分布形状を表す平均、分散、歪度、尖度等の特徴量を求め、その特徴空間での距離から算出する方法、部分領域画像の色シグナチャーを特徴量として求め、Earth Mover’s Distanceに基づいて算出する方法などが有効である。   The inter-region similarity calculation unit 3 is a portion that is the similarity of the partial region image with respect to M (M−1) / 2 combinations of all combinations of the received partial region images Pa (i) and Pb (j). The similarity between regions Sab (i, j) is calculated. The calculated similarity Sab (i, j) is output to the effective partial region determination unit 4 and the image similarity calculation unit 6. As a similarity of the partial area image, a color histogram is obtained from the partial area image, a method of calculating based on the difference of the color histogram, a feature amount such as an average, variance, skewness, kurtosis, etc. representing the distribution shape of the color histogram is obtained. A method of calculating from the distance in the feature space, a method of calculating the color signature of the partial area image as a feature amount, and calculating based on the Earth Mover's Distance are effective.

有効部分領域判定部4は、領域間類似度算出部3より部分領域間類似度、Sab(i,j)を受け取ると、有効部分領域判定に用いるパラメータ記憶部5より、有効部分領域判定に用いるパラメータを読み取り、そのパラメータを用いて、M(M−1)/2通りの部分領域の組み合わせの中で有効なペアを検出する。検出したN個の有効部分領域ペアを画像類似度算出部6に出力する。有効部分領域の具体的な検出方法は後述する。   Upon receiving the inter-partial similarity, Sab (i, j) from the inter-region similarity calculation unit 3, the effective partial region determination unit 4 uses the effective partial region determination from the parameter storage unit 5 used for the effective partial region determination. A parameter is read, and a valid pair is detected from among the combinations of M (M-1) / 2 partial areas using the parameter. The detected N effective partial region pairs are output to the image similarity calculation unit 6. A specific method for detecting the effective partial area will be described later.

有効部分領域判定に用いるパラメータ記憶部5は、有効部分領域判定に用いるパラメータを記憶しておき、有効部分領域判定部4からの読み取り要求を受けると、記憶しておいたパラメータを有効部分領域判定部4に出力する。   The parameter storage unit 5 used for the effective partial region determination stores parameters used for the effective partial region determination. Upon receiving a read request from the effective partial region determination unit 4, the stored parameter is determined as the effective partial region determination. Output to part 4.

画像類似度算出部6は、有効部分領域検出部4からN個の有効部分領域ペアを受け取ると、N個の有効部分領域ペアに対する部分領域間類似度Sab(i,j)の平均値を、2つの画像FaとFbとの類似度として算出し、出力する。   When the image similarity calculation unit 6 receives N effective partial region pairs from the effective partial region detection unit 4, the image similarity calculation unit 6 calculates the average value of the partial region similarity Sab (i, j) for the N effective partial region pairs as follows: The similarity between the two images Fa and Fb is calculated and output.

次に、上記の構成における処理手順について説明する。   Next, a processing procedure in the above configuration will be described.

図5は、本発明の一実施の形態における画像処理装置の動作のフローチャートである。   FIG. 5 is a flowchart of the operation of the image processing apparatus according to the embodiment of the present invention.

ステップ201) 画像取得部1において、2つの画像FaとFbを読み込む。   Step 201) The image acquisition unit 1 reads two images Fa and Fb.

ステップ202) 領域分割処理部2において、入力された各画像に対してM個の領域に分割する処理を行う。図6(b)に分割した例を示す。同図は、4×4=16の矩形領域に分割した例である。分割された領域については一時的にメモリ(図示せず)に格納しておくものとする。   Step 202) The area division processing unit 2 performs a process of dividing each input image into M areas. FIG. 6B shows an example of division. The figure shows an example in which the area is divided into 4 × 4 = 16 rectangular areas. The divided areas are temporarily stored in a memory (not shown).

ステップ203) 領域間類似度算出部3において、メモリ(図示せず)から読み出した、画像Faの部分領域画像Pa(i)i=1,2,…Mと、画像Fbの部分領域画像Pb(j)j=1,2,…Mの全ての組み合わせについて領域間類似度Sab(i,j)を算出する。図4(c)に示すように、M(M−1)/2通りの領域間類似度を求めることになる。   Step 203) In the inter-region similarity calculation unit 3, the partial region image Pa (i) i = 1, 2,... M of the image Fa and the partial region image Pb (the image Fb) read from the memory (not shown). j) Interregion similarity Sab (i, j) is calculated for all combinations of j = 1, 2,. As shown in FIG. 4C, M (M-1) / 2 types of similarity between regions are obtained.

ステップ204) 部分領域間類似度Sab(i,j)の大きい順に、画像Faの部分領域と画像Fbの部分領域を重複することなく対応付ける。対応付けの処理は以下の方法で行う。   Step 204) The partial areas of the image Fa and the partial areas of the image Fb are associated with each other in the descending order of the similarity between partial areas Sab (i, j). The association process is performed by the following method.

1) まず、M(M−1)/2通りの部分領域間類似度Sab(i,j)を大きい順に並び替える。   1) First, rearrange M (M-1) / 2 types of similarity Sab (i, j) between partial areas in descending order.

2) 次に、部分領域間類似度Sab(i,j)が最大の領域ペアを検出し、このペアを対応付け済みとする。この領域ペアをPa(ii1)とPb(jj1)とする。   2) Next, an area pair having the maximum similarity between partial areas Sab (i, j) is detected, and this pair is assumed to be associated. Let this region pair be Pa (ii1) and Pb (jj1).

3) そして、Pa(ii1)とPb(jj1)を除く部分領域で、部分領域間類似度Sab(i,j)が最も大きい領域ペアを検出し、このペアを対応付け済みとする。このペアをPa(ii2)とPb(jj2)とする。   3) Then, in a partial area excluding Pa (ii1) and Pb (jj1), a pair of areas having the highest similarity between partial areas Sab (i, j) is detected, and this pair is associated. Let this pair be Pa (ii2) and Pb (jj2).

以下同様の処理を繰り返し、全ての部分領域に対して対応付けを行う。   Thereafter, the same processing is repeated to associate all partial areas.

ステップ205) 有効部分領域検出部4において、ステップ204で対応付けられた部分領域間の類似度が大きいK個のペアについて、領域間類似度の平均uと、標準偏差σを算出する。なお、Kの値については、有効部分領域判定に用いるパラメータ記憶部5から読み出すものとする。   Step 205) The effective partial region detection unit 4 calculates the average u of the similarity between regions and the standard deviation σ for K pairs having a large similarity between the partial regions associated in Step 204. Note that the value of K is read from the parameter storage unit 5 used for effective partial region determination.

ステップ206) 有効部分領域検出部4において、有効部分領域ペアを判定する領域間類似度の閾値を求める。ステップ204で対応付けられた部分領域間の類似度が大きいK個のペアについて、領域間類似度の平均uと標準偏差σを用いて、u−λσを閾値とする。なお、λの値については、類似用意機判定に用いるパラメータ記憶部から読み出す。   Step 206) The effective partial region detection unit 4 obtains a threshold value of the similarity between regions for determining the effective partial region pair. For K pairs having high similarity between the partial areas associated in step 204, u−λσ is set as a threshold value using the average u of the similarity between areas and the standard deviation σ. In addition, about the value of (lambda), it reads from the parameter memory | storage part used for similar preparation machine determination.

ステップ207) 部分領域間類似度が、u−λσ以上の部分領域間ペアを有効部分領域ペアとして検出する。   Step 207) A pair between partial areas whose similarity between partial areas is u−λσ or more is detected as an effective partial area pair.

ステップ208) 画像類似度算出部6において、有効部分領域検出部4で検出された有効部分領域ペアの部分領域間類似度の平均値を画像類似度として算出し、出力する。   Step 208) The image similarity calculation unit 6 calculates and outputs the average value of the similarity between the partial regions of the effective partial region pair detected by the effective partial region detection unit 4 as the image similarity.

なお画像類似度の出力先は、表示装置や記憶装置とする。   Note that the output destination of the image similarity is a display device or a storage device.

また、本発明は、図4に示す各構成要素の機能をプログラムとして構築し、画像処理装置として利用されるコンピュータにインストールして実行させる、または、ネットワークを介して流通させることが可能である。   In addition, according to the present invention, the functions of the components shown in FIG. 4 can be constructed as a program, installed in a computer used as an image processing apparatus, executed, or distributed via a network.

また、構築されたプログラムをハードディスクや、フレキシブルディスク・CD−ROM等の可搬記憶媒体に格納し、コンピュータにインストールする、または、配布することが可能である。   Further, the constructed program can be stored in a portable storage medium such as a hard disk, a flexible disk, or a CD-ROM, and can be installed or distributed in a computer.

なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.

本発明は、2つの画像間の類似性を検出する技術、例えば、ビデオ検索等の技術に適用可能である。   The present invention is applicable to a technique for detecting the similarity between two images, for example, a technique such as video search.

本発明の原理を説明するための図である。It is a figure for demonstrating the principle of this invention. 本発明の原理を説明するための図である。It is a figure for demonstrating the principle of this invention. 本発明の概要を説明するための図である。It is a figure for demonstrating the outline | summary of this invention. 本発明の一実施の形態における画像処理装置の構成図である。1 is a configuration diagram of an image processing apparatus according to an embodiment of the present invention. 本発明の一実施の形態における全体の処理のフローチャートである。It is a flowchart of the whole process in one embodiment of this invention. 本発明の一実施の形態における部分領域の例を説明する図である。It is a figure explaining the example of the partial area | region in one embodiment of this invention.

符号の説明Explanation of symbols

1 画像取得部
2 領域分割手段、領域分割処理部
3 領域間類似度算出手段、領域間類似度算出部
4 有効部分領域検出手段、有効部分領域検出部
5 パラメータ記憶手段、パラメータ記憶部
6 画像類似度算出手段、画像類似度算出部
DESCRIPTION OF SYMBOLS 1 Image acquisition part 2 Area division means, Area division process part 3 Inter-region similarity calculation means, Inter-region similarity calculation part 4 Effective partial area detection means, Effective partial area detection part 5 Parameter storage means, Parameter storage part 6 Image similarity Degree calculation means, image similarity calculation unit

Claims (5)

2つの画像FaとFbが入力されたときに、該画像の類似度を算出する画像処理方法であって、
領域分割手段が、予め設定しておいたルールに基づいて画像をM個の部分領域に分割する領域分割ステップと、
領域間類似度算出手段が、前記領域分割ステップで得られた、前記画像Faを構成するM個の部分領域画像Pa(i)i=1,2,…Mと、前記画像Fbを構成するM個の部分領域画像Pb(j)j=1,2,…,Mの全ての組み合わせに対する部分領域画像の類似度である部分領域間類似度Sab(i,j)を算出する領域間類似度算出ステップと、
有効部分領域検出手段が、前記部分領域画像Pa(i)とPb(j)のM(M−1)/2通りの組み合わせの中で、有効部分領域判定に用いるパラメータが格納されている記憶手段を参照して、有効な部分領域を検出する有効部分領域検出ステップと、
画像類似度算出手段が、前記有効部分領域検出ステップで、有効な部分領域と判定されたN個の部分領域ペアの部分領域間類似度Sab(i,j)から、2つの画像FaとFbとの画像類似度を算出する画像類似度算出ステップと、
を行うことを特徴とする画像処理方法。
An image processing method for calculating the similarity between two images Fa and Fb,
An area dividing step in which the area dividing means divides the image into M partial areas based on a preset rule;
The inter-region similarity calculating means obtains M partial region images Pa (i) i = 1, 2,... M constituting the image Fa and M constituting the image Fb obtained in the region dividing step. Inter-region similarity calculation for calculating the similarity between partial regions Sab (i, j), which is the similarity of partial region images for all combinations of the partial region images Pb (j) j = 1, 2,. Steps,
Storage means in which the effective partial area detecting means stores parameters used for determining the effective partial area among the M (M-1) / 2 combinations of the partial area images Pa (i) and Pb (j). And an effective partial region detection step for detecting an effective partial region,
The image similarity calculation means calculates two images Fa and Fb from the inter-partial region similarity Sab (i, j) of the N partial region pairs determined to be effective partial regions in the effective partial region detection step. An image similarity calculating step for calculating the image similarity of
And an image processing method.
前記有効部分領域検出ステップにおいて、
前記部分領域間類似度Sab(i,j)の大きい順に、前記画像Faの部分領域と前記画像Fbの部分領域を重複することなく対応付けるステップと、
対応付けられたM通りの部分領域ペアの類似度が高いK個のペアに対する領域間類似度の分布から有効な部分領域であると判定する領域間類似度の閾値を求めるステップと、
を行う、請求項1記載の画像処理方法。
In the effective partial region detection step,
Associating the partial areas of the image Fa with the partial areas of the image Fb in the descending order of the similarity between the partial areas Sab (i, j);
Obtaining a threshold value of the similarity between regions determined to be an effective partial region from the distribution of similarity between regions for K pairs having high similarity of the M partial region pairs associated with each other;
The image processing method according to claim 1, wherein:
2つの画像FaとFbが入力されたときに、該画像の類似度を算出する画像処理装置であって、
有効部分領域判定に用いるパラメータを格納したパラメータ記憶手段と、
予め設定しておいたルールに基づいて画像をM個の部分領域に分割する領域分割手段と、
前記領域分割手段で得られた、前記画像Faを構成するM個の部分領域画像Pa(i)i=1,2,…Mと、前記画像Fbを構成するM個の部分領域画像Pb(j)j=1,2,…,Mの全ての組み合わせに対する部分領域画像の類似度である部分領域間類似度Sab(i,j)を算出する領域間類似度算出手段と、
前記部分領域画像Pa(i)とPb(j)のM(M−1)/2通りの組み合わせの中で、前記パラメータ記憶手段を参照して、有効な部分領域を検出する有効部分領域検出手段と、
前記有効部分領域検出手段で、有効な部分領域と判定されたN個の部分領域ペアの部分領域間類似度Sab(i,j)から、2つの画像FaとFbとの画像類似度を算出する画像類似度算出手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus that calculates the similarity between two images Fa and Fb,
Parameter storage means for storing parameters used for determining the effective partial area;
Area dividing means for dividing the image into M partial areas based on a preset rule;
M partial area images Pa (i) i = 1, 2,... M constituting the image Fa and M partial area images Pb (j) constituting the image Fb obtained by the area dividing means. ) An inter-region similarity calculating means for calculating an inter-region similarity Sab (i, j), which is the similarity of the partial region images for all combinations of j = 1, 2,.
Effective partial area detection means for detecting an effective partial area with reference to the parameter storage means in M (M-1) / 2 combinations of the partial area images Pa (i) and Pb (j) When,
The image similarity between the two images Fa and Fb is calculated from the similarity between partial regions Sab (i, j) of the N partial region pairs determined as effective partial regions by the effective partial region detection means. Image similarity calculation means;
An image processing apparatus comprising:
前記有効部分領域検出手段は、
前記部分領域間類似度Sab(i,j)の大きい順に、前記画像Faの部分領域と前記画像Fbの部分領域を重複することなく対応付ける手段と、
対応付けられたM通りの部分領域ペアの類似度が高いK個のペアに対する領域間類似度の分布から有効な部分領域であると判定する領域間類似度の閾値を求める手段と、
を有する、請求項3記載の画像処理装置。
The effective partial area detecting means includes
Means for associating the partial areas of the image Fa with the partial areas of the image Fb in the descending order of the similarity between the partial areas Sab (i, j);
Means for obtaining a threshold value of similarity between regions determined to be an effective partial region from the distribution of similarity between regions for K pairs having high similarity of the M partial region pairs associated with each other;
The image processing apparatus according to claim 3, further comprising:
コンピュータに、
請求項3または、4記載の画像処理装置の各手段を実行させることを特徴とする画像処理プログラム。
On the computer,
5. An image processing program for causing each means of the image processing apparatus according to claim 3 or 4 to be executed.
JP2006145875A 2006-05-25 2006-05-25 Image processing method, apparatus and program Expired - Fee Related JP4685711B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006145875A JP4685711B2 (en) 2006-05-25 2006-05-25 Image processing method, apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006145875A JP4685711B2 (en) 2006-05-25 2006-05-25 Image processing method, apparatus and program

Publications (2)

Publication Number Publication Date
JP2007316950A true JP2007316950A (en) 2007-12-06
JP4685711B2 JP4685711B2 (en) 2011-05-18

Family

ID=38850754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006145875A Expired - Fee Related JP4685711B2 (en) 2006-05-25 2006-05-25 Image processing method, apparatus and program

Country Status (1)

Country Link
JP (1) JP4685711B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011061905A1 (en) * 2009-11-20 2011-05-26 日本電気株式会社 Object region extraction device, object region extraction method, and computer-readable medium
JP2012108961A (en) * 2008-12-02 2012-06-07 Intel Corp Image recognition algorithm, method for identifying target image by using the same, and method for selecting data to be transmitted to portable electronic device
JP2012243049A (en) * 2011-05-19 2012-12-10 Fuji Heavy Ind Ltd Environment recognition device and environment recognition method
JP2013254367A (en) * 2012-06-07 2013-12-19 Nippon Telegr & Teleph Corp <Ntt> Image retrieval device, image retrieval method, and image retrieval program
JP2016014914A (en) * 2014-06-30 2016-01-28 キヤノン株式会社 Image processor, image processing method and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04299474A (en) * 1991-03-27 1992-10-22 Nec Corp Picture matching system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04299474A (en) * 1991-03-27 1992-10-22 Nec Corp Picture matching system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012108961A (en) * 2008-12-02 2012-06-07 Intel Corp Image recognition algorithm, method for identifying target image by using the same, and method for selecting data to be transmitted to portable electronic device
US8391615B2 (en) 2008-12-02 2013-03-05 Intel Corporation Image recognition algorithm, method of identifying a target image using same, and method of selecting data for transmission to a portable electronic device
WO2011061905A1 (en) * 2009-11-20 2011-05-26 日本電気株式会社 Object region extraction device, object region extraction method, and computer-readable medium
JP2012243049A (en) * 2011-05-19 2012-12-10 Fuji Heavy Ind Ltd Environment recognition device and environment recognition method
JP2013254367A (en) * 2012-06-07 2013-12-19 Nippon Telegr & Teleph Corp <Ntt> Image retrieval device, image retrieval method, and image retrieval program
JP2016014914A (en) * 2014-06-30 2016-01-28 キヤノン株式会社 Image processor, image processing method and program

Also Published As

Publication number Publication date
JP4685711B2 (en) 2011-05-18

Similar Documents

Publication Publication Date Title
US20200007855A1 (en) Stereo Correspondence and Depth Sensors
US10095943B2 (en) Image recognition apparatus
CN108573471B (en) Image processing apparatus, image processing method, and recording medium
US9679221B2 (en) Object identification apparatus, object identification method, and program
JP2018067120A (en) Fingerprint processing apparatus, fingerprint processing method, program and fingerprint processing circuit
US10275682B2 (en) Information processing apparatus, information processing method, and storage medium
JP6642970B2 (en) Attention area detection device, attention area detection method, and program
JP4685711B2 (en) Image processing method, apparatus and program
US20150234782A1 (en) Calculation device and method, and computer program product
US8164633B2 (en) Calibration apparatus and method for imaging devices and computer program
JP5704909B2 (en) Attention area detection method, attention area detection apparatus, and program
JP6786015B1 (en) Motion analysis system and motion analysis program
US10360471B2 (en) Image retrieving device, image retrieving method, and recording medium
CN112308836B (en) Corner detection method and device, electronic equipment and readable storage medium
EP1638038B1 (en) Method of determining an image descriptor, image comparison method, image search method and associated devices
JP2018109824A (en) Electronic control device, electronic control system, and electronic control method
JP6175904B2 (en) Verification target extraction system, verification target extraction method, verification target extraction program
CN107092702B (en) Geographic information element position comparison checking method and device based on overlapping proportion
JP5970512B2 (en) Information processing method, information processing apparatus, and program
JP2014021510A (en) Information processor and information processing method, and, program
JP2019056585A (en) Line width estimation program, device and method
JP5222314B2 (en) Surface measurement method and apparatus
JP7028099B2 (en) Candidate area estimation device, candidate area estimation method, and program
JP6520279B2 (en) Processing device, image processing system, and program
JP4606402B2 (en) Image collation method, apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees