JP2002170122A - Method and program for texture analysis - Google Patents

Method and program for texture analysis

Info

Publication number
JP2002170122A
JP2002170122A JP2001007649A JP2001007649A JP2002170122A JP 2002170122 A JP2002170122 A JP 2002170122A JP 2001007649 A JP2001007649 A JP 2001007649A JP 2001007649 A JP2001007649 A JP 2001007649A JP 2002170122 A JP2002170122 A JP 2002170122A
Authority
JP
Japan
Prior art keywords
texture
block
density
variable
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001007649A
Other languages
Japanese (ja)
Inventor
Kanji Yokogawa
完治 横川
Takashi Onoyama
隆 小野山
Takuya Maekawa
拓也 前川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Original Assignee
Hitachi Software Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd filed Critical Hitachi Software Engineering Co Ltd
Priority to JP2001007649A priority Critical patent/JP2002170122A/en
Publication of JP2002170122A publication Critical patent/JP2002170122A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a texture analyzing method dividing a texture image into domains wherein texture is uniform through the detection of excellent features of a texture identification capability using a density histogram method, while also enabling even color images to be subjected to proper texture analysis. SOLUTION: The distance Dist (A, B) between two textures A and B is defined as the sum of absolute values of differences between densities provided by density histograms. Based on whether or not the distance Dist (A, B) is smaller than a predetermined threshold, a determination is made as to whether the A and B are the same texture, whereby the texture image can be divided into domains. That is, the texture image is divided into appropriately sized blocks in each of which the texture is uniform, so as to produce density histograms. For two sets of blocks, their textures are identified using the density histograms and an assembly of adjacent blocks is extracted as one domain.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、航空写真、衛星画
像、あるいは医用画像などのテクスチャが重要な役割を
する複雑な画像を対象とするテクスチャ解析方法および
プログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a texture analysis method and a program for a complex image in which texture plays an important role, such as an aerial photograph, a satellite image, or a medical image.

【0002】[0002]

【従来の技術】テクスチャとは、画像内で、微視的には
細かな繰返し模様が存在し、巨視的には均一に感じられ
るパターンのことである。テクスチャは、この繰返し模
様とその配置規則とによって規定される。人間は対象物
の区別や同定および奥行き知覚にテクスチャを利用して
いる。航空写真、衛星画像、および医用画像などの各種
の画像を解析する場合、テクスチャに基づいて領域を分
類するなどのためにテクスチャ解析を行う。
2. Description of the Related Art A texture is a pattern in which a fine repetitive pattern exists microscopically in an image and which is uniformly felt macroscopically. The texture is defined by this repeating pattern and its arrangement rules. Humans use texture for object identification and identification and depth perception. When analyzing various images such as aerial photographs, satellite images, and medical images, texture analysis is performed to classify regions based on textures.

【0003】テクスチャには、その要素が比較的抽出し
やすく、要素間の関係として配置規則を捉えやすい構造
的テクスチャと、要素と配置規則による記述が困難であ
り、要素分布の統計量でしかその特徴を記述できない統
計的テクスチャがある。本発明は、後者の統計的テクス
チャを対象とする。
[0003] A texture has a structural texture whose elements are relatively easy to extract and the arrangement rule can be easily understood as a relation between the elements, and a description based on the element and the arrangement rule is difficult. There are statistical textures whose features cannot be described. The present invention is directed to the latter statistical texture.

【0004】画像の分類、領域分割、および対象物の同
定などを目的として、テクスチャ特徴量を数学的に定義
することが多い。最も簡単なテクスチャ特徴は、濃度ヒ
ストグラムおよびそれから導出可能な統計量である。例
えば、濃度ヒストグラムの平均、分散、3次モーメン
ト、4次モーメントなどの統計量で、ある程度のテクス
チャを区別できる。他のテクスチャ特徴には、同時生起
行列、差分統計量、フーリエ特徴、自己回帰モデルなど
がある。しかし、これらのテクスチャ特徴は、濃度ヒス
トグラムを用いるものと比べて、計算が極めて複雑であ
り、多くの場合、実用的なものではない。テクスチャ特
徴およびテクスチャ全般についての知見は、例えば「尾
上守(編):画像処理ハンドブック:昭晃堂(昭和62
年)」などの文献に記述されている。
[0004] Texture features are often mathematically defined for purposes such as image classification, region segmentation, and object identification. The simplest texture features are density histograms and statistics that can be derived therefrom. For example, a certain amount of texture can be distinguished by statistics such as the average, variance, third moment, and fourth moment of the density histogram. Other texture features include co-occurrence matrices, difference statistics, Fourier features, autoregressive models, and the like. However, these texture features are much more complex to compute than those using a density histogram and are often not practical. For information on texture characteristics and textures in general, see, for example, "Mori Onoe (ed.): Image Processing Handbook: Shokodo (Showa 62)
Year) ”.

【0005】[0005]

【発明が解決しようとする課題】濃度ヒストグラムを用
いた従来のテクスチャ特徴は、テクスチャの識別に十分
でない。例えば、二つのテクスチャについて、それぞれ
の濃度ヒストグラムの形状が著しく異なるにもかかわら
ず、それらの平均や分散がほぼ同じであるため、従来の
濃度ヒストグラムを用いた方法では区別のつかないこと
がある。
Conventional texture features using density histograms are not sufficient for texture identification. For example, although the density histograms of two textures have significantly different shapes, their averages and variances are almost the same, so that there is a case where they cannot be distinguished by a conventional method using a density histogram.

【0006】さらに、カラー画像では、カラー数が膨大
になるので、濃度ヒストグラムを用いたテクスチャ解析
方法を直接適用するのが困難である。例えば、カラー画
像の濃度が赤、緑、青の各色の成分についてそれぞれ8b
itである場合、カラー数は2の24乗、すなわち、1677721
6色である。一方、カラー画像のブロックは、通常、数
百のオーダーの画素を含んでいる。このとき、ブロック
に含まれる画素の数に比べてカラー数が膨大であるの
で、各ブロックの濃度ヒストグラムのほとんどの値が0
となり、濃度ヒストグラムの意味がなくなる。衛星画像
のようなマルチスペクトル画像では、さらにカラー数が
多く、この状況はより深刻になる。
Further, in a color image, since the number of colors becomes enormous, it is difficult to directly apply a texture analysis method using a density histogram. For example, the density of a color image is 8b for each component of red, green, and blue.
If it, then the number of colors is 2 to the 24th power, or 1677721
There are six colors. On the other hand, a block of a color image usually contains several hundreds of pixels. At this time, since the number of colors is enormous compared to the number of pixels included in the block, most of the values of the density histogram of each block are 0.
And the meaning of the density histogram is lost. In a multispectral image such as a satellite image, the number of colors is even greater, and this situation becomes more severe.

【0007】そこで、カラー数を数十のオーダーに減ら
す方法が、カラー画像のテクスチャ解析の際、重要な問
題となる。カラー数を減らす一つの方法は色成分の下位
ビットを無視することである。しかし、この方法ではカ
ラー画像のコントラストが強調され過ぎるので、生成さ
れたカラー画像は元のカラー画像とかなり異なったもの
になってしまう。従って、テクスチャ解析に適していな
い。
Therefore, a method of reducing the number of colors to the order of several tens is an important problem in texture analysis of a color image. One way to reduce the number of colors is to ignore the lower bits of the color components. However, in this method, the contrast of the color image is excessively emphasized, so that the generated color image is considerably different from the original color image. Therefore, it is not suitable for texture analysis.

【0008】本発明の第1の目的は、従来の濃度ヒスト
グラムを用いた方法の計算効率の良さを保ったまま、よ
りテクスチャ識別能力の優れたテクスチャ特徴を見出
し、テクスチャ画像をテクスチャの一様な領域に分割す
る領域分割に適用することである。また、本発明の第2
の目的は、カラー画像についても、適正なテクスチャ解
析を行なうことができるテクスチャ解析方法およびプロ
グラムを提供することである。
A first object of the present invention is to find a texture feature having a better texture discriminating ability while maintaining the good calculation efficiency of the conventional method using a density histogram, and to form a texture image with a uniform texture. That is, the method is applied to the division into regions. Further, the second aspect of the present invention
An object of the present invention is to provide a texture analysis method and a program capable of performing appropriate texture analysis even for a color image.

【0009】[0009]

【課題を解決するための手段】テクスチャの識別能力を
高めるには、濃度ヒストグラムの形状をより反映したテ
クスチャ特徴が望ましい。単独の濃度ヒストグラムから
計算されるテクスチャ特徴と比べて、二つの濃度ヒスト
グラムの形状の違いを定量化したテクスチャ特徴の方
が、テクスチャの識別に関して、より強力であると考え
られる。
In order to enhance the texture discriminating ability, it is desirable to use a texture feature that more closely reflects the shape of the density histogram. Compared to a texture feature calculated from a single density histogram, a texture feature quantifying the difference in shape between the two density histograms is considered to be more powerful in terms of texture identification.

【0010】本発明は、二つのテクスチャについて、そ
れらの濃度ヒストグラムの各濃度における差の絶対値の
総和で定義されるテクスチャ特徴を用いることを特徴と
する。
The present invention is characterized in that, for two textures, a texture feature defined by the sum of the absolute values of the differences between the densities of the density histograms is used.

【0011】図1の(a)と(b)は、それぞれテクスチャA
とBの濃度ヒストグラムを示す。濃度ヒストグラムの横
軸は画素の濃度を、縦軸は頻度を意味する。図1(c)
は、この二つの濃度ヒストグラムを重ねたもので、黒色
の部分は差を表す。この黒色の部分の面積が本発明のテ
クスチャ特徴に対応する。
FIGS. 1 (a) and 1 (b) show the texture A
2 and B show the density histograms. The horizontal axis of the density histogram indicates the pixel density, and the vertical axis indicates the frequency. Fig. 1 (c)
Is obtained by superimposing the two density histograms, and the black portion indicates the difference. The area of this black portion corresponds to the texture feature of the present invention.

【0012】より正確に言うと、二つのテクスチャAとB
に対し、それぞれの濃度ヒストグラムをfA(k)とfB(k)と
する。ここで、kは0〜Nの値をとる濃度を示す。テクス
チャAとBの間の距離Dist(A, B)を以下の数1で定義す
る。
More precisely, two textures A and B
In contrast, let the respective density histograms be f A (k) and f B (k). Here, k indicates a density having a value of 0 to N. The distance Dist (A, B) between the textures A and B is defined by the following equation (1).

【0013】[0013]

【数1】 (Equation 1)

【0014】なお、この定義は、濃度kを多次元ベクト
ルに拡張すれば、マルチスペクトル画像の場合にも適用
可能である。
This definition can be applied to a multispectral image if the density k is extended to a multidimensional vector.

【0015】距離Dist(A, B)はテクスチャの識別に役立
つ。例えば、ある閾値Tについて Dist(A, B) < T が成立すれば、AとBは同じテクスチャであると判断でき
る。また、この式が成立しなければ、AとBは異なるテク
スチャであると判断できる。
The distance Dist (A, B) helps to identify the texture. For example, if Dist (A, B) <T holds for a certain threshold T, it can be determined that A and B are the same texture. If this expression does not hold, it can be determined that A and B are different textures.

【0016】上記のテクスチャ識別法を用いて、テクス
チャ画像の領域分割が可能である。距離Distは、テクス
チャの特徴空間の二つの要素間の“距離”を定義すると
考えられる。実際、これが、いわゆる距離の公理を満た
すことは容易に証明できる。したがって、要素間の距離
を測定することにより、特徴空間内にテクスチャのクラ
スタを検出し、クラスタに属す要素を画像空間に逆写像
すれば、(一般に複数個の)一様なテクスチャの領域を
生成することができる。
The texture image can be divided into regions by using the above-described texture identification method. The distance Dist is considered to define the "distance" between two elements in the texture feature space. In fact, it is easy to prove that this satisfies the so-called distance axiom. Therefore, by measuring the distance between the elements, a texture cluster is detected in the feature space, and the elements belonging to the cluster are inversely mapped in the image space to generate a (generally plural) uniform texture region. can do.

【0017】具体的には、以下の手続きで領域分割がで
きる。入力されるテクスチャ画像は十分大きな画像であ
るとする。 (1)テクスチャ画像を、その中ではテクスチャが一様で
ある適当な大きさのブロックに分割して、濃度ヒストグ
ラムを生成する。 (2)二つのブロックの組について、濃度ヒストグラムを
使ってテクスチャを識別し、各ブロックにテクスチャの
グループの番号を割り当てる。 (3)同じグループの番号を持ち、互いに隣接しているブ
ロックの集まりを一つの領域として抽出する。
Specifically, the area can be divided by the following procedure. It is assumed that the input texture image is a sufficiently large image. (1) A density image is generated by dividing a texture image into blocks of an appropriate size in which the texture is uniform. (2) For two sets of blocks, the texture is identified using the density histogram, and the number of the texture group is assigned to each block. (3) A group of blocks having the same group number and adjacent to each other is extracted as one region.

【0018】白黒画像では、上記のテクスチャ解析方法
を用いて良好な結果が得られる。しかし、発明が解決し
ようとする課題の欄でも述べたように、カラー画像を解
析する場合は、カラー数を減らす必要がある。本発明
は、カラー数を効果的に減らす方法としてベクトル量子
化を適用したことを特徴とする。一般に、ベクトル量子
化はベクトルの集合からベクトルの有限集合への写像で
ある。本発明では、カラー画像の各画素の濃度を一つの
ベクトルとみなし、濃度の色成分をベクトルの成分に対
応させる。ベクトル量子化についての知見は、例えば
「Gersho A. and Gray R. M. 著、田崎三郎 他 訳:ベ
クトル量子化と情報圧縮:コロナ社(1998)」などに記
述されている。
For black and white images, good results are obtained using the above-described texture analysis method. However, as described in the section of the problem to be solved by the invention, when analyzing a color image, it is necessary to reduce the number of colors. The present invention is characterized in that vector quantization is applied as a method for effectively reducing the number of colors. In general, vector quantization is a mapping from a set of vectors to a finite set of vectors. In the present invention, the density of each pixel of a color image is regarded as one vector, and the color component of the density is made to correspond to the vector component. Knowledge on vector quantization is described in, for example, "Gersho A. and Gray RM, Saburo Tazaki et al. Translation: Vector Quantization and Information Compression: Corona (1998)".

【0019】次元数k、大きさNのベクトル量子化器Q
は、k次元ユークリッド空間Rから、符号ベクトルと名づ
けられたN個の出力ベクトルを含む有限集合Cへの写像で
ある。すなわち、これは Q: R → C と表現される。ここに、C = {y1, y2,…,yN}であり、そ
れぞれのi∈I={1,2,…,N}に対してyi∈Rの関係がある。
集合Cは符号帳と呼ばれ、大きさNを持つ。
A vector quantizer Q of dimension k and size N
Is a mapping from a k-dimensional Euclidean space R to a finite set C containing N output vectors named code vectors. That is, this is expressed as Q: R → C. Here, C = {y1, y2,..., YN}, and there is a relationship of yi∈R for each i∈I = {1,2,.
The set C is called a codebook and has a size N.

【0020】すべてのN個の点yiについて、ベクトル量
子化器Qは、RをN個の領域あるいはセルRiに分割する。i
番目のセルは Ri = {x∈R: Q(x) = yi} により定義される。符号化器はRをR1,R2,…,RNのセルに
分割することによって完全に規定され、復号化器は符号
帳C={y1, y2,…,yN}によって完全に規定される。
For all N points yi, vector quantizer Q divides R into N regions or cells Ri. i
The second cell is defined by Ri = {x∈R: Q (x) = yi}. The encoder is completely defined by dividing R into cells of R1, R2,..., RN, and the decoder is fully defined by the codebook C = {y1, y2,.

【0021】まず、固定された復号化器に対する符号化
器の最適化を考える。d(x, y)を空間R上のひずみ測度と
呼ばれる非負の関数とする。与えられた符号帳に対し
て、最適な分割とは、次の最近傍条件を満たす分割をい
う。 Ri = {x: d(x, yi) ≦ d(x, yj); すべてのj} すなわち Q(x) = yi; ただしd(x, yi) ≦ d(x, yj) すべてのj
First, consider the optimization of an encoder for a fixed decoder. Let d (x, y) be a non-negative function called a strain measure in space R. For a given codebook, the optimal division is a division that satisfies the following nearest neighbor condition. Ri = {x: d (x, yi) ≤ d (x, yj); all j} ie Q (x) = yi; where d (x, yi) ≤ d (x, yj) all j

【0022】このことにより、復号化器が与えられれ
ば、符号化器は最小のひずみでもって、あるいは最近傍
でもって写像を行う。
Thus, given a decoder, the encoder maps with minimal distortion or with the nearest neighbor.

【0023】逆に、固定された符号化器に対する復号化
器の最適化を考える。言い換えれば、与えられた分割に
対する符号帳の最適性を考察するということである。こ
れは、各分割領域と結び付いている符号ベクトルを規定
するためのセントロイド条件を導くものである。集合R
のセントロイドcent(R)は下記のように定義される。
Conversely, consider the optimization of the decoder for a fixed encoder. In other words, consider the optimality of the codebook for a given partition. This leads to a centroid condition for defining a code vector associated with each divided region. Set R
Is defined as follows:

【0024】まず、R内の点Xが与えられたとき、Xの確
率分布全体にわたって平均された符号ベクトルyをR内の
点Xとの間のひずみを最小にするyとして定義する。
First, given a point X in R, a code vector y averaged over the entire probability distribution of X is defined as y which minimizes distortion between the point X and R.

【0025】[0025]

【数2】 (Equation 2)

【0026】ひずみ測度dが2乗誤差ひずみ測度(ユーク
リッド距離を2乗したもの)である場合、 cent(R) = E[X|X∈R] となる。
If the strain measure d is a square error strain measure (the square of the Euclidean distance), then cent (R) = E [X | X∈R].

【0027】有限集合R = {xi: i = 1, 2, …, ||R||}
の場合に関しても、上式のセントロイドの定義はなお適
用可能である。ここで、||R||は集合R内の要素数であ
る。したがって、ひずみ測度dが2乗誤差ひずみ測度であ
り、Rの中の各点xiが等確率を持つ場合、セントロイド
は算術平均となる。すなわち、
The finite set R = {xi: i = 1, 2,…, || R ||}
In the case of, the definition of centroid in the above equation is still applicable. Here, || R || is the number of elements in the set R. Therefore, if the distortion measure d is a square error distortion measure and each point xi in R has equal probability, the centroid is the arithmetic mean. That is,

【0028】[0028]

【数3】 (Equation 3)

【0029】である。Is as follows.

【0030】与えられた分割 {Ri; i = 1, …, N}に対
して、最適な符号帳とは、次のセントロイド条件を満た
す符号帳をいう。
For a given division {Ri; i = 1,..., N}, the optimal codebook is a codebook satisfying the following centroid condition.

【0031】yi = cent(Ri)Yi = cent (Ri)

【0032】最適性のための必要条件である最近傍条件
とセントロイド条件を同時に満足する符号帳に収束する
繰返し符号帳改良アルゴリズムは、以下のようになる。 (1)初期符号帳C1でもって始める。m = 1と置く。 (2)与えられた符号帳Cmに対して、最近傍条件を用い
て、最適分割を見つける。 (3)与えられた分割に対して、セントロイド条件を用い
て、最適符号帳Cm+1を見つける。 (4)Cm+1に対して平均ひずみを計算する。もしひずみの
変化が十分小さければ、終了する。さもなければ、m+1
→ mとして、(2)へゆく。
An iterative codebook improvement algorithm that converges to a codebook that simultaneously satisfies the nearest neighbor condition and the centroid condition, which are necessary conditions for optimality, is as follows. (1) Start with the initial codebook C1. Set m = 1. (2) For the given codebook Cm, find the optimal partition using the nearest neighbor condition. (3) For the given division, find the optimal codebook Cm + 1 using the centroid condition. (4) Calculate the average strain for Cm + 1. If the change in strain is sufficiently small, the process ends. Otherwise, m + 1
→ As m, go to (2).

【0033】[0033]

【発明の実施の形態】以下、図面を用いて本発明の実施
の形態を説明する。ここでは、本発明の一実施形態とし
て、テクスチャ特徴を用いたテクスチャ画像の領域分割
について説明する。
Embodiments of the present invention will be described below with reference to the drawings. Here, as one embodiment of the present invention, a region division of a texture image using a texture feature will be described.

【0034】図2は、本発明の第1の実施形態のハード
ウェアシステムのブロック図である。このハードウェア
システムは、入力装置、出力装置、処理装置、および記
憶装置を備えている。入力装置として、キーボード20
1がシステムに結合している。キーボード201は、パ
ラメータの入力やコマンドの起動などに使われる。出力
装置として、ディスプレイ206がシステムに結合して
いる。ディスプレイ206は、テクスチャ画像、および
テクスチャのグループ分類結果や領域分割結果などの表
示に使われる。処理装置202は、濃度ヒストグラムを
生成するモジュール203とテクスチャを識別して分類
するモジュール204と領域に分割するモジュール20
5とを含む。記憶装置207は、テクスチャ画像208
とモジュール203が生成する濃度ヒストグラム209
とモジュール204が生成するテクスチャの分類結果2
10とモジュール205が生成する領域分割の結果21
1などを記憶する。
FIG. 2 is a block diagram of the hardware system according to the first embodiment of the present invention. This hardware system includes an input device, an output device, a processing device, and a storage device. As an input device, a keyboard 20
1 is coupled to the system. The keyboard 201 is used for inputting parameters, starting commands, and the like. As an output device, a display 206 is coupled to the system. The display 206 is used to display texture images, texture group classification results, region division results, and the like. The processing device 202 includes a module 203 for generating a density histogram, a module 204 for identifying and classifying a texture, and a module 20 for dividing into regions.
5 is included. The storage device 207 stores the texture image 208
And the density histogram 209 generated by the module 203
And the classification result 2 of the texture generated by the module 204
10 and the result 21 of the area division generated by the module 205
1 and the like are stored.

【0035】次に、本第1の実施形態で使われる主な記
号を説明する。図3は、画像imgをブロック分割した例
を表す。各ブロック(図3の各矩形)は、画素を単位と
してbSize * bSizeの大きさである。ここで"*"は積を示
す。ブロックは左から右に、上から下への順に0から始
まる通し番号iを付けられている。図3ではi = 0〜15で
ある。ブロックを単位としたブロックiの横方向の座標X
と縦方向の座標Yには次の関係がある。
Next, main symbols used in the first embodiment will be described. FIG. 3 shows an example in which the image img is divided into blocks. Each block (each rectangle in FIG. 3) has a size of bSize * bSize in units of pixels. Here, "*" indicates a product. The blocks are numbered sequentially from left to right, starting at 0, from top to bottom. In FIG. 3, i = 0 to 15. Horizontal coordinate X of block i in block units
And the vertical coordinate Y have the following relationship.

【0036】X = i % Col Y = i / ColX = i% Col Y = i / Col

【0037】ここで、"%"は除算の余り、"/"は除算の商
を示し、Colはブロックの列数である。また、Rowをブロ
ックの行数とすると、画像に含まれるブロックの数Size
は Size = Col * Row となる。f[i][k]は、ブロックiにおける濃度ヒストグラ
ムの濃度kの画素の個数を示す。上記の数1で定義した
通り、Dist(i, j)は、ブロックiとブロックjの間の距離
を示す。group[i]の値は、その値が正の整数であると
き、ブロックiが属するテクスチャのグループの番号を
示す。また、その値が0であるとき、ブロックiが属する
テクスチャのグループが未定であること、またはブロッ
クiは他のどのブロックとも所定の距離以上離れていて
グループ化できず単独で一つの領域になっていることを
示す。テクスチャのグループとは、所定の閾値より小さ
い距離内にある二つ以上のブロックを一つのグループに
分類するものである。
Here, "%" indicates the remainder of the division, "/" indicates the quotient of the division, and Col indicates the number of columns in the block. If Row is the number of blocks, the number of blocks included in the image
Becomes Size = Col * Row. f [i] [k] indicates the number of pixels of density k in the density histogram in block i. As defined in Equation 1 above, Dist (i, j) indicates the distance between block i and block j. When the value of group [i] is a positive integer, it indicates the number of the texture group to which block i belongs. When the value is 0, the texture group to which the block i belongs is undecided, or the block i is separated from the other blocks by a predetermined distance or more and cannot be grouped, and becomes a single area alone. To indicate that The texture group is for classifying two or more blocks within a distance smaller than a predetermined threshold into one group.

【0038】図4は、ブロックiの濃度ヒストグラムf
[i][k]を生成するアルゴリズムを表すフローチャートで
ある。まず、ステップ401からステップ404まで
で、f[i][k](kは0〜N)に0を代入して、初期化する。
なお、(式)++は(式) = (式) + 1と同等である。したが
って、k++はk = k + 1と同等である。次に、ステップ4
05と406で、ブロックiの横軸の下限x0と上限x1を
画素単位で設定する。同様に、ステップ407と408
で、ブロックiの縦軸の下限y0と上限y1を画素単位で設
定する。最後に、ステップ409からステップ415ま
でで、ブロックi内の全ての画素(x, y)について、その
濃度img[y][x]を求め、それに対応する濃度ヒストグラ
ムf[i][img[y][x]]の値を一つ増加させる。以上によ
り、ブロックiの濃度ヒストグラムf[i][k]が生成され
る。
FIG. 4 shows the density histogram f of the block i.
5 is a flowchart illustrating an algorithm for generating [i] [k]. First, in steps 401 to 404, 0 is substituted for f [i] [k] (k is 0 to N) to perform initialization.
Note that (expression) ++ is equivalent to (expression) = (expression) +1. Thus, k ++ is equivalent to k = k + 1. Next, step 4
In steps 05 and 406, the lower limit x0 and the upper limit x1 of the horizontal axis of the block i are set in pixel units. Similarly, steps 407 and 408
Then, the lower limit y0 and the upper limit y1 on the vertical axis of the block i are set in pixel units. Finally, in steps 409 to 415, the density img [y] [x] is obtained for all the pixels (x, y) in the block i, and the corresponding density histogram f [i] [img [y ] [x]] is incremented by one. As described above, the density histogram f [i] [k] of the block i is generated.

【0039】図5は、ブロックiとブロックjの間の距離
Dist(i, j)を計算するアルゴリズムを表すフローチャー
トである。ステップ501で、変数vを0にする。ステッ
プ502からステップ505の間で、変数kを0からNま
で変化させながら、変数vにf[i][k] - f[j][k]の絶対値
を加える。なお、(式1) += (式2)は(式1) = (式1) +
(式2)と同等である。また、absは絶対値を返す関数であ
る。以上により、ブロックiとブロックjの間の距離Dist
(i, j)が求められる。
FIG. 5 shows the distance between block i and block j.
It is a flowchart showing the algorithm which calculates Dist (i, j). In step 501, the variable v is set to 0. From step 502 to step 505, the absolute value of f [i] [k] -f [j] [k] is added to the variable v while changing the variable k from 0 to N. (Equation 1) + = (Equation 2) is (Equation 1) = (Equation 1) +
This is equivalent to (Equation 2). Abs is a function that returns an absolute value. From the above, the distance Dist between block i and block j
(i, j) is required.

【0040】図6は、ブロックをテクスチャのグループ
に分けるアルゴリズムを表すフローチャートである。こ
のアルゴリズムでは、テクスチャのグループが未定であ
り、i < jとなるブロックi とブロックjの組を取り出
し、そのテクスチャの同一性を判断する。
FIG. 6 is a flowchart showing an algorithm for dividing blocks into texture groups. In this algorithm, the group of the texture is undecided, and a set of blocks i and j satisfying i <j is extracted, and the identity of the texture is determined.

【0041】まず、ステップ601からステップ604
で、変数iを0からSize - 1まで変化させながら、group
[i]の値を0に初期設定する。次にステップ605で、テ
クスチャのグループの番号を示す変数gnumの値を1に初
期設定する。ステップ606、ステップ607、および
ステップ620により、変数iについてのループを形成
している。ステップ606で、変数iの値を0に設定す
る。ステップ607で、変数iがSize - 1より小さいか
判定する。小さくなければ、変数iについてのループを
抜け出して、処理を終了する。小さければ、ブロックi
についてグループ分けをすべく、ステップ608に進
む。
First, steps 601 to 604
Group variable while changing the variable i from 0 to Size-1.
Initialize the value of [i] to 0. Next, in step 605, the value of a variable gnum indicating the number of the texture group is initialized to 1. Steps 606, 607, and 620 form a loop for the variable i. At step 606, the value of the variable i is set to 0. In step 607, it is determined whether the variable i is smaller than Size-1. If it is not smaller, the process exits the loop for the variable i and ends the processing. If smaller, block i
The process proceeds to step 608 in order to perform grouping on.

【0042】ステップ608で、group[i]が0か判定す
る。0でなければ、既にブロックiが属するテクスチャの
グループの番号group[i]が決まっているということであ
るから、ステップ620に進む。0であれば、未だブロ
ックiの属するグループが決まっていないということで
あるから、グループを決めるべくステップ609に進
む。ステップ609で、変数flagの値を0に設定する。
In step 608, it is determined whether group [i] is 0. If it is not 0, it means that the texture group number group [i] to which the block i belongs has been determined, and the process proceeds to step 620. If it is 0, it means that the group to which the block i belongs has not been determined yet, and the process proceeds to step 609 to determine the group. In step 609, the value of the variable flag is set to 0.

【0043】ステップ610、ステップ611、および
ステップ617により、変数jについてのループを形成
している。ステップ610で、変数jの値をi + 1に設定
する。ステップ611で、変数jがSizeより小さいか判
定する。小さければ、group[j]が0か判定する。0でなけ
れば、ブロックjは既にグループ番号が決まっていると
いうことであるから、ステップ617に進む。ステップ
617では、変数jの値を一つ増やし、変数jに関するル
ープの先頭であるステップ611に戻る。ステップ61
2でgroup[j]が0であれば、ステップ613で、ブロッ
クiとブロックjの間の距離Dist(i, j)を計算し、閾値T
より小さいか判定する。小さくなければ、ステップ61
7に進む。小さければ、ブロックiとブロックjとは同じ
グループにできるから、ステップ614からステップ6
16で、flagの値を1にし、group[i]とgroup[j]にgnum
を代入する。これにより、ブロックiとブロックjに同じ
グループ番号gnumが設定されてグループ化されたことに
なる。flagは、group[i]とgroup[j]に書き込みがあった
ことを示すフラグである。ステップ616の後、ステッ
プ617に進む。
Steps 610, 611, and 617 form a loop for variable j. At step 610, the value of the variable j is set to i + 1. At step 611, it is determined whether the variable j is smaller than Size. If it is smaller, it is determined whether group [j] is 0. If the value is not 0, it means that the group number has already been determined for the block j, and the process proceeds to step 617. In step 617, the value of the variable j is increased by one, and the process returns to step 611, which is the head of the loop related to the variable j. Step 61
If group [j] is 0 in step 2, the distance Dist (i, j) between block i and block j is calculated in step 613, and the threshold T
Determine if smaller than If not, step 61
Go to 7. If it is smaller, block i and block j can be in the same group.
At 16, the value of the flag is set to 1, and gnum is assigned to group [i] and group [j].
Is assigned. As a result, the same group number gnum is set for the block i and the block j, and the blocks are grouped. The flag is a flag indicating that writing has been made to group [i] and group [j]. After step 616, proceed to step 617.

【0044】ステップ611で変数jがSizeより小さく
なければ、変数jについてのループを抜け出し、ステッ
プ618で、flagが1であるか判定する。1であれば、ブ
ロックiおよび他のいくつかのブロックがグループ番号g
numでグループ化された、すなわちグループ番号gnumを
使ったということであるから、ステップ619でgnumの
値を一つ増やし、ステップ620に進む。フラグflagが
1でなければ、直接ステップ620に進む。ステップ6
20では、変数iの値を一つ増やし、変数iに関するルー
プの先頭であるステップ607に戻る。
If it is determined in step 611 that the variable j is not smaller than the size, the process exits the loop for the variable j, and in step 618, it is determined whether or not flag is 1 If 1, block i and some other blocks are group numbers g
Since it is grouped by num, that is, the group number gnum is used, the value of gnum is increased by one in step 619, and the process proceeds to step 620. Flag flag
If not 1, proceed directly to step 620. Step 6
At 20, the value of the variable i is increased by one, and the process returns to the step 607 which is the head of the loop for the variable i.

【0045】図7は、画像をテクスチャが一様な領域に
分割するアルゴリズムを表すフローチャートである。こ
こでは、同じグループのブロックで隣り合っているもの
を探して連結した一つの領域として分類していく処理を
行う。
FIG. 7 is a flowchart showing an algorithm for dividing an image into regions having a uniform texture. Here, processing of searching for adjacent blocks in the same group and classifying them as one connected area is performed.

【0046】まず、ステップ701で、領域を特定する
番号(領域番号)を表す変数rnumを1に初期設定する。
次に、ステップ702で、ブロックの番号を表す変数i
を0に初期設定する。ステップ703で、ブロックiのグ
ループ番号group[i]が-1に等しく、かつ、変数iがSize
より小さいか判定する。ここで値-1はブロックiが既に
処理されていることを示す(後述するステップ707,
716で設定)。ステップ703の判定結果が真である
ならば、ステップ704に進み、変数iの値を一つ増や
して、ステップ703に戻る。ステップ703の判定結
果が真でないならば、ステップ705で、変数iがSize
に等しいか判定する。等しければ、全てのブロックを走
査し終っているので、処理を終了する。
First, in step 701, a variable rnum representing a number (area number) for specifying an area is initialized to 1.
Next, in step 702, a variable i representing a block number
Is initially set to 0. In step 703, the group number group [i] of the block i is equal to -1 and the variable i is equal to Size
Determine if smaller than Here, the value -1 indicates that the block i has already been processed (Step 707 described later,
716). If the decision result in the step 703 is true, the process proceeds to a step 704, in which the value of the variable i is increased by one, and the process returns to the step 703. If the decision result in the step 703 is not true, in a step 705, the variable i is set to Size
Is determined to be equal to If they are equal, all the blocks have been scanned, and the process ends.

【0047】ステップ705で等しくなければ、ステッ
プ706で、group[i]が0に等しいか判定する。ここで
値0はブロックiが単独で一つの領域になっていることを
示す。等しければ、ブロックiを一つの領域として配列r
egionに登録する。具体的には、まずブロックiが処理済
であることを記録するため、ステップ707で、group
[i]に-1を代入する。次に、ステップ708でregion[i]
にrnumを代入する。region[i]の値は、ブロックiが属す
る領域の番号である。最後に、ステップ709で、rnum
の値を一つ増やして、ステップ703に戻る。
If not equal in step 705, it is determined in step 706 whether group [i] is equal to zero. Here, the value 0 indicates that the block i is a single area. If they are equal, array
Register with egion. More specifically, in order to record that block i has been processed, in step 707, group
Substitute [-1] for -1. Next, in step 708, region [i]
Substitute rnum for The value of region [i] is the number of the region to which block i belongs. Finally, at step 709, rnum
Is incremented by one, and the process returns to step 703.

【0048】ステップ706で、group[i]が0に等しく
なければ、ステップ710の「連結成分」処理により、
ブロックiを含む領域を抽出して、配列w1に取り出す。
「連結成分」処理の詳細は後で述べるが、ブロックiと
それに隣接する同グループのブロックを一つの領域とし
て配列w1に取り出す処理を行なうものである。具体的
に、配列w1[j]は、0か1の二値の値を取り、0のときブロ
ックiを含む領域にブロックjが属しないことを、1のと
きブロックiを含む領域にブロックjが属することを、そ
れぞれ示している。ステップ710の後、抽出された領
域を配列regionに登録する処理を行う。まず、ステップ
711で、変数jの値を0に設定する。次に、ステップ7
12で、変数jがSizeより小さいか判定する。小さけれ
ば、ステップ715で、w1[j]が1に等しいか判定する。
等しければ、そのブロックjはブロックiが含まれる領域
に含まれるということであるから、ブロックjが処理済
であることを記録するため、ステップ716で、group
[j]に-1を代入する。次に、ステップ717で、当該ブ
ロックjが領域番号rnumの領域に含まれるブロックであ
ることを示すため、region[j]にrnumを代入する。次
に、ステップ713に進む。また、ステップ715で、
等しくなければ、直接、ステップ713に進む。ステッ
プ713では、変数jの値を一つ増やして、ステップ7
12に戻る。ステップ712で、変数jがSizeより小さ
くなければ、ステップ714に進み、rnumの値を一つ増
やして、ステップ703に戻る。
In step 706, if group [i] is not equal to 0, the "connected component" process in step 710
An area including the block i is extracted and extracted as an array w1.
Although the details of the “connected component” process will be described later, the block i and the block of the same group adjacent thereto are taken out as an area into the array w1. Specifically, the array w1 [j] takes a binary value of 0 or 1, and when 0, indicates that the block j does not belong to the area including the block i. , Respectively. After step 710, processing for registering the extracted region in the array region is performed. First, in step 711, the value of the variable j is set to 0. Next, step 7
At 12, it is determined whether the variable j is smaller than Size. If it is smaller, it is determined in step 715 whether w1 [j] is equal to one.
If they are equal, it means that the block j is included in the area including the block i. Therefore, in order to record that the block j has been processed,
Substitute [j] with -1. Next, in step 717, rnum is substituted into region [j] to indicate that the block j is a block included in the region with the region number rnum. Next, the process proceeds to step 713. Also, in step 715,
If not equal, proceed directly to step 713. In step 713, the value of the variable j is increased by one,
Return to 12. In step 712, if the variable j is not smaller than Size, the process proceeds to step 714, the value of rnum is increased by one, and the process returns to step 703.

【0049】図8は、図7のステップ710「連結成
分」処理の詳細である。すなわち、ブロックiを含む領
域を抽出するアルゴリズムを表すフローチャートであ
る。まずステップ801からステップ805までで、配
列w1とw2の要素に0を代入して、初期化する。次に、ス
テップ806で、w1[i]の値を1に設定する。さらに、ス
テップ807で、変数cnt1に1を代入する。変数cnt1
は、値1を持つ配列w1の要素の数を示す。次に、ステッ
プ808で、グループ番号を示す変数gnumにgroup[i]の
値を代入する。
FIG. 8 shows the details of the "connected component" processing in step 710 of FIG. That is, it is a flowchart showing an algorithm for extracting a region including a block i. First, in steps 801 to 805, 0 is assigned to the elements of the arrays w1 and w2 to initialize them. Next, in step 806, the value of w1 [i] is set to 1. Further, at step 807, 1 is substituted for a variable cnt1. Variable cnt1
Indicates the number of elements of the array w1 having the value 1. Next, in step 808, the value of group [i] is substituted for a variable gnum indicating a group number.

【0050】ステップ809からステップ821まで
で、配列w1の要素の値が1であるブロックについて、そ
れ自身と二次元配列としてみたときの上下と左右の合計
五つのブロックに対応する配列w2の要素の値を1にす
る。すなわち、配列w1の領域を周りに一ブロック分だけ
膨らませた領域を配列w2に生成する。そのためには、ま
ずステップ809で、変数jの値を0に設定する。次に、
ステップ810で変数jがSizeより小さいか判定する。
小さくなければ、ステップ822に進む。小さければ、
ステップ812で、w1[j]が1であるか判定する。1でな
ければ、ステップ811に進む。1であれば、ステップ
813に進み、w2[j]の値を1にする。ステップ814
で、X(その定義は後述する)が0でないとき、ステップ
815で、左の要素w2[j - 1]の値を1にする。ステップ
816で、XがCol - 1でないとき、ステップ817で、
右の要素w2[j + 1]の値を1にする。ステップ818で、
Y(その定義は後述する)が0でないとき、ステップ81
9で、上の要素w2[j - Col]の値を1にする。ステップ8
20で、YがRow - 1でないとき、ステップ821で、下
の要素w2[j + Col]の値を1にする。ここで、XとYはそれ
ぞれj % Colとj / Colで定義されていて、ブロックjの
横座標と縦座標を意味する。以上の処理の後、ステップ
811に進み、変数jの値を一つ増やして、ステップ8
10に戻る。
From step 809 to step 821, for a block in which the value of the element of the array w1 is 1, the elements of the array w2 corresponding to a total of five blocks (upper, lower, left and right) when viewed as a two-dimensional array with itself. Set the value to 1. That is, a region obtained by expanding the region of the array w1 by one block around the region is generated in the array w2. For this purpose, first, in step 809, the value of the variable j is set to 0. next,
At step 810, it is determined whether the variable j is smaller than Size.
If not, go to step 822. If small
In step 812, it is determined whether w1 [j] is 1. If not 1, the process proceeds to step 811. If it is 1, the process proceeds to step 813, and the value of w2 [j] is set to 1. Step 814
When X (the definition of which will be described later) is not 0, the value of the left element w2 [j−1] is set to 1 in step 815. In step 816, if X is not Col-1, then in step 817,
Set the value of the right element w2 [j + 1] to 1. At step 818,
If Y (the definition of which will be described later) is not 0, step 81
In step 9, the value of the above element w2 [j-Col] is set to 1. Step 8
If Y is not Row-1 in step 20, the value of the lower element w2 [j + Col] is set to 1 in step 821. Here, X and Y are defined by j% Col and j / Col, respectively, and represent the abscissa and ordinate of block j. After the above processing, the flow advances to step 811 to increase the value of the variable j by one, and
Return to 10.

【0051】ステップ822からステップ828まで
で、配列w2の中にある膨らませた領域から、ブロックi
のテクスチャと異なるテクスチャを持つ要素を削除す
る。まず、ステップ822で、変数cnt2を0に設定す
る。ステップ823で、変数jを0に設定する。ステップ
824で、変数jがSizeより小さいか判定する。小さけ
れば、ステップ826で、ブロックjがブロックiと同じ
テクスチャを持ち(すなわち、グループ番号が同じ)、
かつ、w2[j]が1であるか判定する。真であるならば、ス
テップ827で、変数cnt2の値を一つ増やす。真でない
ならば、ステップ828で、w2[j]を0にする。すなわ
ち、領域からブロックjを削除する。いずれの場合も、
ステップ825に進み、変数jの値を一つ増やし、ステ
ップ824に戻る。ステップ824で、変数jがSizeよ
り小さくなければ、ステップ829に進む。ここで、cn
t2は、値1を持つ配列w2の要素の数になっている。ステ
ップ829で、cnt1がcnt2に等しいか判定して、等しけ
れば、処理を終了する。等しくなければ、ステップ32
0に進む。
In steps 822 to 828, the block i is extracted from the inflated area in the array w2.
Remove elements that have a different texture from the texture of the. First, in step 822, the variable cnt2 is set to 0. At step 823, the variable j is set to 0. At step 824, it is determined whether the variable j is smaller than Size. If so, in step 826, block j has the same texture as block i (ie, the same group number),
Also, it is determined whether w2 [j] is 1. If true, step 827 increments the value of variable cnt2 by one. If not true, step 828 sets w2 [j] to zero. That is, block j is deleted from the area. In either case,
Proceeding to step 825, increment the value of the variable j by one, and return to step 824. In step 824, if the variable j is not smaller than Size, the process proceeds to step 829. Where cn
t2 is the number of elements of the array w2 having the value 1. At step 829, it is determined whether or not cnt1 is equal to cnt2, and if they are equal, the processing is terminated. If not, step 32
Go to 0.

【0052】ステップ830からステップ834まで
で、配列w2を配列w1に複写する。ステップ830で、cn
t1にcnt2の値を代入する。ステップ831で、変数jを0
に設定する。ステップ832で、変数jがSizeより小さ
いか判定する。小さければ、ステップ834でw1[j]にw
2[j]の値を代入する。次に、ステップ833で、変数j
の値を一つ増やし、ステップ832に戻る。ステップ8
32で、変数jがSizeより小さくなければ、ステップ8
09に、進み、再度、領域を膨らませる。
In steps 830 to 834, array w2 is copied to array w1. In step 830, cn
Substitute the value of cnt2 for t1. In step 831, the variable j is set to 0
Set to. In step 832, it is determined whether the variable j is smaller than Size. If smaller, w1 [j] is set to w in step 834.
2 Substitute the value of [j]. Next, in step 833, the variable j
Is incremented by one, and the process returns to step 832. Step 8
32, if the variable j is not smaller than Size, step 8
Go to 09 and inflate the area again.

【0053】図9は、本第1の実施形態のシステムの処
理対象例である航空写真の画像を示す。図10は、図9
の画像を本第1の実施形態のシステムで解析した例を示
す。矩形で囲まれた部分が認識された領域である。
FIG. 9 shows an aerial photograph image which is a processing target example of the system of the first embodiment. FIG.
2 shows an example in which the image of FIG. 1 is analyzed by the system of the first embodiment. The portion surrounded by the rectangle is the recognized area.

【0054】上述した第1の実施形態によれば、白黒画
像については良好な結果が得られる。しかし、発明が解
決しようとする課題の欄で述べたとおり、カラー画像で
は、カラー数が膨大になるので、上述の濃度ヒストグラ
ムを用いたテクスチャ解析方法を直接適用するのが困難
である。そこで、次に説明する第2の実施形態では、ベ
クトル量子化の手法を用いてカラー数を減らす。
According to the first embodiment, good results can be obtained for a black-and-white image. However, as described in the section of the problem to be solved by the invention, in a color image, since the number of colors becomes enormous, it is difficult to directly apply the above-described texture analysis method using the density histogram. Therefore, in the second embodiment described below, the number of colors is reduced by using a vector quantization technique.

【0055】図11は、本発明の第2の実施形態のハー
ドウェアシステムのブロック図である。このハードウェ
アシステムは、入力装置、出力装置、処理装置、および
記憶装置を備えている。入力装置として、キーボード1
101がシステムに結合している。キーボード1101
は、パラメータの入力やコマンドの起動などに使われ
る。出力装置として、ディスプレイ1107がシステム
に結合している。ディスプレイ1107は、テクスチャ
画像、およびテクスチャのグループ分類結果や領域分割
結果などの表示に使われる。処理装置1102は、カラ
ー数を圧縮する(減らす)モジュール1103と濃度ヒ
ストグラムを生成するモジュール1104とテクスチャ
を識別して分類するモジュール1105と領域に分割す
るモジュール1106とを含む。記憶装置1108は、
テクスチャ画像1109とモジュール1104が生成す
る濃度ヒストグラム1110とモジュール1105が生
成するテクスチャの分類結果1111とモジュール11
06が生成する領域分割の結果1112などを記憶す
る。
FIG. 11 is a block diagram of a hardware system according to the second embodiment of the present invention. This hardware system includes an input device, an output device, a processing device, and a storage device. Keyboard 1 as an input device
101 is coupled to the system. Keyboard 1101
Is used for inputting parameters and starting commands. As an output device, a display 1107 is coupled to the system. The display 1107 is used for displaying a texture image, a texture group classification result, a region division result, and the like. The processing device 1102 includes a module 1103 for compressing (reducing) the number of colors, a module 1104 for generating a density histogram, a module 1105 for identifying and classifying textures, and a module 1106 for dividing into regions. The storage device 1108 is
Texture image 1109, density histogram 1110 generated by module 1104, classification result 1111 of texture generated by module 1105, and module 11
06, the result 1112 of the area division generated and the like are stored.

【0056】図12は、図11のカラー圧縮モジュール
1103の詳細を示すフローチャートである。ステップ
1201のinitは、初期符号帳yを生成する。initの処
理の詳細は図13で説明する。ステップ1202のinit
Rは、ポインタの配列R[i]に初期値NULLを設定する。ス
テップ1203のneighborは、最近傍条件により、画素
の集合を符号帳yに基づいてセルRiに分割する。セルRi
に含まれる画素は線型リストに挿入される。その線型リ
ストの先頭をポインタR[i]が指している。ステップ12
04のcentroidは、セントロイド条件により、セルRiか
ら符号帳y[i]を生成する。ステップ1205のdistorti
onは、符号帳yのひずみを計算する。その結果は変数D1
に代入される。
FIG. 12 is a flowchart showing details of the color compression module 1103 of FIG. Init of step 1201 generates an initial codebook y. Details of the init process will be described with reference to FIG. Init of step 1202
R sets an initial value NULL to the pointer array R [i]. The neighbor of step 1203 divides the set of pixels into cells Ri based on the codebook y according to the nearest neighbor condition. Cell Ri
Are inserted into the linear list. The pointer R [i] points to the head of the linear list. Step 12
The centroid of 04 generates a codebook y [i] from the cell Ri according to the centroid condition. Distorti of step 1205
on calculates the distortion of the codebook y. The result is the variable D1
Is assigned to

【0057】ステップ1206からステップ1212は
符号帳改良アルゴリズムの繰返しの部分である。ステッ
プ1206は、ポインタR[i]の指す線型リストを解放す
る。ステップ1207からステップ1209は、ステッ
プ1202からステップ1204までと同じ処理で、符
号帳yを改良する。ステップ1210で、以前のひずみD
1を変数D0に代入する。ステップ1211で、新たに生
成された符号帳yのひずみを計算する。その結果は変数D
1に代入される。ステップ1212でひずみの減少の割
合(D0 - D1) / D0がある閾値を越えているか判断する。
越えていれば、ステップ1206に戻り、処理を繰り返
す。越えていなければ、ステップ1213でカラー画像
の各画素の値を量子化し、ステップ1214でポインタ
R[i]の指す線型リストを解放する。
Steps 1206 to 1212 are the repetitive part of the codebook improvement algorithm. Step 1206 releases the linear list pointed by the pointer R [i]. Steps 1207 to 1209 improve the codebook y by the same processing as steps 1202 to 1204. In step 1210, the previous strain D
Assign 1 to the variable D0. In step 1211, the distortion of the newly generated codebook y is calculated. The result is the variable D
Assigned to 1. In step 1212, it is determined whether or not the rate of decrease in distortion (D0-D1) / D0 exceeds a certain threshold.
If so, the process returns to step 1206 and the process is repeated. If not, the value of each pixel of the color image is quantized in step 1213 and the pointer is
Release the linear list pointed to by R [i].

【0058】図13は、図12中の初期符号帳yを生成
するinitの詳細を示すフローチャートである。変数iは
符号帳yに現在登録しようとしているカラーの符号帳に
おけるインデックスである。まず、ステップ1301で
変数iを0に初期化する。次に、ステップ1302で変
数iが量子化器の大きさnCell(nCellがセルの数すなわ
ち量子化により減らした結果のカラー数を表す)より小
さいか判断する。小さくなければ、処理を終了する。小
さければ、ステップ1303からステップ1307で、
乱数xによってカラー画像の画素img[x]をランダムに選
び、その値をカラーを示す配列変数clrに代入する。こ
こで、変数jはカラーの色成分(赤、緑、青)を表すイ
ンデックスである。なお、img[x]で処理対象の画像img
の中の1つの画素を表し、img[x][j]でその画素img[x]
の色成分jの値を表す。
FIG. 13 is a flowchart showing details of init for generating the initial codebook y in FIG. The variable i is an index in the codebook of the color that is currently registered in the codebook y. First, in step 1301, a variable i is initialized to 0. Next, in step 1302, it is determined whether the variable i is smaller than the quantizer size nCell (nCell represents the number of cells, that is, the number of colors resulting from the quantization). If not, the process ends. If smaller, in steps 1303 to 1307,
A pixel img [x] of the color image is randomly selected by a random number x, and its value is substituted into an array variable clr indicating a color. Here, the variable j is an index representing a color component (red, green, blue) of the color. Note that img [x] is the image to be processed img
Represents one pixel in, and img [x] [j] indicates that pixel img [x]
Represents the value of the color component j.

【0059】次に、ステップ1308からステップ13
16で、カラーclrが既に符号帳yに登録されているかを
調べる。その結果はflagの値で示される。flagが0の場
合、登録されていないことを示し、flagが1の場合、登
録されていることを示す。具体的には、変数kの値を0
からk<iになるまでインクリメントさせながら(ステッ
プ1309,1310,1315)、すべての色成分j
についてclr[j]=y[k][j]となる場合にflagを1にセッ
トする(ステップ1311〜1316)。なお、y[k]
[j]は符号帳yに登録されているカラーを示す配列であ
り、kは符号帳におけるインデックス、jは色成分を表
す。
Next, from step 1308 to step 13
At 16, it is checked whether the color clr has already been registered in the codebook y. The result is indicated by the value of flag. If the flag is 0, it indicates that it has not been registered, and if the flag is 1, it indicates that it has been registered. Specifically, the value of the variable k is set to 0
, While incrementing until k <i (steps 1309, 1310, 1315).
If clr [j] = y [k] [j], the flag is set to 1 (steps 1311 to 1316). Note that y [k]
[j] is an array indicating colors registered in the codebook y, k represents an index in the codebook, and j represents a color component.

【0060】flagが0の場合、ステップ1317から1
318に進み、ステップ1318からステップ1321
でカラーclrを符号帳yに登録し、ステップ1322で変
数iの値を一つ増やし、ステップ1302に戻り、処理
を繰り返す。flagが1の場合、カラーclrを登録せず
に、ステップ1303に戻り、処理を繰り返す。
If the flag is 0, the process proceeds from step 1317 to 1
Proceeding to step 318, steps 1318 to 1321
Registers the color clr in the codebook y, increments the value of the variable i by one in step 1322, returns to step 1302, and repeats the processing. If the flag is 1, the process returns to step 1303 without registering the color clr and repeats the process.

【0061】図14は、図12中の画素の集合をセルRi
に分割するneighborの詳細を示すフローチャートであ
る。ステップ1401で、画素のインデックスxを0に
初期化する。ステップ1402でインデックスxが画像
の大きさSizeより小さいか判断する。小さくなければ、
処理を終了する。小さければ、ステップ1403からス
テップ1411で、画素img[x]と符号帳に登録されてい
るカラーy[i]との間の2乗誤差ひずみ測度distが最小と
なるようなiの値を求め、変数min_iに代入する。なお、
ステップ1403,1407のdist(A,B)はAB間の距離
を表し、具体的にはAとBとで色成分毎の差を求め、それ
らの差の2乗の和を求めるものである。
FIG. 14 shows a set of pixels in FIG.
9 is a flowchart showing details of a neighbor to be divided into the neighbors. In step 1401, a pixel index x is initialized to 0. In step 1402, it is determined whether the index x is smaller than the size of the image. If not small,
The process ends. If it is smaller, in steps 1403 to 1411, a value of i that minimizes the square error distortion measure dist between the pixel img [x] and the color y [i] registered in the codebook is obtained. Assign to the variable min_i. In addition,
In steps 1403 and 1407, dist (A, B) represents the distance between ABs. More specifically, the difference between A and B for each color component is calculated, and the sum of the squares of the differences is calculated.

【0062】次に、ステップ1412からステップ14
15で、ポインタR[min_i]が指す線型リストの先頭にイ
ンデックスxの値を含んだレコードを挿入する。このレ
コードはインデックスxと次のレコードを指すポインタn
extから構成される構造体である。最後に、ステップ1
416でインデックスxの値を一つ増やし、ステップ1
402に戻り、処理を繰り返す。以上により、処理対象
の画像の各画素がいずれかのセルに含まれるようにセル
の分割ができたことになる。
Next, from step 1412 to step 14
At 15, a record including the value of the index x is inserted at the head of the linear list pointed to by the pointer R [min_i]. This record is index x and pointer n to the next record
This is a structure composed of ext. Finally, step 1
In step 416, increment the value of the index x by one,
Returning to step 402, the process is repeated. As described above, the cells can be divided so that each pixel of the image to be processed is included in any of the cells.

【0063】図15は、図12中のセルRiのセントロイ
ドを求めるcentoroidの詳細を示すフローチャートであ
る。ステップ1501で、変数iを0に初期化する。ス
テップ1502で、変数iがセルの数nCellより小さいか
判断する。小さくなければ、処理を終了する。小さけれ
ば、ステップ1503からステップ1506で、配列su
mの各要素を0に初期化する。変数jはカラーの色成分に
対応するインデックスであり、nColorは色成分の数であ
る。ステップ1507からステップ1515で、セルRi
に含まれる画素の個数kを求めるとともに、その画素の
ベクトルとしての和を配列sumに代入する。なお、ステ
ップ1508はセルRiのリストの先頭レコードへのポイ
ンタR[i]をpにセットすることを示す。ステップ151
3は、ポインタpが指すレコードのインデックスxの画素
img[p→x]の色成分jの値をsum[j]に足す処理である。ま
た、ステップ1515は、ポインタpが指すレコードの
次レコードへのポインタnextをpにセットする処理であ
る。ステップ1516からステップ1519で、符号帳
yの符号ベクトルy[i]にsumをkで割った値を代入する。
これにより、各色成分毎の平均値が求められ、符号帳y
に登録されているカラーが書き替えられる。最後に、ス
テップ1520で変数iの値を一つ増やし、ステップ1
502に戻り、処理を繰り返す。
FIG. 15 is a flowchart showing details of the centroid for obtaining the centroid of the cell Ri in FIG. In step 1501, a variable i is initialized to 0. In step 1502, it is determined whether the variable i is smaller than the number of cells nCell. If not, the process ends. If it is smaller, in steps 1503 to 1506, the array su
Initialize each element of m to 0. The variable j is an index corresponding to the color component of the color, and nColor is the number of the color component. In steps 1507 to 1515, the cell Ri
Is obtained, and the sum of the pixels as a vector is substituted into an array sum. Step 1508 indicates that the pointer R [i] to the first record in the list of the cell Ri is set to p. Step 151
3 is the pixel at index x of the record pointed to by pointer p
This is a process of adding the value of the color component j of img [p → x] to sum [j]. Step 1515 is a process of setting the pointer next to the record next to the record indicated by the pointer p to p. In steps 1516 to 1519, the code book
The value obtained by dividing sum by k is substituted into the sign vector y [i] of y.
As a result, the average value of each color component is obtained, and the codebook y
The color registered in is rewritten. Finally, in step 1520, the value of the variable i is increased by one, and
Returning to 502, the process is repeated.

【0064】図16は、図12中の符号帳yのひずみを
計算するdistortionの詳細を示すフローチャートであ
る。まず、ステップ1601で変数sumを0に初期化す
る。このフローチャートは三重のループを含んでいる。
ステップ1602からステップ1612は、セルRiのイ
ンデックスiについてのループを構成している。このル
ープはiを0からセルの数nCellまでインクリメントする
ループであり、その中で、各セルの先頭レコードを指す
ポインタR[i]をpにセットして(ステップ1604)、
次のループに渡している(ステップ1605以降)。ス
テップ1604からステップ1611は、セルRiに含ま
れる画素の線型リストを辿るループを構成している。す
なわち、ポインタpが指すレコードの次レコードポイン
タnextを、新たにポインタpにセットして処理していく
ことにより、線形リストの最後の画素までループさせる
ものである。ステップ1606からステップ1610
は、カラーの色成分のインデックスjについてのループ
を構成している。すなわち、処理対象の画素の各色成分
について、ステップ1608でセルRiに含まれる当該画
素のj成分img[p->x][j]と符号帳に登録されているセルR
iのカラーのj成分y[i][j]の差vを計算し、ステップ16
09で変数sumにvの二乗を足している。最終的に、変数
sumの値をひずみの値としてリターンする。
FIG. 16 is a flowchart showing details of distortion for calculating the distortion of the codebook y in FIG. First, in step 1601, the variable sum is initialized to 0. This flowchart includes a triple loop.
Steps 1602 to 1612 constitute a loop for the index i of the cell Ri. This loop is a loop for incrementing i from 0 to the number of cells nCell, in which a pointer R [i] indicating the first record of each cell is set to p (step 1604),
The processing is passed to the next loop (from step 1605). Steps 1604 to 1611 constitute a loop for tracing the linear list of pixels included in the cell Ri. That is, the next record pointer next of the record pointed by the pointer p is newly set to the pointer p, and the processing is looped until the last pixel of the linear list. Steps 1606 to 1610
Constitutes a loop for the index j of the color component of the color. That is, for each color component of the pixel to be processed, in step 1608, the j component img [p-> x] [j] of the pixel included in the cell Ri and the cell R registered in the codebook
The difference v of the j component y [i] [j] of the i color is calculated, and step 16 is performed.
At 09, the square of v is added to the variable sum. Finally, the variable
Returns sum value as distortion value.

【0065】図17は、図12中の画像の画素を量子化
するquantizationの詳細を示すフローチャートである。
このフローチャートは、図16と同一の三重のループを
含んでいる。ステップ1707で、セルRiに含まれる画
素のj成分img[p->x][j]に符号帳に登録されているセルR
iのカラーのj成分y[i][j]の値を代入している。これに
より、セルRiに含まれるすべての画素の色成分jの値がy
[i][j]に書き替えられ、量子化が行なわれたことにな
る。
FIG. 17 is a flowchart showing details of quantization for quantizing the pixels of the image in FIG.
This flowchart includes the same triple loop as in FIG. In step 1707, the cell R registered in the codebook is stored in the j component img [p-> x] [j] of the pixel included in the cell Ri.
The value of the j component y [i] [j] of the i color is substituted. As a result, the value of the color component j of all the pixels included in the cell Ri becomes y
It is rewritten as [i] [j], which means that quantization has been performed.

【0066】量子化の後は、上述した第1の実施の形態
と同様にして、(1)所定の大きさのブロックごとに、量
子化された各画素の値を用いて濃度ヒストグラムを生成
し、(2)二つのブロックについて、それらの濃度ヒスト
グラムの各濃度における差の絶対値の総和を求めて、前
記二つのブロック間の距離とし、(3)算出した距離が所
定の閾値より小さいか否かで、前記二つのブロックのテ
クスチャの同一性の判断を行い、(4)前記同一性の判断
結果に基づいて、入力画像の各ブロックのテクスチャを
いくつかのグループに分類し、(5)同じテクスチャのグ
ループに分類され、かつ隣接するブロックを、連結した
一つの領域として抽出することができる。これにより、
カラー数が膨大である場合でも、カラー数を減らして、
上記第1の実施の形態のような濃度ヒストグラムを用い
たテクスチャ解析が可能である。
After quantization, in the same manner as in the first embodiment, (1) a density histogram is generated for each block of a predetermined size using the quantized pixel values. (2) For the two blocks, obtain the sum of the absolute values of the differences in the respective densities of the density histograms, determine the distance between the two blocks, and (3) determine whether the calculated distance is smaller than a predetermined threshold. In the above, the identity of the texture of the two blocks is determined, (4) based on the determination result of the identity, the texture of each block of the input image is classified into several groups, (5) the same Blocks that are classified into texture groups and that are adjacent can be extracted as one connected area. This allows
Even if the number of colors is huge, reduce the number of colors,
Texture analysis using the density histogram as in the first embodiment is possible.

【0067】[0067]

【発明の効果】以上説明したように、本発明によれば、
二つのテクスチャについて、それらの濃度ヒストグラム
の各濃度における差の絶対値の総和が所定の閾値より小
さいか否かで、テクスチャの同一性の判断を行うように
しているので、識別能力が強力であるとともに、計算量
が少なくて済むという利点がある。したがって、テクス
チャ画像の効率的な領域分割を実現することが可能とな
った。また、解析の対象がカラー画像である場合でも、
ベクトル量子化を使ってカラー数を減らすことにより、
濃度ヒストグラムを用いたテクスチャ解析方法が、カラ
ー画像においても適用可能である。
As described above, according to the present invention,
For two textures, it is determined whether or not the sum of the absolute values of the differences between the densities of the density histograms is smaller than a predetermined threshold. In addition, there is an advantage that the amount of calculation is small. Therefore, efficient area division of the texture image can be realized. Also, even if the analysis target is a color image,
By using vector quantization to reduce the number of colors,
The texture analysis method using the density histogram can be applied to a color image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係るテクスチャ解析の特徴を説明する
FIG. 1 is a diagram illustrating characteristics of texture analysis according to the present invention.

【図2】本発明の第1の実施形態のハードウェアシステ
ムのブロック図
FIG. 2 is a block diagram of a hardware system according to the first embodiment of this invention;

【図3】画像のブロック分割とブロックの番号の振り方
を示す図
FIG. 3 is a diagram showing how an image is divided into blocks and how block numbers are assigned;

【図4】ブロックiの濃度ヒストグラムf[i][k]を生成す
るアルゴリズムを表すフローチャート図
FIG. 4 is a flowchart illustrating an algorithm for generating a density histogram f [i] [k] of a block i.

【図5】ブロックiとブロックjの間の距離Dist(i, j)を
計算するアルゴリズムを表すフローチャート図
FIG. 5 is a flowchart illustrating an algorithm for calculating a distance Dist (i, j) between a block i and a block j.

【図6】ブロックをテクスチャのグループに分けるアル
ゴリズムを表すフローチャート図
FIG. 6 is a flowchart illustrating an algorithm for dividing blocks into texture groups.

【図7】画像をテクスチャが一様な領域に分割するアル
ゴリズムを表すフローチャート図
FIG. 7 is a flowchart illustrating an algorithm for dividing an image into regions having uniform textures.

【図8】図7のステップ710「連結成分」の詳細のア
ルゴリズムを表すフローチャート図
FIG. 8 is a flowchart showing a detailed algorithm of step 710 “connected component” in FIG. 7;

【図9】本実施形態のシステムの処理対象の航空写真の
画像例を示す図
FIG. 9 is a view showing an example of an image of an aerial photograph to be processed by the system according to the embodiment;

【図10】図9の画像を本実施形態のシステムで解析し
た例を示す図
FIG. 10 is a diagram showing an example in which the image of FIG. 9 is analyzed by the system of the present embodiment.

【図11】本発明の第2の実施形態のハードウェアシス
テムのブロック図
FIG. 11 is a block diagram of a hardware system according to a second embodiment of the present invention;

【図12】カラー数を圧縮するアルゴリズムを表すフロ
ーチャート図
FIG. 12 is a flowchart illustrating an algorithm for compressing the number of colors.

【図13】初期符号帳yを生成するアルゴリズムを表す
フローチャート図
FIG. 13 is a flowchart showing an algorithm for generating an initial codebook y.

【図14】画素の集合をセルRiに分割するアルゴリズム
を表すフローチャート図
FIG. 14 is a flowchart illustrating an algorithm for dividing a set of pixels into cells Ri.

【図15】セルRiのセントロイドを求めるアルゴリズム
を表すフローチャート図
FIG. 15 is a flowchart showing an algorithm for obtaining a centroid of a cell Ri.

【図16】符号帳yのひずみを計算するアルゴリズムを
表すフローチャート図
FIG. 16 is a flowchart showing an algorithm for calculating the distortion of the codebook y.

【図17】画像の画素を量子化するアルゴリズムを表す
フローチャート図
FIG. 17 is a flowchart illustrating an algorithm for quantizing pixels of an image.

【符号の説明】[Explanation of symbols]

201,1101…キーボード、202,1102…処
理装置、203,1104…濃度ヒストグラムを生成す
るモジュール、204,1105…テクスチャを識別し
て分類するモジュール、205,1106…領域に分割
するモジュール、206,1107…ディスプレイ、2
07,1108…記憶装置、1103…カラー数を圧縮
するモジュール。
201, 1101 Keyboard, 202, 1102 Processing device, 203, 1104 Module for generating density histogram, 204, 1105 Module for identifying and classifying texture, 205, 1106 Module for dividing into regions, 206, 1107 ... display, 2
07, 1108: Storage device, 1103: Module for compressing the number of colors.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 小野山 隆 神奈川県横浜市中区尾上町6丁目81番地 日立ソフトウエアエンジニアリング株式会 社内 (72)発明者 前川 拓也 神奈川県横浜市中区尾上町6丁目81番地 日立ソフトウエアエンジニアリング株式会 社内 Fターム(参考) 5L096 AA02 AA03 AA06 BA06 BA08 FA01 FA37 FA39 FA41 GA19 JA03  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Takashi Onoyama 6-81 Onoecho, Naka-ku, Yokohama-shi, Kanagawa Prefecture In-house Hitachi Software Engineering Co., Ltd. 81 Hitachi Software Engineering Co., Ltd. In-house F-term (reference) 5L096 AA02 AA03 AA06 BA06 BA08 FA01 FA37 FA39 FA41 GA19 JA03

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】入力画像のテクスチャを解析するテクスチ
ャ解析方法であって、 二つのテクスチャについて、それらの濃度ヒストグラム
の各濃度における差の絶対値の総和が所定の閾値より小
さいか否かで、テクスチャの同一性の判断を行うことを
特徴とするテクスチャ解析方法。
1. A texture analysis method for analyzing a texture of an input image, comprising the steps of: determining whether a sum of absolute values of differences between respective densities of density histograms of two textures is smaller than a predetermined threshold value; A texture analysis method characterized by determining the identity of a texture.
【請求項2】入力画像のテクスチャを解析するテクスチ
ャ解析方法であって、 入力画像を所定の大きさのブロックに細分し、各ブロッ
クごとに濃度ヒストグラムを生成する濃度ヒストグラム
生成ステップと、 二つのブロックについて、それらの濃度ヒストグラムの
各濃度における差の絶対値の総和を求めて、前記二つの
ブロック間の距離と定義する距離算出ステップと、 算出した距離が所定の閾値より小さいか否かで、前記二
つのブロックのテクスチャの同一性の判断を行う同一性
判断ステップと、 前記同一性の判断結果に基づいて、入力画像の各ブロッ
クのテクスチャをいくつかのグループに分類するテクス
チャ識別ステップと、 同じテクスチャのグループに分類され、かつ隣接するブ
ロックを、連結した一つの領域として抽出する領域分割
ステップとを備えたことを特徴とするテクスチャ解析方
法。
2. A texture analysis method for analyzing a texture of an input image, comprising: a density histogram generation step of subdividing the input image into blocks of a predetermined size and generating a density histogram for each block; Calculating the sum of the absolute values of the differences between the densities of the density histograms, and defining the distance as the distance between the two blocks; and determining whether the calculated distance is smaller than a predetermined threshold. An identity determination step of determining the identity of the textures of the two blocks; a texture identification step of classifying the texture of each block of the input image into several groups based on the determination result of the identity; Area that is classified as a group and that extracts adjacent blocks as one connected area Texture analysis method characterized by comprising a division step.
【請求項3】請求項1または2に記載のテクスチャ解析
方法において、 前記入力画像がカラー画像であるとき、該カラー画像の
各画素の濃度を一つのベクトルとみなし濃度の色成分を
ベクトルの成分に対応させて、ベクトル量子化を行なう
ことにより、カラー数を減らし、該量子化された結果を
用いて前記濃度ヒストグラムを生成することを特徴とす
るテクスチャ解析方法。
3. The texture analysis method according to claim 1, wherein when the input image is a color image, the density of each pixel of the color image is regarded as one vector, and the color component of the density is a vector component. A texture analysis method, wherein the number of colors is reduced by performing vector quantization in correspondence with the above, and the density histogram is generated using the quantized result.
【請求項4】請求項1から3の何れか1つに記載のテク
スチャ解析方法に係るテクスチャ解析プログラム。
4. A texture analysis program according to a texture analysis method according to claim 1.
JP2001007649A 2000-09-20 2001-01-16 Method and program for texture analysis Pending JP2002170122A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001007649A JP2002170122A (en) 2000-09-20 2001-01-16 Method and program for texture analysis

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-284477 2000-09-20
JP2000284477 2000-09-20
JP2001007649A JP2002170122A (en) 2000-09-20 2001-01-16 Method and program for texture analysis

Publications (1)

Publication Number Publication Date
JP2002170122A true JP2002170122A (en) 2002-06-14

Family

ID=26600290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001007649A Pending JP2002170122A (en) 2000-09-20 2001-01-16 Method and program for texture analysis

Country Status (1)

Country Link
JP (1) JP2002170122A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040033767A (en) * 2002-10-15 2004-04-28 케이투아이엠에스 Korean news title auto abstraction method by Korean image character recognition function
JP2006505782A (en) * 2002-11-12 2006-02-16 キネティック リミテッド Image analysis
JP2011508323A (en) * 2007-12-24 2011-03-10 マイクロソフト コーポレーション Permanent visual scene and object recognition
EP2528040A2 (en) 2011-05-25 2012-11-28 Fujifilm Corporation Analysis of corresponding radiographies
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
CN109840914A (en) * 2019-02-28 2019-06-04 华南理工大学 A kind of Texture Segmentation Methods based on user's interactive mode
CN110766699A (en) * 2019-07-22 2020-02-07 中南大学 Texture feature measurement method based on Euclidean distance judgment

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040033767A (en) * 2002-10-15 2004-04-28 케이투아이엠에스 Korean news title auto abstraction method by Korean image character recognition function
JP2006505782A (en) * 2002-11-12 2006-02-16 キネティック リミテッド Image analysis
JP2011508323A (en) * 2007-12-24 2011-03-10 マイクロソフト コーポレーション Permanent visual scene and object recognition
KR101548928B1 (en) * 2007-12-24 2015-09-02 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Invariant visual scene and object recognition
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US9619561B2 (en) 2011-02-14 2017-04-11 Microsoft Technology Licensing, Llc Change invariant scene recognition by an agent
EP2528040A2 (en) 2011-05-25 2012-11-28 Fujifilm Corporation Analysis of corresponding radiographies
US9123108B2 (en) 2011-05-25 2015-09-01 Fujifilm Corporation Image processing device, radiographic image capture system, image processing method, and image processing storage medium
CN109840914A (en) * 2019-02-28 2019-06-04 华南理工大学 A kind of Texture Segmentation Methods based on user's interactive mode
CN109840914B (en) * 2019-02-28 2022-12-16 华南理工大学 Texture segmentation method based on user interaction
CN110766699A (en) * 2019-07-22 2020-02-07 中南大学 Texture feature measurement method based on Euclidean distance judgment
CN110766699B (en) * 2019-07-22 2022-03-15 中南大学 Texture feature measurement method based on Euclidean distance judgment

Similar Documents

Publication Publication Date Title
JP3740065B2 (en) Object extraction device and method based on region feature value matching of region-divided video
Celebi Improving the performance of k-means for color quantization
CN109840556B (en) Image classification and identification method based on twin network
JP4732660B2 (en) Visual attention system
CN110334762B (en) Feature matching method based on quad tree combined with ORB and SIFT
JP5567448B2 (en) Image area dividing apparatus, image area dividing method, and image area dividing program
CN110796038B (en) Hyperspectral remote sensing image classification method combined with rapid region growing superpixel segmentation
CN114170418B (en) Multi-feature fusion image retrieval method for automobile harness connector by means of graph searching
Oliva et al. Multilevel thresholding by fuzzy type II sets using evolutionary algorithms
US6853374B2 (en) Image space display method and apparatus
CN111179270A (en) Image co-segmentation method and device based on attention mechanism
Reta et al. Color uniformity descriptor: An efficient contextual color representation for image indexing and retrieval
CN109785283B (en) Texture feature matching method and device for fabric segmentation
Celebi An Effective Color Quantization Method Based on the Competitive Learning Paradigm.
JP5464739B2 (en) Image area dividing apparatus, image area dividing method, and image area dividing program
CN111414958A (en) Multi-feature image classification method and system for visual word bag pyramid
JP2002170122A (en) Method and program for texture analysis
CN107085725B (en) Method for clustering image areas through LLC based on self-adaptive codebook
Yi et al. Content-sensitive supervoxels via uniform tessellations on video manifolds
CN109299295B (en) Blue printing layout database searching method
CN111539966A (en) Colorimetric sensor array image segmentation method based on fuzzy c-means clustering
Chen et al. An improved local descriptor and threshold learning for unsupervised dynamic texture segmentation
Wu et al. A graph based superpixel generation algorithm
JPH08167028A (en) Image processing method
Chang et al. A Robust Color Image Quantization Algorithm Based on Knowledge Reuse of K-Means Clustering Ensemble.

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060410