JP2002117409A - Image processing method and device thereof - Google Patents

Image processing method and device thereof

Info

Publication number
JP2002117409A
JP2002117409A JP2000309829A JP2000309829A JP2002117409A JP 2002117409 A JP2002117409 A JP 2002117409A JP 2000309829 A JP2000309829 A JP 2000309829A JP 2000309829 A JP2000309829 A JP 2000309829A JP 2002117409 A JP2002117409 A JP 2002117409A
Authority
JP
Japan
Prior art keywords
image
background
information
area
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000309829A
Other languages
Japanese (ja)
Inventor
Hideshi Osawa
秀史 大沢
Yasuo Fukuda
康男 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000309829A priority Critical patent/JP2002117409A/en
Publication of JP2002117409A publication Critical patent/JP2002117409A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve a problem that image processing is inefficient because an image is excessively divided and even the background is judged to be an object when performing similar image retrieval by extracting the object by the division of a region by utilizing clustering. SOLUTION: An adjacent relation judging part 13 integrates image data 101 divided by a clustering part 11 and a labeling part 12 based on the adjacent relation. An integrated information generation part 14 generates background mask of an image based on image classification data 102. A background detection part 15 detects a background region from the region integrated based on the background mask and removes it to extract the object.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理方法及びそ
の装置に関し、例えばオブジェクトの輪郭線を画像の特
徴量として、類似画像検索を行う画像処理方法及びその
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and apparatus, for example, an image processing method and apparatus for performing a similar image search using an outline of an object as a feature amount of an image.

【0002】[0002]

【従来の技術】従来、画像からオブジェクトを抽出し、
当該オブジェクトと複数のモデル画像との輪郭線類似度
を判定することによって類似画像検索を行う技術が知ら
れている。
2. Description of the Related Art Conventionally, an object is extracted from an image,
2. Description of the Related Art There is known a technique for performing a similar image search by determining an outline similarity between the object and a plurality of model images.

【0003】オブジェクト抽出方法としては、例えば、
画像に対して所定数のクラスへの分類(クラスタリン
グ)を行うことによって領域分割し、得られた各ラベル
画像を連結する方法がある。例えばRGB8ビットで1
760万色を表現する多値画像に対して色によるクラス
タリングを行う場合、そのクラス数(代表色)として1
0〜50色程度が設定されることが多い。
As an object extraction method, for example,
There is a method of classifying an image into a predetermined number of classes (clustering) to divide the region and connecting the obtained label images. For example, 1 for RGB 8 bits
When performing clustering by color on a multivalued image expressing 7.6 million colors, the number of classes (representative colors) is 1
In many cases, about 0 to 50 colors are set.

【0004】このようなクラスタリングによる画像の領
域分割方式としては、kクラスタリングやマルコフ確率
場を用いた方法など、多くの方法が周知である。
[0004] As a method for dividing an image into regions by such clustering, many methods are known, such as k clustering and a method using a Markov random field.

【0005】[0005]

【発明が解決しようとする課題】一般に1つのオブジェ
クトは、複数の領域の結合によって形成される。従っ
て、領域分割した画像からオブジェクトを抽出するに
は、上述したように、分割した領域を統合する処理が必
要となるが、これは複雑な処理であるために処理速度の
低下要因となっていた。
Generally, one object is formed by combining a plurality of regions. Therefore, in order to extract an object from a region-divided image, as described above, a process of integrating the divided regions is necessary, but this is a complicated process, which has caused a reduction in processing speed. .

【0006】また、クラスタリングによる領域分割方法
においては、画像が過分割されてしまうことによって、
例えば背景までもがオブジェクトの類似検索対象とな
り、非効率的であった。
[0006] In the area division method based on clustering, an image is over-divided.
For example, even the background is a target for similarity search of an object, which is inefficient.

【0007】本発明は上記問題を解決するためになされ
たものであり、オブジェクトの輪郭類似度検索を効率的
に行う画像処理方法及びその装置を提供することを目的
とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problem, and has as its object to provide an image processing method and an apparatus for efficiently searching for an outline similarity of an object.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
の一手段として、本発明の画像処理方法は以下の工程を
備える。
As one means for achieving the above object, the image processing method of the present invention comprises the following steps.

【0009】即ち、画像からオブジェクトを抽出する画
像処理方法であって、前記画像を色情報に基づいて複数
の領域に分割する領域分割工程と、前記分割された複数
の領域をその隣接関係に基づいて統合する統合工程と、
前記画像に関する所定の分類情報に基づいて、前記画像
の背景情報を生成する背景情報生成工程と、該背景情報
に基づいて、前記統合された領域から背景領域を検出す
る背景検出工程と、前記統合領域から前記背景領域を除
去することによってオブジェクトを抽出するオブジェク
ト抽出工程と、を有することを特徴とする。
More specifically, there is provided an image processing method for extracting an object from an image, comprising: an area dividing step of dividing the image into a plurality of areas based on color information; Integration process to integrate
A background information generating step of generating background information of the image based on predetermined classification information related to the image; a background detecting step of detecting a background area from the integrated area based on the background information; An object extraction step of extracting an object by removing the background area from the area.

【0010】[0010]

【発明の実施の形態】以下、本発明に係る一実施形態に
ついて、図面を参照して詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment according to the present invention will be described below in detail with reference to the drawings.

【0011】<第1実施形態> ●システム構成 図1は、オブジェクトの輪郭線を画像の特徴量として、
類似画像検索を行うシステムの構成を示す図である。同
図において、21はモデル画像データベースであり、大
量のモデル画像を蓄積する。28は本実施形態の特徴で
ある領域分割及び統合処理を行うことによって、モデル
画像からオブジェクトを抽出するオブジェクト抽出部で
ある。22は、オブジェクトの輪郭を抽出する輪郭抽出
部である。23は各モデル画像のオブジェクト毎の輪郭
情報を記憶しておく輪郭データベースである。
First Embodiment System Configuration FIG. 1 shows an outline of an object as a feature amount of an image.
FIG. 1 is a diagram illustrating a configuration of a system that performs similar image search. In FIG. 1, reference numeral 21 denotes a model image database, which stores a large amount of model images. An object extraction unit 28 extracts an object from a model image by performing a region division and integration process, which is a feature of the present embodiment. Reference numeral 22 denotes a contour extraction unit that extracts a contour of an object. Reference numeral 23 denotes a contour database that stores contour information for each object of each model image.

【0012】一方、24は、類似画検索を行う例示画像
である。29はオブジェクト抽出部であり、オブジェク
ト抽出部28と同様に、例示画像24に対して領域分割
及び統合処理を行ってオブジェクトを抽出する。25は
輪郭抽出部であり、輪郭抽出部22と同様に、オブジェ
クトの輪郭抽出を行う。
On the other hand, reference numeral 24 denotes an example image for performing a similar image search. Reference numeral 29 denotes an object extraction unit, similar to the object extraction unit 28, which performs region division and integration processing on the example image 24 to extract objects. Reference numeral 25 denotes a contour extraction unit, which extracts a contour of an object, similarly to the contour extraction unit 22.

【0013】26は類似度検出部であり、輪郭データベ
ース23に記憶されたモデル画像の輪郭情報のうち、例
示画像24の輪郭と類似度が高いものを検出し、その結
果を表示部27に表示する。表示方法としては例えば、
検出されたモデル画像名を表示することや、モデル画像
データベース21にアクセスして、検出されたモデル画
像を表示すること、等が考えられる。
Reference numeral 26 denotes a similarity detection unit which detects, from the outline information of the model image stored in the outline database 23, one having a high degree of similarity to the outline of the example image 24, and displays the result on the display unit 27. I do. As a display method, for example,
Displaying the name of the detected model image, accessing the model image database 21 to display the detected model image, and the like can be considered.

【0014】●オブジェクト抽出・輪郭抽出処理 図2は、オブジェクト抽出部28の詳細構成を示すブロ
ック図である。尚、オブジェクト抽出部29も、図2と
同様の構成から成る。以下、同図を参照して、本実施形
態におけるオブジェクト抽出処理、及びオブジェクト毎
の輪郭抽出処理について詳細に説明する。
FIG. 2 is a block diagram showing a detailed configuration of the object extracting unit 28. Note that the object extraction unit 29 also has the same configuration as in FIG. Hereinafter, the object extraction process and the contour extraction process for each object in the present embodiment will be described in detail with reference to FIG.

【0015】オブジェクト抽出部28(29)は、クラ
スタリング部11、ラベリング部12、隣接関係判定部
13と統合情報生成部14、及び背景検出部15からな
る。統合情報生成部14には、背景に関する情報を示す
画像分類データ102が入力されるが、これは例えば、
不図示のユーザインタフェースを介してユーザにより入
力されるか、または所定のデータであっても良い。
The object extracting section 28 (29) comprises a clustering section 11, a labeling section 12, an adjacency determining section 13, an integrated information generating section 14, and a background detecting section 15. Image classification data 102 indicating information about the background is input to the integrated information generation unit 14, which is, for example,
It may be input by a user via a user interface (not shown) or may be predetermined data.

【0016】画像データ101(モデル画像または例示
画像)を構成する画素は、クラスタリング部11におい
て、例えば同色のクラスに分類される。分類されるクラ
ス数は、元の色数(RGB8ビットで1670万色な
ど)に対して、10〜50色である。クラスタリング部
11におけるクラスタリングは、kクラスクリングやマ
ルコフ確率場を用いた方法等、周知の方法によって実現
される。
The pixels constituting the image data 101 (model image or exemplifying image) are classified by the clustering unit 11 into, for example, a class of the same color. The number of classes to be classified is 10 to 50 colors with respect to the original number of colors (for example, 16.7 million colors with 8 bits of RGB). The clustering in the clustering unit 11 is realized by a known method such as a method using k-class cling or a Markov random field.

【0017】12はラベリング部であり、クラスタリン
グ部11におけるクラスタリング結果に基づいて、画素
が連結している部分へのラベル付けを行う。ここでラベ
ル付けられた領域(以下、ラベル領域と称する)が、本
実施形態におけるオブジェクトの最小構成要素となる。
Reference numeral 12 denotes a labeling unit, which labels a portion where pixels are connected based on the clustering result in the clustering unit 11. An area labeled here (hereinafter, referred to as a label area) is a minimum component of the object in the present embodiment.

【0018】ここで、オブジェクトは一般に、複数のラ
ベル領域の結合によって構成されることが多い。そこで
本実施形態においては、隣接関係判定部13で複数のラ
ベル領域の隣接関係を判定することによって、これらを
統合し、サブオブジェクトを生成する。
Here, the object is generally formed by combining a plurality of label areas. Therefore, in the present embodiment, the adjacency determination unit 13 determines the adjacency of a plurality of label areas to integrate them and generate a sub-object.

【0019】図3は、隣接関係判定部13におけるサブ
オブジェクトの生成処理を示すフローチャートである。
本実施形態では、2つのラベル領域が多くの点で接して
おり、かつ平均色が近い場合に、同じグループにあると
判定する。
FIG. 3 is a flowchart showing a sub-object generation process in the adjacency determination section 13.
In the present embodiment, when two label areas are in contact at many points and the average colors are close, it is determined that they are in the same group.

【0020】まずステップS601では、注目ラベル領
域について、これに接するラベル領域を探索して隣接点
の個数を計数する。ステップS602では、計数された
隣接点の数を所定のしきい値T1と比較し、T1よりも
大きい場合はステップS603において該2領域につい
ての平均色の色差を計算する。そしてステップS604
では、計算された色差を所定のしきい値T2と比較し、
T2よりも小さい場合は、注目ラベル領域と探索した隣
接ラベル領域とは同じグループに属すると判断し、ステ
ップS605においてこれら2領域が接続関係にあるこ
とを示すフラグをたてる。
First, in step S601, a label area in contact with the target label area is searched to count the number of adjacent points. In step S602, the counted number of adjacent points is compared with a predetermined threshold value T1, and if it is larger than T1, the color difference of the average color in the two areas is calculated in step S603. And step S604
Then, the calculated color difference is compared with a predetermined threshold T2,
If it is smaller than T2, it is determined that the target label area and the searched adjacent label area belong to the same group, and a flag indicating that these two areas have a connection relation is set in step S605.

【0021】ステップS606では、全てのラベル領域
についての探索が終了したか、即ち、注目ラベル領域に
ついて全ての隣接領域の探索が終了したか、及び、全て
のラベル領域を注目ラベル領域としたかを判定する。探
索が終了したと判定されると、ステップS607におい
て接続フラグに基づき、接続関係にある複数のラベル領
域をグループ化する。このグループが、即ちサブオブジ
ェクトである。
In step S606, it is determined whether the search for all label areas has been completed, that is, whether the search for all adjacent areas has been completed for the target label area and whether all label areas have been set as the target label area. judge. If it is determined that the search has been completed, a plurality of connected label areas are grouped based on the connection flag in step S607. This group is a sub-object.

【0022】ここで、上記従来例でも説明したように、
クラスタリングを利用した領域分割方法においては一般
に、画像が過分割されてしまう傾向がある。例えば、灰
色等の単一の背景色であっても、画像の右端から左端ま
たは上端から下端へ、濃度勾配(グラデーション)があ
る場合には、右端部と左端部,上端部,下端部などが、
同じ背景であるにも関らず別領域として分割されること
がある。このように、濃度勾配(グラデーション)のか
かった背景や動画の背景部分が過分割されることによっ
て、該過分割された背景も個々のオブジェクトと判断さ
れてしまうため、以降のオブジェクトの輪郭抽出処理や
類似度算出処理に支障をきたしてしまう。
Here, as described in the above conventional example,
In the area division method using clustering, generally, an image tends to be over-divided. For example, even with a single background color such as gray, if there is a density gradient (gradation) from the right edge to the left edge or from the upper edge to the lower edge of the image, the right edge and the left edge, the upper edge, the lower edge, etc. ,
In some cases, the area is divided as another area despite the same background. As described above, since the background having the density gradient (gradation) or the background portion of the moving image is over-divided, the over-divided background is also determined as an individual object. Or the similarity calculation process.

【0023】そこで本実施形態においては、統合情報生
成部14で画像分類データ102を用いて領域分割の統
合情報を作成することにより、過分割に起因する問題を
解決する。より具体的な例としては、画像分類データ1
02は背景に関する情報を示し、統合情報生成部14に
おいては画像分類データ102及び画像データ101に
基づき、背景を統合する際に使用されるマスクデータ
(背景マスク)を生成する。
Therefore, in the present embodiment, the problem caused by over-segmentation is solved by creating integrated information for area segmentation using the image classification data 102 in the integrated information generation unit 14. As a more specific example, image classification data 1
Reference numeral 02 denotes information on the background. The integrated information generation unit 14 generates mask data (background mask) used when integrating the background based on the image classification data 102 and the image data 101.

【0024】図4は、統合情報生成部14における背景
マスクの生成方法を説明する図である。この例では、画
像分類データ102として「背景一様なところで撮影さ
れた静物」というデータを想定した場合における、背景
候補画素の検出方法の一例を示している。同図によれ
ば、注目画素を中心としたNxNの矩形領域内におい
て、まず画素値の最大値及び最小値を検出する。そし
て、その差分が小さい、即ち所定値以下である場合に、
該注目画素を背景領域候補とする。この処理を画像デー
タ101の全画素に対して施すことにより、背景マスク
が生成される。
FIG. 4 is a diagram for explaining a method of generating a background mask in the integrated information generating unit 14. In this example, an example of a method of detecting a background candidate pixel when assuming data of "still object photographed in a uniform background" as the image classification data 102 is shown. According to the figure, first, a maximum value and a minimum value of a pixel value are detected in an N × N rectangular area centered on a target pixel. When the difference is small, that is, when the difference is equal to or less than a predetermined value,
The target pixel is set as a background region candidate. By performing this processing on all the pixels of the image data 101, a background mask is generated.

【0025】背景検出部15は、隣接関係判定部13に
おけるラベル領域の統合結果(サブオブジェクト)、及
び統合情報生成部14において生成された背景マスクに
基づいて背景領域を抽出する。
The background detection unit 15 extracts a background region based on the integration result (sub-object) of the label region in the adjacency determination unit 13 and the background mask generated in the integration information generation unit 14.

【0026】図5は、背景検出部15における背景抽出
処理の具体例を示す図である。同図において、31が原
画像であり、32は隣接関係判定部13においてラベル
領域を隣接関係によって統合した結果(サブオブジェク
ト)を示す。サブオブジェクト32においては、背景領
域も複数の領域に分割されている。33は統合情報生成
部14で生成された背景情報(背景マスク)を示し、原
画31が、上述した背景領域候補画素(図中白色部)と
それ以外の画素(図中有色部)とに分類されている。背
景検出部15においては、サブオブジェクト32のう
ち、背景マスク33で示される背景領域候補画素を多く
含んだ領域を、背景領域として判定する。該判定結果の
画像を34に示す。画像34によれば、原画31に対し
てオブジェクト以外の背景領域を略抽出できていること
が分かる。
FIG. 5 is a diagram showing a specific example of the background extraction processing in the background detector 15. In the figure, reference numeral 31 denotes an original image, and reference numeral 32 denotes a result (sub-object) obtained by integrating the label areas by the adjacent relationship in the adjacent relationship determination unit 13. In the sub-object 32, the background area is also divided into a plurality of areas. Reference numeral 33 denotes background information (background mask) generated by the integrated information generation unit 14. The original image 31 is classified into the above-described background region candidate pixels (white portions in the drawing) and other pixels (colored portions in the drawing). Have been. The background detection unit 15 determines an area of the sub-object 32 that includes many background area candidate pixels indicated by the background mask 33 as a background area. The image of the determination result is shown at 34. According to the image 34, it can be seen that the background area other than the object has been substantially extracted from the original image 31.

【0027】背景検出部15においては、検出した背景
領域を隣接関係判定部13から出力されたサブオブジェ
クトから除くことによって、オブジェクト領域を出力す
る。これが、オブジェクト抽出部28(29)における
オブジェクト抽出結果となる。
The background detection section 15 outputs the object area by excluding the detected background area from the sub-objects output from the adjacency determination section 13. This is the object extraction result in the object extraction unit 28 (29).

【0028】輪郭抽出部22(25)においては、オブ
ジェクト抽出部28(29)において抽出されたオブジ
ェクトについて、周知の輪郭抽出処理を施すことによっ
て輪郭データ103を出力する。本実施形態では、オブ
ジェクトの輪郭点座標に対してウェーブレット変換を施
した結果を、輪郭データ103とする。この輪郭データ
103が、モデル画像のものであれば輪郭データベース
23に保持され、例示画像24のものであれば類似度検
出部26に直接提供される。
The contour extraction unit 22 (25) outputs a contour data 103 by subjecting the object extracted by the object extraction unit 28 (29) to a known contour extraction process. In the present embodiment, the result of performing the wavelet transform on the contour point coordinates of the object is defined as contour data 103. If the contour data 103 is for a model image, it is stored in the contour database 23, and if it is for the example image 24, it is directly provided to the similarity detection unit 26.

【0029】以上説明したように本実施形態の輪郭抽出
処理においては、画像内のオブジェクトが少なくとも1
つのラベル領域を含むように分割され、該オブジェクト
の輪郭線は概ねラベル領域の境界線と一致していること
に基づき、クラスタリングによって背景までもが過分割
されてしまう問題を解決するために、隣接関係に基づく
ラベル領域の統合に加えて、背景マスク情報を用いて過
分割された背景データを統合することを特徴とする。
As described above, in the contour extraction processing of the present embodiment, at least one object in the image
In order to solve the problem that the background is over-divided by clustering based on the fact that the outline of the object roughly matches the boundary of the label area, In addition to the integration of label areas based on the relationship, background data that has been over-divided using background mask information is integrated.

【0030】●類似度検出処理 以下、図1に示した本実施形態のシステムにいて、オブ
ジェクト輪郭の類似度検出を行う処理の全体について、
図6のフローチャートを参照して説明する。本処理が開
始されるに先立って、輪郭データベース23には既に、
複数のモデル画像の輪郭についてウェーブレット変換を
施した輪郭データが格納されているとする。
[Similarity Detection Processing] Hereinafter, in the system of the present embodiment shown in FIG.
This will be described with reference to the flowchart of FIG. Prior to the start of this process, the contour database 23 has already
It is assumed that contour data obtained by performing a wavelet transform on contours of a plurality of model images is stored.

【0031】まずステップS1において、例えば濃淡画
像である例示画像21について、オブジェクト抽出部2
9でオブジェクトを抽出する。次にステップS2におい
て、ステップS1で抽出したオブジェクトについて、輪
郭抽出部25でその輪郭線を抽出する。そしてステップ
S3では、ステップS2で得られたオブジェクトの輪郭
線をN等分し、輪郭点を得る。次にステップS4におい
ては該輪郭点に対して、オブジェクトの重心を中心とし
た極座標変換を施す。そしてステップS5において、輪
郭点で表現した輪郭線を、ウェーブレット記述子に変換
する。以上のステップS2〜S5までの処理が、輪郭抽
出部25において行われる。
First, in step S1, an object extracting unit 2 extracts an exemplary image 21 which is, for example, a grayscale image.
At 9, an object is extracted. Next, in step S2, the contour extraction unit 25 extracts the contour of the object extracted in step S1. In step S3, the contour of the object obtained in step S2 is divided into N equal parts to obtain contour points. Next, in step S4, the contour point is subjected to polar coordinate transformation centering on the center of gravity of the object. Then, in step S5, the contour represented by the contour points is converted into a wavelet descriptor. The processing of steps S2 to S5 is performed in the contour extraction unit 25.

【0032】そしてステップS6において、上記ウェー
ブレット変換後の輪郭線について、その低周波成分に相
当する成分により、輪郭データベース23に格納されて
いるモデル画像の輪郭線との類似度計算を行う。この類
似度演算が即ち、オブジェクトの輪郭とモデル画像の輪
郭とのマッチング処理である。
In step S6, the similarity of the contour after the wavelet transform is calculated with the contour of the model image stored in the contour database 23 using the component corresponding to the low frequency component. This similarity calculation is a matching process between the contour of the object and the contour of the model image.

【0033】その後ステップS7において、ステップS
6のマッチングにより高い一致度が得られたモデル画像
についてのみ、その高周波成分に相当する成分により、
より高精度のマッチングを行う。このステップS6及び
S7のマッチング処理は、類似度検出部26にて行われ
る。
Thereafter, in step S7, step S
Only for the model image for which a high degree of coincidence was obtained by the matching of No. 6, the component corresponding to the high-frequency component
Perform higher-precision matching. The matching processing in steps S6 and S7 is performed by the similarity detection unit 26.

【0034】そしてステップS8において、ステップS
6及びS7で得られたマッチング結果を、即ち類似度と
して表示部27にすることにより、ユーザに報知する。
Then, in step S8, step S
The user is notified by displaying the matching results obtained in Steps 6 and S7 on the display unit 27 as the similarity.

【0035】以下、図6に示す各処理のうち、特にステ
ップS3〜S7に示した、輪郭点のウェブレット変換及
びマッチング処理について、詳細に説明する。
In the following, among the processes shown in FIG. 6, in particular, the weblet conversion and matching process of the contour points shown in steps S3 to S7 will be described in detail.

【0036】尚、ステップS1に示すオブジェクト抽出
処理については上述したため、ここでは説明を省略す
る。また、ステップS2に示す輪郭線抽出処理について
も周知の方法が適用可能であるため、説明を省略する。
Since the object extraction processing shown in step S1 has been described above, the description is omitted here. Also, a known method can be applied to the contour line extraction processing shown in step S2, and a description thereof will be omitted.

【0037】●輪郭線分割・極座標変換処理 以下、上述したステップS3及びS4における、ウェー
ブレット変換のための前処理について説明する。
[Contour Line Division / Polar Coordinate Transformation Processing] The preprocessing for wavelet transformation in steps S3 and S4 will be described below.

【0038】まず、ステップS3におけるオブジェクト
の輪郭点を得る処理について、図7を参照して説明す
る。図7は、本実施形態において輪郭線より輪郭点およ
びそのカーブを得る処理を説明するための図である。図
7の(a)は、正方形の中心を原点とし、該正方形の輪
郭線を16点に等分割することによって得られる16個
の輪郭点を表している。各輪郭点に付された番号を輪郭
点番号とし、該番号が1である輪郭点から昇順に、輪郭
追跡を行なうとする。図7の(b)は、図7の(a)に
示す各輪郭点の追跡結果を、その軌跡として表したもの
である。図7の(b)において、横軸は輪郭点番号n
を、縦軸はx,yの各座標値を示す。同図によれば、
x,y各座標の軌跡x(n),y(n)は共に、1周期の台形
波となっていることが分かる。
First, the process for obtaining the contour points of the object in step S3 will be described with reference to FIG. FIG. 7 is a diagram for describing processing for obtaining a contour point and its curve from a contour line in the present embodiment. FIG. 7A shows 16 contour points obtained by dividing the square contour line into 16 points with the center of the square as the origin. It is assumed that the number assigned to each contour point is a contour point number, and contour tracing is performed in ascending order from the contour point whose number is 1. FIG. 7B shows the trajectory of the tracking result of each contour point shown in FIG. 7A. In FIG. 7B, the horizontal axis is the contour point number n
And the vertical axis indicates the coordinate values of x and y. According to FIG.
It can be seen that the trajectories x (n) and y (n) of the x and y coordinates are both trapezoidal waves of one cycle.

【0039】そしてステップS4においては、この軌跡
に対して以下のような極座標変換を施す。まず、オブジ
ェクトの重心(x0,y0)を、画像のx座標の平均値と
y座標の平均値から求める。そして、この重心(x0,
y0)を原点として、以下に示す式に従って極座標変換
を行なう。
In step S4, the locus is subjected to the following polar coordinate transformation. First, the center of gravity (x0, y0) of the object is determined from the average value of the x coordinate and the average value of the y coordinate of the image. And this center of gravity (x0,
With y0) as the origin, polar coordinate conversion is performed according to the following equation.

【0040】[0040]

【数1】 (Equation 1)

【0041】本実施例においては、上式で示した極座標
変換によって得られたr(n)のみについて、以下に示す
ウェーブレット変換を施すとする。
In this embodiment, the following wavelet transform is performed only on r (n) obtained by the polar coordinate transform shown in the above equation.

【0042】●ウェーブレット変換処理 以下、上述したステップS5におけるウェーブレット変
換処理について、図8及び図9を参照して説明する。
Wavelet Transform Processing The wavelet transform processing in step S5 described above will be described below with reference to FIGS.

【0043】図8は、本実施形態におけるウェーブレッ
ト変換を説明するための図である。まず、入力データr
(n)を、ローパスフィルタH0とハイパスフィルタH1に
分岐させ、該フィルタ出力をダウンサンプリングする。
そして、ローパスフィルタH0の出力を、さらにローパ
スフィルタH0とハイパスフィルタH1に分岐させ、該フ
ィルタ出力をダウンサンプリングすることにより、分割
を進めていく。これにより、入力データr(n)がウェー
ブレット記述子に変換され、実質的に低周波成分と高周
波成分との複数レベルに分離される。
FIG. 8 is a diagram for explaining the wavelet transform in the present embodiment. First, input data r
(n) is branched into a low-pass filter H0 and a high-pass filter H1, and the filter output is down-sampled.
Then, the output of the low-pass filter H0 is further branched into a low-pass filter H0 and a high-pass filter H1, and the filter output is down-sampled to proceed with the division. As a result, the input data r (n) is converted into a wavelet descriptor, and is substantially separated into a plurality of levels of a low frequency component and a high frequency component.

【0044】ここで、同図に示すフィルタ係数は、例え
ば簡単なハール基底である。この例を以下に示す。即
ち、ローパスフィルタH0における変換がH0(z)で、ハ
イパスフィルタH1における変換がH1(z)で示される。
Here, the filter coefficients shown in the figure are, for example, a simple Haar basis. This example is shown below. That is, the conversion in the low-pass filter H0 is indicated by H0 (z), and the conversion in the high-pass filter H1 is indicated by H1 (z).

【0045】[0045]

【数2】 (Equation 2)

【0046】以上のように、r(n)をローパスフィルタ
H0で変換することによってH0波が得られ、ハイパスフ
ィルタH1で変換することによってH1波が得られる。同
様に、例えばH0波を更にローパスフィルタH0及びハイ
パスフィルタH1で変換することによって、H00波及び
H01波が得られる。これらr(n)に対する複数レベルの
ウェーブレット変換結果を、ri(n)として保持してお
く。
As described above, the H0 wave is obtained by converting r (n) with the low-pass filter H0, and the H1 wave is obtained by converting the r (n) with the high-pass filter H1. Similarly, the H00 wave and the H01 wave are obtained by, for example, further converting the H0 wave by the low-pass filter H0 and the high-pass filter H1. The multi-level wavelet transform results for r (n) are stored as ri (n).

【0047】尚、複数(例えばn個)のモデル画像に付
いても同様のウェーブレット変換が予め施されており、
該変換結果がrj(n)として輪郭データベース23に保
持されている。
The same wavelet transform is applied to a plurality of (for example, n) model images in advance.
The conversion result is stored in the contour database 23 as rj (n).

【0048】以下、本実施形態におけるウェーブレット
変換を用いた類似性判定の方法について、具体的に説明
する。
Hereinafter, a method of determining similarity using the wavelet transform in the present embodiment will be specifically described.

【0049】図9は、正方形及び円形に対するウェーブ
レット記述子を、直交座標系で表した例を示す図であ
る。同図において、正方形,円形共に、3つの波形図の
うち、左が輪郭点の軌跡を示す図であり、これらに対し
て極座標変換及びウェーブレット変換を施した結果とし
て、中央に示すH0波、及び右に示すH1波が得られる。
FIG. 9 is a diagram showing an example in which wavelet descriptors for a square and a circle are represented in an orthogonal coordinate system. In the figure, both the square and the circle are diagrams showing the trajectories of the contour points on the left of the three waveform diagrams. As a result of performing polar coordinate transformation and wavelet transformation on these, the H0 wave shown in the center and The H1 wave shown on the right is obtained.

【0050】同図によれば、正方形と円形とでは、ウェ
ーブレット変換によるH0波形が類似していることが分
かる。これにより、正方形と円形は重心から輪郭点まで
がほぼ等距離にある図形として類似性が高いと判断され
るため、本実施形態においては、これらは概略図形とし
て類似していると判断される。一方、長方形や大きく偏
平した楕円、又は窪みのある図形等については、正方形
や円形とは類似性が低いと、この段階で判断される。
尚、正方形と円形とでは、ウェーブレット変換によるH
1の波形が大きく異なるため、H1波形によってこれらを
区別することができる。
According to the figure, it can be seen that the H0 waveform by the wavelet transform is similar between the square and the circle. As a result, the square and the circle are determined to have high similarity as a figure having substantially the same distance from the center of gravity to the contour point. Therefore, in the present embodiment, they are determined to be similar as a schematic figure. On the other hand, it is determined at this stage that a rectangle, a largely flat ellipse, or a figure with a depression has low similarity to a square or a circle.
It should be noted that the square and the circle are represented by H
Since the waveforms of 1 are significantly different, they can be distinguished by the H1 waveform.

【0051】ここで、H0波形による類似性の判定にお
いては、輪郭点番号で示される参照点の数が、モデル画
像,オブジェクト画像ともに半分になっていることが分
かる。従って、本実施形態における類似度計算は、全参
照点を使用した場合に比べて、おおよそ2倍の高速化が
期待できる。
Here, in the determination of the similarity based on the H0 waveform, it can be seen that the number of reference points indicated by the contour point numbers is halved for both the model image and the object image. Therefore, the similarity calculation in the present embodiment can be expected to be approximately twice as fast as when all the reference points are used.

【0052】また、H0波を更にウェーブレット変換す
ることによってH00波を得た場合、該H00波形において
は参照点の数を1/4に削減できるため、4倍の高速化
が期待できる。即ち、より大まかな類似度算出で十分で
ある場合には、より高次のウェーブレット記述子を用い
ることにより、より高速な処理が可能となる。
Further, when the H00 wave is obtained by further wavelet transforming the H0 wave, the number of reference points can be reduced to 1/4 in the H00 waveform, so that a fourfold speedup can be expected. That is, when a rough similarity calculation is sufficient, higher-speed processing can be performed by using a higher-order wavelet descriptor.

【0053】●マッチング処理 以下、上述したステップS6及びS7におけるマッチン
グ処理について、図10を参照して説明する。上述した
ように、ステップS6とS7とは、モデル画像とオブジ
ェクト画像の比較を、低周波成分によって行なうか高周
波成分によって行なうかが異なる。
The matching process in steps S6 and S7 will be described below with reference to FIG. As described above, steps S6 and S7 differ in whether the comparison between the model image and the object image is performed based on the low-frequency component or the high-frequency component.

【0054】本実施形態においては、輪郭追跡の開始点
による影響を考慮したマッチングを行なうことを特徴と
する。モデル画像とオブジェクト画像の輪郭追跡の開始
点が異なると、後述する類似度の指標であるSim値も
異なってくる。従って本実施形態においては、モデル画
像における輪郭追跡の開始点を1点ずつシフトさせて、
オブジェクト画像に対する複数のSim値を算出し、得
られたSim値のうちの最小値をもって、モデル画像と
オブジェクト画像の類似度とする。
This embodiment is characterized in that matching is performed in consideration of the influence of the start point of contour tracing. If the starting point of the contour tracking between the model image and the object image is different, the Sim value, which is an index of the similarity described later, also differs. Therefore, in the present embodiment, the starting point of the contour tracking in the model image is shifted by one point,
A plurality of Sim values for the object image are calculated, and the minimum value of the obtained Sim values is used as the similarity between the model image and the object image.

【0055】図10は、本実施形態におけるオブジェク
ト画像とモデル画像との類似度計算処理、即ちマッチン
グを示すフローチャートである。まずステップS601
において、参照するモデル画像の波形の追跡開始点を1
つシフトする。そしてステップS602において、以下
に示す式により類似度の指標となるSim値を計算す
る。
FIG. 10 is a flowchart showing the similarity calculation processing, that is, matching between the object image and the model image in the present embodiment. First, step S601
, The tracking start point of the waveform of the referenced model image is set to 1
Shift one. Then, in step S602, a Sim value serving as an index of similarity is calculated by the following equation.

【0056】[0056]

【数3】 (Equation 3)

【0057】上式においてri(n)及びrj(n)はそれぞ
れ、オブジェクト画像及びモデル画像の輪郭点をウェー
ブレット変換した値を示す。尚、上述したように、輪郭
点をウェーブレット変換することによって複数レベルの
変換結果が得られるが、比較対象となるri(n)及びrj
(n)は互いに同レベルであるとする。
In the above equation, ri (n) and rj (n) indicate values obtained by performing a wavelet transform on the contour points of the object image and the model image, respectively. Note that, as described above, a plurality of levels of conversion results can be obtained by performing a wavelet transform on the contour points, but ri (n) and rj to be compared are obtained.
(n) are assumed to be at the same level as each other.

【0058】次にステップS603において、ステップ
S602で得られたSim値を不図示の最小値レジスタ
内の値と比較することにより、該Sim値は現在までの
追跡において最小であるか否かの判定を行い、最小であ
ればステップS604で最小値レジスタ内の値を該Si
m値に置き換える。そしてステップS605において、
全周のシフトが完了したと判定されたら処理を終了す
る。即ち、最小値レジスタ内に最終的に格納されている
Sim値が、該モデルに対する類似度の指標となる。
Next, in step S603, by comparing the Sim value obtained in step S602 with the value in a minimum value register (not shown), it is determined whether or not the Sim value is the minimum in tracking up to the present. And if it is the minimum, the value in the minimum value register is
Replace with m value. Then, in step S605,
If it is determined that the shift of the entire circumference has been completed, the process is terminated. That is, the Sim value finally stored in the minimum value register is an index of the similarity to the model.

【0059】図10のフローチャートに示すマッチング
処理を、輪郭データベース23に登録されている複数の
モデル画像の輪郭データについてそれぞれ実行すること
により、各モデル画像に対するオブジェクト画像の輪郭
類似度の指標であるSim値がそれぞれ算出される。こ
のうち、最小のSim値を有するモデル画像の輪郭が、
該オブジェクト画像の輪郭と最も類似していると判断で
きる。
By executing the matching process shown in the flowchart of FIG. 10 for each of the contour data of a plurality of model images registered in the contour database 23, Sim which is an index of the contour similarity of the object image with respect to each model image is obtained. A value is calculated for each. Among them, the contour of the model image having the minimum Sim value is
It can be determined that the contour is most similar to the contour of the object image.

【0060】図1のステップS6においては、図10に
示すマッチング処理をri(n)及びrj(n)の低周波成分に
相当するレベルについて行なうことにより、算出された
複数のSim値のうち所定値以下であるものを抽出す
る。即ち、複数のモデル画像から、オブジェクト画像と
最も類似するものの候補を得る。ここで、大まかな類似
度が得られれば十分である場合には、ステップS7にお
けるマッチングを行わずにステップS8へ進み、ステッ
プS6で抽出されたモデル画像を、その類似度(Sim
値)と共に表示部27に表示すれば良い。
In step S6 in FIG. 1, the matching process shown in FIG. 10 is performed on the levels corresponding to the low frequency components of ri (n) and rj (n), so that a predetermined value among a plurality of calculated Sim values is obtained. Extract those that are less than or equal to the value. That is, a candidate of the most similar object image is obtained from the plurality of model images. Here, if it is sufficient to obtain a rough similarity, the process proceeds to step S8 without performing the matching in step S7, and the model image extracted in step S6 is replaced with the similarity (Sim
Value) together with the value).

【0061】より高精細な類似度判定を行ないたい場合
には、更にステップS7において、ステップS6で抽出
されたモデル画像について、ri(n)及びrj(n)の高周波
成分に相当するレベルについて、より高精細なマッチン
グを行なう。そしてステップS8において、ステップS
7におけるマッチングによって得られた、Sim値が最
小であるモデル画像を、その類似度(Sim値)と共に
表示部27に表示する。
When it is desired to make a higher-resolution similarity determination, in step S7, the model image extracted in step S6 is subjected to the level corresponding to the high-frequency components of ri (n) and rj (n). Perform higher-definition matching. Then, in step S8, step S
The model image having the minimum Sim value obtained by the matching in step 7 is displayed on the display unit 27 together with the similarity (Sim value).

【0062】以上説明したように本実施形態の類似度検
出処理によれば、モデル画像とオブジェクト画像との輪
郭類似度の計算を輪郭線のウェーブレット記述子に基づ
いて行なうことにより、参照点の数を低減することがで
きるため、処理が高速化される。
As described above, according to the similarity detection processing of the present embodiment, the calculation of the contour similarity between the model image and the object image is performed based on the wavelet descriptor of the contour, so that the number of reference points can be reduced. Can be reduced, so that the processing speed is increased.

【0063】また、大局的な類似度又は局所的な類似度
を、ウェーブレット変換のレベルに応じて検出すること
ができるため、よりユーザのニーズに合った類似度計算
が可能となる。
Since the global similarity or the local similarity can be detected in accordance with the level of the wavelet transform, it is possible to calculate the similarity more suited to the needs of the user.

【0064】以上説明したように本実施形態によれば、
背景マスクを作成することによって背景領域を適切に統
合することができるため、オブジェクトの輪郭線を画像
の特徴量とした類似画像検索が高速に行える。
As described above, according to the present embodiment,
Since the background area can be appropriately integrated by creating the background mask, similar image retrieval using the contour of the object as a feature amount of the image can be performed at high speed.

【0065】<第2実施形態>以下、本発明に係る第2
実施形態について説明する。尚、第2実施形態において
上述した第1実施形態と同様の構成については同一番号
を付し、説明を省略する。第2実施形態においては、第
1実施形態で説明した類似画像検索処理を、動画像に対
して適用する例について説明する。即ち、第1実施形態
の図1に示した例示画像24が、第2実施形態において
は動画像となる。
<Second Embodiment> Hereinafter, a second embodiment according to the present invention will be described.
An embodiment will be described. In the second embodiment, the same components as those in the above-described first embodiment are denoted by the same reference numerals, and description thereof is omitted. In the second embodiment, an example in which the similar image search processing described in the first embodiment is applied to a moving image will be described. That is, the example image 24 shown in FIG. 1 of the first embodiment is a moving image in the second embodiment.

【0066】第2実施形態においては、検索対象となる
例示画像(動画像)24は、カメラをパンニングするこ
とによって撮影された映像であることが、予備知識とし
て与えられているとする。この場合、該映像においては
背景部分の動きが均一となる。そこで第2実施形態で
は、オブジェクト抽出部29内の統合情報生成部14に
おいて、均一な動きベクトルを用いて、領域分割の統合
情報(背景マスク)を作成することを特徴とする。
In the second embodiment, it is assumed that the example image (moving image) 24 to be searched is a video image obtained by panning the camera, as preliminary knowledge. In this case, in the video, the movement of the background portion is uniform. Therefore, the second embodiment is characterized in that the integrated information generation unit 14 in the object extraction unit 29 creates integrated information (background mask) for area division using uniform motion vectors.

【0067】図11は、第2実施形態におけるオブジェ
クト抽出部29内の統合情報生成部14の詳細構成を示
すブロック図である。ここでは統合情報生成部14に対
して、画像分類データ102として「パンニングによる
映像である」という情報が入力される。すると動きベク
トル探索部210において、ブロックマッチング等の周
知の手法によって動きベクトルを求める。そしてクラス
タリング部211で、得られた動きベクトルをクラスタ
リングし、背景抽出部212では、該クラスタリング結
果に基づき、動きベクトルの大きさが揃った例えば広い
領域を、背景として抽出し、背景マスク201を作成す
る。
FIG. 11 is a block diagram showing a detailed configuration of the integrated information generation unit 14 in the object extraction unit 29 according to the second embodiment. Here, information that “the image is panned” is input as the image classification data 102 to the integrated information generation unit 14. Then, the motion vector search unit 210 obtains a motion vector by a known method such as block matching. A clustering unit 211 clusters the obtained motion vectors, and a background extraction unit 212 extracts, for example, a wide area having uniform motion vector sizes as a background based on the clustering result, and creates a background mask 201. I do.

【0068】尚、第2実施形態においては、画像分類デ
ータ102が、更に背景に関する情報を含むことも可能
である。例えば、上記「パンニングによる映像である」
旨以外に、第1実施形態と同様に「背景一様」等の情報
を含んでいても良い。この場合、統合情報生成部14に
おいては、動きベクトルの大きさのみならず、第1実施
形態と同様に画素値が一様であるか否かに基づいて、背
景マスク201を作成すれば良い。
In the second embodiment, the image classification data 102 can further include information on the background. For example, the above-mentioned “video by panning”
Other than that, information such as “uniform background” may be included as in the first embodiment. In this case, the integrated information generation unit 14 may create the background mask 201 based on not only the magnitude of the motion vector but also whether or not the pixel value is uniform as in the first embodiment.

【0069】以上説明したように第2実施形態によれ
ば、例示画像が動画像であった場合に、動きベクトルが
一様な部分を背景領域として抽出することによって、背
景統合のためのマスクデータを生成する。これにより、
動画像内のオブジェクトに対しても、上述した第1実施
形態と同様に類似画像検索が可能となる。
As described above, according to the second embodiment, when an example image is a moving image, a portion having a uniform motion vector is extracted as a background region, thereby providing mask data for background integration. Generate This allows
Similar images can be searched for an object in a moving image, as in the first embodiment.

【0070】尚、第2実施形態において、モデル画像に
対するオブジェクト抽出部28の構成は、上述した第1
実施形態と同様で良い。即ち、例示画像24が動画像で
あっても、モデル画像は静止画で構わないためである。
In the second embodiment, the structure of the object extracting unit 28 for the model image is the same as that of the first embodiment.
This may be the same as the embodiment. That is, even if the example image 24 is a moving image, the model image may be a still image.

【0071】[0071]

【他の実施形態】なお、本発明は、複数の機器(例えば
ホストコンピュータ、インタフェイス機器、リーダ、プ
リンタなど)から構成されるシステムに適用しても、一
つの機器からなる装置(例えば、複写機、ファクシミリ
装置など)に適用してもよい。
[Other Embodiments] Even if the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus (for example, a copying machine) Machine, facsimile machine, etc.).

【0072】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納された
プログラムコードを読み出し実行することによっても、
達成されることは言うまでもない。この場合、記憶媒体
から読み出されたプログラムコード自体が前述した実施
形態の機能を実現することになり、そのプログラムコー
ドを記憶した記憶媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実
行することにより、前述した実施形態の機能が実現され
るだけでなく、そのプログラムコードの指示に基づき、
コンピュータ上で稼働しているオペレーティングシステ
ム(OS)などが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
Further, an object of the present invention is to supply a storage medium (or a recording medium) on which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and a computer (a computer) of the system or the apparatus. Or a CPU or MPU) reads out and executes the program code stored in the storage medium,
Needless to say, this is achieved. In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
In addition, by the computer executing the readout program code, not only the functions of the above-described embodiments are realized, but also based on the instructions of the program code,
The operating system (OS) running on the computer performs part or all of the actual processing,
It goes without saying that a case where the functions of the above-described embodiments are realized by the processing is also included.

【0073】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, the program code is read based on the instruction of the program code. , The CPU provided in the function expansion card or the function expansion unit performs part or all of the actual processing,
It goes without saying that a case where the functions of the above-described embodiments are realized by the processing is also included.

【0074】[0074]

【発明の効果】以上説明したように本発明によれば、オ
ブジェクトの輪郭類似度検索を効率的に行うことができ
る。
As described above, according to the present invention, it is possible to efficiently search for the contour similarity of an object.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る一実施形態における類似画像検索
システムの構成を示す図である。
FIG. 1 is a diagram showing a configuration of a similar image search system according to an embodiment of the present invention.

【図2】オブジェクト抽出部の詳細構成を示すブロック
図である。
FIG. 2 is a block diagram illustrating a detailed configuration of an object extraction unit.

【図3】隣接関係判定部におけるサブオブジェクト生成
処理を示すフローチャートである。
FIG. 3 is a flowchart illustrating a sub-object generation process in an adjacency determination unit.

【図4】統合情報生成部における背景マスクの生成方法
を説明する図である。
FIG. 4 is a diagram illustrating a method of generating a background mask in an integrated information generation unit.

【図5】背景検出部における背景抽出処理の具体例を示
す図である。
FIG. 5 is a diagram illustrating a specific example of a background extraction process in a background detection unit.

【図6】類似度算出処理を示すフローチャートである。FIG. 6 is a flowchart illustrating a similarity calculation process.

【図7】輪郭線のカーブを説明図である。FIG. 7 is an explanatory diagram of a contour curve.

【図8】ウェーブレット変換を説明する図である。FIG. 8 is a diagram illustrating wavelet transform.

【図9】ウェーブレット記述子の例を示す図である。FIG. 9 is a diagram illustrating an example of a wavelet descriptor.

【図10】マッチング処理を示すフローチャートであ
る。
FIG. 10 is a flowchart illustrating a matching process.

【図11】第2実施形態における統合情報生成部の詳細
構成を示すブロック図である。
FIG. 11 is a block diagram illustrating a detailed configuration of an integrated information generation unit according to a second embodiment.

【符号の説明】[Explanation of symbols]

21 モデル画像データベース 22,25 輪郭抽出部 23 輪郭データベース 24 例示画像 26 類似度検出部 27 表示部 28,29 オブジェクト抽出部 21 Model Image Database 22, 25 Contour Extraction Unit 23 Contour Database 24 Example Image 26 Similarity Detection Unit 27 Display Unit 28, 29 Object Extraction Unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 1/387 H04N 1/387 1/46 1/46 Z Fターム(参考) 5B057 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CD18 CE06 CE09 CH09 DB02 DB06 DB09 DC14 DC16 DC25 DC33 5C076 AA02 AA11 AA19 AA36 BA06 CA10 5C079 LA01 LA02 LA10 LA39 LA40 NA13 5L096 AA02 EA37 FA06 FA15 FA32 GA34 GA55 HA09 JA11 MA07──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 1/387 H04N 1/387 1/46 1/46 Z F-term (Reference) 5B057 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CD18 CE06 CE09 CH09 DB02 DB06 DB09 DC14 DC16 DC25 DC33 5C076 AA02 AA11 AA19 AA36 BA06 CA10 5C079 LA01 LA02 LA10 LA39 LA40 NA13 5L096 AA02 EA37 FA06 FA15 FA32 GA34 GA55 HA09 JA11 MA07

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 画像からオブジェクトを抽出する画像処
理方法であって、 前記画像を色情報に基づいて複数の領域に分割する領域
分割工程と、 前記分割された複数の領域をその隣接関係に基づいて統
合する統合工程と、 前記画像に関する所定の分類情報に基づいて、前記画像
の背景情報を生成する背景情報生成工程と、 該背景情報に基づいて、前記統合された領域から背景領
域を検出する背景検出工程と、 前記統合領域から前記背景領域を除去することによって
オブジェクトを抽出するオブジェクト抽出工程と、を有
することを特徴とする画像処理方法。
1. An image processing method for extracting an object from an image, comprising: an area dividing step of dividing the image into a plurality of areas based on color information; A background information generating step of generating background information of the image based on predetermined classification information relating to the image; and detecting a background region from the integrated region based on the background information. An image processing method, comprising: a background detection step; and an object extraction step of extracting an object by removing the background area from the integrated area.
【請求項2】 前記領域分割工程は、 前記画像の構成画素を複数の色クラスに分類するクラス
タリング工程と、 前記複数の色クラスにおいて画素が連結している部分へ
のラベル付けを行うラベリング工程と、を有するとを特
徴とする請求項1記載の画像処理方法。
2. The area dividing step includes: a clustering step of classifying constituent pixels of the image into a plurality of color classes; and a labeling step of labeling a portion where pixels are connected in the plurality of color classes. 2. The image processing method according to claim 1, comprising:
【請求項3】 前記統合工程においては、互いに隣接す
る領域を、隣接点が所定数以上であり、かつ、これら領
域内の平均色の差が所定値以下である場合に、統合する
ことを特徴とする請求項1記載の画像処理方法。
3. In the integrating step, areas adjacent to each other are integrated when the number of adjacent points is equal to or more than a predetermined number and the difference between the average colors in these areas is equal to or less than a predetermined value. The image processing method according to claim 1, wherein
【請求項4】 前記背景情報は、前記画像の構成画素に
ついて背景領域内の画素であるか否かを示す背景マスク
情報であることを特徴とする請求項1記載の画像処理方
法。
4. The image processing method according to claim 1, wherein the background information is background mask information indicating whether or not constituent pixels of the image are pixels in a background area.
【請求項5】 前記背景情報生成工程においては、前記
分類情報として背景が一様である旨が示された場合に、
近隣画素値のばらつきが所定値以下である画素を背景画
素とすることによって、前記背景マスク情報を生成する
ことを特徴とする請求項4記載の画像処理方法。
5. In the background information generating step, when it is indicated that the background is uniform as the classification information,
5. The image processing method according to claim 4, wherein the background mask information is generated by setting a pixel having a variation of a neighboring pixel value equal to or less than a predetermined value as a background pixel.
【請求項6】 前記背景検出工程においては、前記統合
領域が前記背景画素を所定の割合以上を含む場合に、該
統合領域を背景領域として検出することを特徴とする請
求項5記載の画像処理方法。
6. The image processing according to claim 5, wherein, in the background detecting step, when the integrated region includes the background pixels in a predetermined ratio or more, the integrated region is detected as a background region. Method.
【請求項7】 前記オブジェクト抽出工程においては、
前記統合領域から前記背景領域を除去した領域の輪郭情
報を抽出することを特徴とする請求項1記載の画像処理
方法。
7. In the object extracting step,
2. The image processing method according to claim 1, wherein contour information of an area obtained by removing the background area from the integrated area is extracted.
【請求項8】 更に、前記オブジェクト抽出工程におい
て抽出されたオブジェクトについて、複数のモデル画像
との類似度を検出する類似度検出工程を有することを特
徴とする請求項1記載の画像処理方法。
8. The image processing method according to claim 1, further comprising a similarity detecting step of detecting a similarity between the object extracted in the object extracting step and a plurality of model images.
【請求項9】 前記類似度検出工程においては、前記オ
ブジェクトの輪郭点に対するウェーブレット変換結果に
基づき、前記オブジェクトと所定のモデル画像との類似
度を検出することを特徴とする請求項8記載の画像処理
方法。
9. The image according to claim 8, wherein in the similarity detecting step, a similarity between the object and a predetermined model image is detected based on a result of a wavelet transform performed on an outline point of the object. Processing method.
【請求項10】 前記背景情報生成工程においては、前
記画像が動画像である場合、更にその動き情報に基づい
て前記背景情報を生成することを特徴とする請求項1記
載の画像処理方法。
10. The image processing method according to claim 1, wherein in the background information generating step, when the image is a moving image, the background information is further generated based on the motion information.
【請求項11】 画像からオブジェクトを抽出する画像
処理装置であって、 前記画像を色情報に基づいて複数の領域に分割する領域
分割手段と、 前記分割された複数の領域をその隣接関係に基づいて統
合する統合手段と、 前記画像に関する所定の分類情報に基づいて、前記画像
の背景情報を生成する背景情報生成手段と、 該背景情報に基づいて、前記統合された領域から背景領
域を検出する背景検出手段と、 前記統合領域から前記背景領域を除去することによって
オブジェクトを抽出するオブジェクト抽出手段と、を有
することを特徴とする画像処理装置。
11. An image processing apparatus for extracting an object from an image, comprising: an area dividing unit that divides the image into a plurality of areas based on color information; Means for generating background information of the image based on predetermined classification information relating to the image; and detecting a background area from the integrated area based on the background information. An image processing apparatus comprising: a background detection unit; and an object extraction unit that extracts an object by removing the background region from the integrated region.
【請求項12】 画像からオブジェクトを抽出する画像
処理プログラムのコードが記録された記録媒体であっ
て、該プログラムコードは少なくとも、 前記画像を色情報に基づいて複数の領域に分割する領域
分割工程のコードと、 前記分割された複数の領域をその隣接関係に基づいて統
合する統合工程のコードと、 前記画像に関する所定の分類情報に基づいて、前記画像
の背景情報を生成する背景情報生成工程のコードと、 該背景情報に基づいて、前記統合された領域から背景領
域を検出する背景検出工程のコードと、 前記統合領域から前記背景領域を除去することによって
オブジェクトを抽出するオブジェクト抽出工程のコード
と、を有することを特徴とする記録媒体。
12. A recording medium on which is recorded a code of an image processing program for extracting an object from an image, the program code comprising: at least an area dividing step of dividing the image into a plurality of areas based on color information A code of an integration step of integrating the plurality of divided areas based on the adjacent relationship thereof; and a code of a background information generation step of generating background information of the image based on predetermined classification information regarding the image. Based on the background information, a code of a background detection step of detecting a background area from the integrated area, a code of an object extraction step of extracting an object by removing the background area from the integrated area, A recording medium comprising:
JP2000309829A 2000-10-10 2000-10-10 Image processing method and device thereof Withdrawn JP2002117409A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000309829A JP2002117409A (en) 2000-10-10 2000-10-10 Image processing method and device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000309829A JP2002117409A (en) 2000-10-10 2000-10-10 Image processing method and device thereof

Publications (1)

Publication Number Publication Date
JP2002117409A true JP2002117409A (en) 2002-04-19

Family

ID=18789903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000309829A Withdrawn JP2002117409A (en) 2000-10-10 2000-10-10 Image processing method and device thereof

Country Status (1)

Country Link
JP (1) JP2002117409A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293141A (en) * 2004-03-31 2005-10-20 Canon Inc Method and device for detecting marker, and method for estimating position and attitude
US7474808B2 (en) 2003-10-08 2009-01-06 Fujifilm Corporation Image processing device and image processing method
JP2009534665A (en) * 2006-04-18 2009-09-24 ジーイー・ヘルスケア・バイオサイエンス・コーポレイション System for creating images for segmentation
US7620246B2 (en) 2002-07-30 2009-11-17 Fujifilm Corporation Method and apparatus for image processing
JP2010067252A (en) * 2008-08-15 2010-03-25 Fuji Xerox Co Ltd Object region extraction device and object region extraction program
CN101833668A (en) * 2010-04-23 2010-09-15 清华大学 Detection method for similar units based on profile zone image
JP2011135400A (en) * 2009-12-25 2011-07-07 Casio Computer Co Ltd Image processing apparatus and method, and program
JP2014095667A (en) * 2012-11-12 2014-05-22 Mitsubishi Electric Corp Target type discrimination device and target type discrimination method
JP2017045156A (en) * 2015-08-24 2017-03-02 日本システムバンク株式会社 Parking detection method by image recognition

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7620246B2 (en) 2002-07-30 2009-11-17 Fujifilm Corporation Method and apparatus for image processing
US7474808B2 (en) 2003-10-08 2009-01-06 Fujifilm Corporation Image processing device and image processing method
JP2005293141A (en) * 2004-03-31 2005-10-20 Canon Inc Method and device for detecting marker, and method for estimating position and attitude
JP4537104B2 (en) * 2004-03-31 2010-09-01 キヤノン株式会社 Marker detection method, marker detection device, position and orientation estimation method, and mixed reality space presentation method
JP2009534665A (en) * 2006-04-18 2009-09-24 ジーイー・ヘルスケア・バイオサイエンス・コーポレイション System for creating images for segmentation
JP2010067252A (en) * 2008-08-15 2010-03-25 Fuji Xerox Co Ltd Object region extraction device and object region extraction program
JP2011135400A (en) * 2009-12-25 2011-07-07 Casio Computer Co Ltd Image processing apparatus and method, and program
US8345119B2 (en) 2009-12-25 2013-01-01 Casio Computer Co., Ltd. Image pickup device, image processing method, and storage medium storing program
US8787675B2 (en) 2009-12-25 2014-07-22 Casio Computer Co., Ltd. Image pickup device, image processing method, and storage medium storing program
CN101833668A (en) * 2010-04-23 2010-09-15 清华大学 Detection method for similar units based on profile zone image
JP2014095667A (en) * 2012-11-12 2014-05-22 Mitsubishi Electric Corp Target type discrimination device and target type discrimination method
JP2017045156A (en) * 2015-08-24 2017-03-02 日本システムバンク株式会社 Parking detection method by image recognition

Similar Documents

Publication Publication Date Title
JP2940317B2 (en) Image processing device
Gllavata et al. A robust algorithm for text detection in images
US8447114B2 (en) Method and apparatus for calculating pixel features of image data
CN109214420A (en) The high texture image classification method and system of view-based access control model conspicuousness detection
US20080069438A1 (en) Identifying Repeated-Structure Elements in Images
JP2003515230A (en) Method and system for separating categorizable symbols of video stream
JP2001043376A (en) Image extraction method and device and storage medium
KR20080095787A (en) Apparatus and method of determining similar image
JP2000322573A (en) Method and device for image processing
CN111598076B (en) Method and device for detecting and processing date in label image
KR101753360B1 (en) A feature matching method which is robust to the viewpoint change
Kheirkhah et al. A hybrid face detection approach in color images with complex background
JP2002117409A (en) Image processing method and device thereof
JP2001076161A (en) Method and device for image processing and storage medium
Zhao et al. A robust color-independent text detection method from complex videos
WO2024139298A1 (en) Image labeling method and apparatus, and electronic device and storage medium
JPH10149449A (en) Picture division method, picture identification method, picture division device and picture identification device
Liu et al. Detection of engineering vehicles in high-resolution monitoring images
CN118071831B (en) Image coarse positioning method, device and computer readable storage medium
CN118314336B (en) Heterogeneous image target positioning method based on gradient direction
CN115410196B (en) Small target identification system based on complex background
JP2003256849A (en) Object extracting system and method and its program
Wigati et al. Combination of Salient Object Detection and Image Matching for Object Instance Recognition
CN118781651A (en) Behavior recognition method and system based on key point detection
Kim et al. Interest point detection using the superpixel segmentation and a binary descriptor

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080108