JP2000067248A - Picture matching method/device - Google Patents

Picture matching method/device

Info

Publication number
JP2000067248A
JP2000067248A JP11250076A JP25007699A JP2000067248A JP 2000067248 A JP2000067248 A JP 2000067248A JP 11250076 A JP11250076 A JP 11250076A JP 25007699 A JP25007699 A JP 25007699A JP 2000067248 A JP2000067248 A JP 2000067248A
Authority
JP
Japan
Prior art keywords
area
image
matching
degree
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11250076A
Other languages
Japanese (ja)
Inventor
Kyoji Hirata
恭二 平田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP11250076A priority Critical patent/JP2000067248A/en
Publication of JP2000067248A publication Critical patent/JP2000067248A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To make it possible to perform retrieval under a user's ambiguous memory by performing processing for integrating each area so that each area included in pictures can be in one-to-one corresponding between the pictures. SOLUTION: A picture which a user prepares for inquiry is inputted by an input means. An area picture is similarly inputted from within a picture database. Next, an area division picture normalizing means receives the area picture from the input means, and normalizes the picture up to the same picture size by contracting or magnifying one or both of the pictures (a step 1). An area integration means receives the normalized pictures from the area division picture normalizing means and integrates areas so that the areas divided by both pictures can be clearly coordinated (a step 2). An area compatibility degree leading means receives the picture after integrates from the area integration means and leads the number of areas and the degree of compatibility of a shape every area.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は画像のマッチング装置、
特に画像データベースシステムにおいて検索時に利用す
るための画像整合方法及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image matching apparatus,
In particular, the present invention relates to an image matching method and apparatus used for searching in an image database system.

【0002】[0002]

【従来の技術】画像検索の分野では、画像特有の特徴に
基づく検索の必要性が高まっている。画像の内容に基づ
く検索要求の中に画像中の対象物の空間的特性に基づく
情報検索等に関するものがある。
2. Description of the Related Art In the field of image retrieval, there is a growing need for retrieval based on features unique to images. Among search requests based on the content of an image, there are requests related to information search based on the spatial characteristics of an object in the image.

【0003】このような検索をかける際に、問い合わせ
に用いる領域画像とデータベース中の領域画像をマッチ
ングさせる必要があり、対象物の位置情報と対象物の領
域の形状情報を元に類似度を判断している。なおここで
言う領域画像とは、模様・色・面積・コントラスト等の
特徴量に基づき、マトリクスで領域分割されている画像
のことである。
When performing such a search, it is necessary to match the region image used for the inquiry with the region image in the database, and the similarity is determined based on the position information of the object and the shape information of the region of the object. are doing. Note that the region image referred to here is an image that is region-divided by a matrix based on feature amounts such as patterns, colors, areas, and contrasts.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、問い合
わせに用いる領域画像及びデータベース中の領域画像は
違う視点で作成される場合が多く、特に問い合わせに用
いる領域画像は、利用者の記憶違いや、忘却、領域の分
けすぎ等が起こって、実際にマッチングさせる際に困難
を生じる。また、色情報と領域情報の双方を考慮にいれ
た整合を行うには双方の指定の曖昧性や記憶の欠落等を
考慮にいれなければならず、整合が困難であった。
However, in many cases, the area image used for the inquiry and the area image in the database are created from different viewpoints. Over-partitioning of the regions occurs, which causes difficulties in actually matching. In addition, in order to perform matching in consideration of both the color information and the area information, it is necessary to take into consideration ambiguity of specification of both, lack of storage, and the like, and matching is difficult.

【0005】本発明は、このような問題を解決し、色情
報や形状情報を手がかりに利用者の曖昧な記憶のもとで
も検索できるための画像整合方法及び装置の実現を目的
とする。
An object of the present invention is to solve such a problem and to realize an image matching method and apparatus capable of retrieving color information and shape information as clues even under ambiguous memory of a user.

【0006】[0006]

【課題を解決するための手段】本発明の画像整合方法
は、領域分割された画像同士の整合度を計測する画像整
合方法であって、前記画像に含まれる各々の領域がそれ
らの画像間で一対一に対応付けられるように各領域を統
合する処理を行い、統合後の領域に対して少なくとも形
状情報を用いて前記画像間の整合度を計測することを特
徴とする。
An image matching method according to the present invention is an image matching method for measuring a degree of matching between images obtained by dividing an area, wherein each area included in the image is interposed between the images. A process for integrating the respective regions so as to be associated one-to-one is performed, and a degree of matching between the images is measured for at least the integrated region using at least shape information.

【0007】また、本発明の画像整合方法は、領域分割
された画像同士の整合度を計測する画像整合方法であっ
て、前記画像に含まれる各々の領域がそれらの画像間で
一対一に対応付けられるように各領域を統合する処理を
行い、統合後の領域に対して少なくとも形状情報と統合
前の色情報の双方を用いて前記画像間の整合度を計測す
ることを特徴とする。
The image matching method of the present invention is an image matching method for measuring the degree of matching between divided images, wherein each region included in the image has a one-to-one correspondence between the images. A process of integrating the respective regions so that the images can be attached is performed, and the degree of matching between the images is measured using at least both the shape information and the color information before the integration with respect to the integrated region.

【0008】また、本発明の画像整合装置は、領域分割
された画像同士の整合度を計測する画像整合装置であっ
て、前記画像に含まれる各々の領域がそれらの画像間で
一対一に対応付けられるように各領域を統合する処理を
行う領域統合手段と、統合後の領域に対して形状情報を
用いて前記画像間の整合度を計測する領域整合度導出手
段と、を少なくとも含んで構成されることを特徴とす
る。
The image matching apparatus according to the present invention is an image matching apparatus for measuring a degree of matching between divided images, wherein each area included in the image has a one-to-one correspondence between the images. A region integration unit that performs a process of integrating the respective regions so that the regions can be attached, and a region matching degree deriving unit that measures the degree of matching between the images using shape information for the integrated region. It is characterized by being performed.

【0009】また、本発明の画像整合装置は、領域分割
された画像同士の整合度を計測する画像整合装置であっ
て、前記画像に含まれる各々の領域がそれらの画像間で
一対一に対応付けられるように各領域を統合する処理を
行う領域統合手段と、統合後の領域に対して少なくとも
形状情報と統合前の色情報の双方を用いて前記画像間の
整合度を計測する画像間整合度導出手段と、を少なくと
も含んで構成されることを特徴とする。
An image matching apparatus according to the present invention is an image matching apparatus for measuring a degree of matching between divided images, wherein each area included in the image has a one-to-one correspondence between the images. Area integration means for performing processing for integrating the respective areas so as to be attached, and image matching for measuring the degree of matching between the images using at least both the shape information and the color information before integration for the integrated area And a degree deriving means.

【0010】[0010]

【作用】本発明は画像情報を色や形状に対する断片的な
記憶や曖昧な問い合わせを整合することができる画像整
合方法及び装置である。
SUMMARY OF THE INVENTION The present invention is an image matching method and apparatus capable of matching fragmentary storage of image information with respect to colors and shapes and ambiguous queries.

【0011】[0011]

【実施例】本発明の実施例について図面を参照して説明
する。
Embodiments of the present invention will be described with reference to the drawings.

【0012】図1は本発明の一実施例を示す機能ブロッ
ク図である。図5は領域画像の一例を示す図であり、図
6は処理の過程を簡単に示すための図である。
FIG. 1 is a functional block diagram showing an embodiment of the present invention. FIG. 5 is a diagram showing an example of a region image, and FIG. 6 is a diagram for simply showing a process of processing.

【0013】図1において、入力手段1により利用者が
問い合わせのために作成した画像を入力する。領域画像
の形態の一例として、図5のように領域を示したマトリ
ックスと領域の特徴量(色、コントラスト)を表した画
像が考えられる。同様にして画像データベース中からも
同様に領域画像を入力する。次に領域分割画像正規化手
段2は入力手段1より領域画像を受け取り、一方あるい
は双方の画像を縮小または拡大することにより同じ画像
サイズにまで正規化する。(図6のステップ1)領域統
合手段3は領域分割画像正規化手段2より正規化された
画像を受け取り、両画像で分けられた領域が明確に対応
づくことができるように領域を統合する。(図6のステ
ップ2)
In FIG. 1, an input means 1 inputs an image created by a user for an inquiry. As an example of the form of the region image, an image representing a matrix indicating the region and characteristic amounts (color, contrast) of the region as shown in FIG. 5 can be considered. Similarly, an area image is input from the image database. Next, the area division image normalizing means 2 receives the area image from the input means 1 and normalizes to one and the same image size by reducing or enlarging one or both images. (Step 1 in FIG. 6) The area integrating means 3 receives the normalized image from the area divided image normalizing means 2 and integrates the areas so that the areas divided by both images can be clearly corresponded. (Step 2 in FIG. 6)

【0014】領域整合度導出手段4は領域統合手段3よ
り統合後の画像を受け取り、領域数と領域毎の形状の整
合度を導出する。一例として同じ座標の領域番号が等し
い画素数を導出する。
The area matching degree deriving means 4 receives the integrated image from the area integrating means 3 and derives the number of areas and the degree of matching of the shape of each area. As an example, the number of pixels having the same coordinate area number is derived.

【0015】出力手段5は領域整合度導出手段4より整
合結果を受け取り出力する。
The output means 5 receives the matching result from the area matching degree deriving means 4 and outputs it.

【0016】次に本発明の実施例について図面を参照し
て説明する。
Next, an embodiment of the present invention will be described with reference to the drawings.

【0017】図2は本発明を実施するための機能ブロッ
ク図である。
FIG. 2 is a functional block diagram for implementing the present invention.

【0018】図2において入力手段21により利用者が
問い合わせのために作成した画像を入力する。領域画像
の形態の一例として、図5のように領域を示したマトリ
ックスと領域の特徴量を表した画像が考えられる。同様
にして画像データベース中からも同様に領域画像を入力
する。次に領域分割画像正規化手段22は入力手段21
より領域画像を受け取り、一方あるいは双方の画像を縮
小または拡大することにより同じ画像サイズにまで正規
化する。(図6のステップ1)領域統合手段23は領域
分割画像正規化手段22より正規化された画像を受け取
り、両画像で分けられた領域が明確に対応づくことがで
きるように領域を統合する。(図6のステップ2)
In FIG. 2, the user inputs an image created for inquiry by the input means 21. As an example of the form of the region image, an image showing a matrix indicating the region and a feature amount of the region as shown in FIG. 5 can be considered. Similarly, an area image is input from the image database. Next, the area dividing image normalizing means 22 is
More area images are received and one or both images are reduced or enlarged to normalize to the same image size. (Step 1 in FIG. 6) The area integrating means 23 receives the images normalized by the area divided image normalizing means 22 and integrates the areas so that the areas divided by both images can be clearly corresponded. (Step 2 in FIG. 6)

【0019】領域整合度導出手段24は領域統合手段2
3より統合後の画像を受け取り、領域数と領域毎の形状
の整合度を導出する。一例として同じ座標の領域番号が
等しい画素数を導出する。
The area matching degree deriving means 24 includes the area integrating means 2
The integrated image is received from 3 and the number of regions and the degree of matching of the shape of each region are derived. As an example, the number of pixels having the same coordinate area number is derived.

【0020】色情報整合度導出手段25は入力手段21
より領域の色情報を受け取り、また領域統合手段23よ
り統合に関する情報を受け取り色情報についての整合度
を導出する。
The color information matching degree deriving means 25 includes an input means 21
Further, the color information of the area is received, and information on integration is received from the area integration means 23 to derive the degree of consistency of the color information.

【0021】画像間整合度導出手段26は領域整合度導
出手段24及び色情報整合度導出手段25より整合結果
を受け取り、両方を考慮することで画像全体の整合度を
導出する。
The inter-image matching degree deriving means 26 receives the matching result from the area matching degree deriving means 24 and the color information matching degree deriving means 25, and derives the matching degree of the entire image by considering both.

【0022】一例として、形状による整合度と色情報に
よる整合度の線形結合によって全体の整合度とし、新た
に導出された整合度を統合後の領域数をもとに前もって
与えておいた値に換算するという方法がある。
As an example, the whole degree of consistency is determined by a linear combination of the degree of consistency based on the shape and the degree of consistency based on the color information, and the newly derived degree of consistency is set to a value previously given based on the number of integrated regions. There is a method of converting.

【0023】出力手段27は画像間整合度導出手段26
より整合結果を受け取り出力する。
The output means 27 is an image matching degree deriving means 26
Receives and outputs more matching results.

【0024】次に本発明に関連する実施例について図面
を参照して説明する。
Next, embodiments related to the present invention will be described with reference to the drawings.

【0025】図3は本発明に関連する一実施例を示す機
能ブロック図である。図7はこの実施例の処理の流れを
示す流れ図である。図8はこの実施例における対応関係
を示す図である。
FIG. 3 is a functional block diagram showing an embodiment related to the present invention. FIG. 7 is a flowchart showing the flow of the processing of this embodiment. FIG. 8 is a diagram showing the correspondence in this embodiment.

【0026】図3において入力手段31は2枚の領域画
像を読み込む。(図7のステップ71)この際、2枚の
画像をA、Bとする。画素単位対応関係導出手段32は
2枚の画像の画素毎の対応関係を導出する。2枚の領域
画像の(m、n)(x座標がm、y座標がn)の領域の
値をそれぞれAmn、Bmnとする。いま画像A中のa
領域の対応領域bを、画像A中の領域aに属する全ての
画素(Amn=aなる全ての(m、n)について、画像
B中での領域をBmnの多数決で決めたものとしてa→
bと記す。この場合、bはaの参照リンクである。同様
にして画像B中のb領域の対応領域をa←bと記す。こ
の場合、aはbの参照リンクである。画素単位対応関係
導出手段32は画像A中の全ての領域について対応領域
をもとめ、また、画像B中の全ての領域について対応領
域を求める。(図7のステップ72、73)画素単位対
応関係記憶手段33はこの結果を記憶する。画素単位対
応関係記憶手段33の対応関係の対応の様子を図8に示
す。
In FIG. 3, the input means 31 reads two area images. (Step 71 in FIG. 7) At this time, two images are assumed to be A and B. The pixel unit correspondence deriving means 32 derives a correspondence for each pixel of the two images. The values of the area of (m, n) (x coordinate is m, y coordinate is n) of the two area images are Amn and Bmn, respectively. A in image A
The region b in the image B is defined as a region b in the image B for all the pixels belonging to the region a in the image A (for all (m, n) where Amn = a).
Indicated as b. In this case, b is a reference link of a. Similarly, the area corresponding to the area b in the image B is described as a ← b. In this case, a is a reference link of b. The pixel unit correspondence deriving means 32 obtains corresponding areas for all areas in the image A, and obtains corresponding areas for all areas in the image B. (Steps 72 and 73 in FIG. 7) The pixel unit correspondence storage unit 33 stores this result. FIG. 8 shows the correspondence of the correspondence in the pixel unit correspondence storage unit 33.

【0027】一対一対応領域導出手段4は、a→bかつ
a←bなる領域の組(a、b)を見つけだしこれらに新
たな領域番号をつける。(図7のステップ74)領域統
合手段35は一対一対応領域導出手段34で新たに領域
番号がつけられなかった領域について領域統合を行う。
残った領域のうち、対応領域がすでに新しい領域番号が
つけられたものは、その領域番号を新たな領域番号とす
るという処理をA、B全ての領域に番号がつけられるま
で繰り返す。(図7のステップ75)こうして新たにつ
けられた領域番号にしたがった結果を出力手段36は出
力する。(図7のステップ76)
The one-to-one correspondence area deriving means 4 finds a set of areas (a, b) where a → b and a ← b, and assigns a new area number to them. (Step 74 in FIG. 7) The area integrating means 35 performs area integration on the area to which a new area number has not been assigned by the one-to-one corresponding area deriving means 34.
Of the remaining areas, if the corresponding area has already been assigned a new area number, the process of setting the area number as a new area number is repeated until all the areas A and B are numbered. (Step 75 in FIG. 7) The output means 36 outputs the result according to the newly assigned area number. (Step 76 in FIG. 7)

【0028】次に本発明に関連する実施例について図面
を参照して説明する。
Next, embodiments related to the present invention will be described with reference to the drawings.

【0029】図4は本発明に関連する一実施例を示す機
能ブロック図である。図9はこの実施例における色整合
度の計算方法を示す図である。
FIG. 4 is a functional block diagram showing an embodiment related to the present invention. FIG. 9 is a diagram showing a method of calculating the degree of color matching in this embodiment.

【0030】図4において入力手段41は、領域統合後
(領域毎に一対一に対応のとれた)領域画像及び、領域
統合前の画像とその領域についての色情報を入力する。
In FIG. 4, an input means 41 inputs an area image after area integration (corresponding to each area on a one-to-one basis), an image before area integration, and color information on the area.

【0031】領域単位情報抽出手段42は統合後の領域
毎に色整合度を導出するために必要な変数である統合前
の領域の各々の画素数、色情報を抽出する。
The area unit information extracting means 42 extracts the number of pixels and color information of each area before integration, which are variables necessary for deriving the degree of color matching for each area after integration.

【0032】色間距離得点導出手段44は2色の色の入
力があったときにそのあいだの類似度を計算して返す。
一例として、2色の色相、明度成分をそれぞれH1、V
1、H2、V2また、DISTを2つベクトル間の距離
としたとき
The inter-color distance score deriving means 44 calculates and returns the similarity between two colors when they are input.
As an example, the hue and lightness components of two colors are represented by H1 and V, respectively.
1, H2, V2, and DIST is the distance between two vectors

【数1】 (ただしi、jは適当な重み係数、constは得点を
正に保つための定数)や彩度の大きさによってiの値を
変化させる方法等がある。
(Equation 1) (Where i and j are appropriate weighting factors, const is a constant for keeping the score positive), and a method of changing the value of i depending on the magnitude of the saturation.

【0033】領域単位色整合手段43は、統合前の領域
の画素数、色情報を領域単位情報抽出手段42より受け
取り、色情報を色間距離得点導出手段44に送って得ら
れた色間距離得点と画素数とをかけ算する事によって領
域毎の色整合度を導出する。
The area unit color matching means 43 receives the number of pixels and the color information of the area before integration from the area unit information extraction means 42, and sends the color information to the color distance score deriving means 44 to obtain the color distance. The degree of color matching for each area is derived by multiplying the score by the number of pixels.

【0034】整合総和導出手段45は領域単位色整合手
段43より領域毎の整合度を受け取りそれらを加算する
ことによって画像全体の色整合度を導出する。
The matching sum deriving means 45 receives the degree of matching for each area from the area unit color matching means 43 and adds them to derive the color matching degree of the entire image.

【0035】出力手段45は整合総和導出手段45より
結果を受け取り出力する。
The output means 45 receives and outputs the result from the matching sum deriving means 45.

【0036】[0036]

【発明の効果】以上説明したように、本発明によれば、
問い合わせに用いる領域画像及びデータベース中の領域
画像は違う視点で作成されたことによる、利用者の記憶
違いや、領域の忘却、領域の分けすぎ等によるマッチン
グの困難を解消することができるという効果がある。こ
のことにより、検索の際のマッチングに曖昧性をもたせ
ることが可能になる。すなわち、利用者が問い合わせの
際忘れてしまった特徴についてはたとえデータベース中
で確認されていても統合の段階でまとめられるので高い
得点で検索されるという効果がある。また、逆に利用者
の入力にデータベース中にない特徴が入っていても統合
してから検索するので検索に支障をきたさないという効
果がある。さらに本発明では色情報と形状情報の両方を
効率的に用いているので検索する際どちらか一方の情報
が曖昧になり極端な場合忘れてしまっても検索すること
が可能になるという効果がある。
As described above, according to the present invention,
Since the region image used for the inquiry and the region image in the database are created from different viewpoints, there is an effect that it is possible to solve a difficulty in matching due to a difference in memory of a user, forgetting of a region, excessive division of a region, and the like. is there. This makes it possible to make the matching at the time of retrieval ambiguous. In other words, the features that the user has forgotten at the time of the inquiry are collected at the integration stage even if they are confirmed in the database, so that there is an advantage that the feature is searched with a high score. Conversely, even if a feature that is not in the database is included in the user's input, the search is performed after integration, so that there is an effect that the search is not hindered. Further, in the present invention, since both the color information and the shape information are used efficiently, there is an effect that one of the information becomes ambiguous at the time of searching, and it is possible to search even if the information is forgotten in an extreme case. .

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施例を示す機能ブロック図FIG. 1 is a functional block diagram showing an embodiment of the present invention.

【図2】 本発明の一実施例を示す機能ブロック図FIG. 2 is a functional block diagram showing an embodiment of the present invention.

【図3】 本発明に関連する一実施例を示す機能ブロッ
ク図
FIG. 3 is a functional block diagram showing an embodiment related to the present invention.

【図4】 本発明に関連する一実施例を示す機能ブロッ
ク図
FIG. 4 is a functional block diagram showing an embodiment related to the present invention.

【図5】 本発明の領域画像の一例を示す図FIG. 5 is a diagram showing an example of a region image according to the present invention.

【図6】 本発明の処理の過程を示す図FIG. 6 is a diagram showing a process of processing according to the present invention.

【図7】 本発明に関連する実施例の処理の流れを示す
流れ図
FIG. 7 is a flowchart showing a processing flow of an embodiment related to the present invention.

【図8】 本発明に関連する実施例における対応関係を
示す図
FIG. 8 is a diagram showing a correspondence relationship in the embodiment related to the present invention.

【図9】 本発明に関連する実施例における色整合度の
計算方法を示す図
FIG. 9 is a diagram showing a method of calculating the degree of color matching in an embodiment related to the present invention.

【符号の説明】[Explanation of symbols]

1 入力手段 2 領域分割画像正規化手段 3 領域統合手段 4 領域整合度導出手段 5 出力手段 21 入力手段 22 領域分割画像正規化手段 23 領域統合手段 24 領域整合度導出手段 25 色情報整合度導出手段 26 画像間整合度導出手段 27 出力手段 31 入力手段 32 画素単位対応関係導出手段 33 領域対応関係記憶手段 34 一対一対応領域導出手段 35 領域統合手段 36 出力手段 41 入力手段 42 領域単位情報抽出手段 43 領域単位色整合手段 44 色間距離得点導出手段 45 整合総和導出手段 46 出力手段 REFERENCE SIGNS LIST 1 input means 2 area division image normalization means 3 area integration means 4 area consistency derivation means 5 output means 21 input means 22 area division image normalization means 23 area integration means 24 area consistency degree derivation means 25 color information consistency degree derivation means 26 Derivation means between images 27 Output means 31 Input means 32 Pixel correspondence correspondence derivation means 33 Area correspondence storage means 34 One-to-one correspondence area derivation means 35 Area integration means 36 Output means 41 Input means 42 Area unit information extraction means 43 Area unit color matching means 44 Inter-color distance score deriving means 45 Matching sum deriving means 46 Output means

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】領域分割された画像同士の整合度を計測す
る画像整合方法であって、 前記画像に含まれる各々の領域がそれらの画像間で一対
一に対応付けられるように各領域を統合する処理を行
い、統合後の領域に対して少なくとも形状情報を用いて
前記画像間の整合度を計測することを特徴とする画像整
合方法。
1. An image matching method for measuring the degree of matching between images obtained by dividing an area, wherein the areas are integrated so that each area included in the image is associated one-to-one with the images. An image matching method for performing a process of measuring the matching degree between the images using at least the shape information for the integrated area.
【請求項2】領域分割された画像同士の整合度を計測す
る画像整合方法であって、 前記画像に含まれる各々の領域がそれらの画像間で一対
一に対応付けられるように各領域を統合する処理を行
い、統合後の領域に対して少なくとも形状情報と統合前
の色情報の双方を用いて前記画像間の整合度を計測する
ことを特徴とする画像整合方法。
2. An image matching method for measuring the degree of matching between images obtained by dividing an area, wherein the areas are integrated such that each area included in the image is associated one-to-one with the images. An image matching method, wherein the matching degree between the images is measured using at least both the shape information and the color information before the integration for the area after the integration.
【請求項3】領域分割された画像同士の整合度を計測す
る画像整合装置であって、 前記画像に含まれる各々の領域がそれらの画像間で一対
一に対応付けられるように各領域を統合する処理を行う
領域統合手段と、 統合後の領域に対して形状情報を用いて前記画像間の整
合度を計測する領域整合度導出手段と、 を少なくとも含んで構成されることを特徴とする画像整
合装置。
3. An image matching apparatus for measuring a degree of matching between images obtained by dividing an area, wherein the areas are integrated so that each area included in the image is associated one-to-one with the images. An area integration means for performing a process of performing the processing, and an area matching degree deriving means for measuring the degree of matching between the images using shape information for the integrated area. Matching device.
【請求項4】領域分割された画像同士の整合度を計測す
る画像整合装置であって、 前記画像に含まれる各々の領域がそれらの画像間で一対
一に対応付けられるように各領域を統合する処理を行う
領域統合手段と、 統合後の領域に対して少なくとも形状情報と統合前の色
情報の双方を用いて前記画像間の整合度を計測する画像
間整合度導出手段と、 を少なくとも含んで構成されることを特徴とする画像整
合装置。
4. An image matching apparatus for measuring the degree of matching between divided images, wherein the respective regions are integrated such that the respective regions included in the images are associated with each other on a one-to-one basis. Region integration means for performing a process of performing, and at least image-to-image matching degree deriving means for measuring the matching degree between the images using at least both the shape information and the color information before integration for the integrated area. An image matching device characterized by comprising:
JP11250076A 1999-09-03 1999-09-03 Picture matching method/device Pending JP2000067248A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11250076A JP2000067248A (en) 1999-09-03 1999-09-03 Picture matching method/device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11250076A JP2000067248A (en) 1999-09-03 1999-09-03 Picture matching method/device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP3002932A Division JP3010747B2 (en) 1991-01-16 1991-01-16 Image matching method and apparatus

Publications (1)

Publication Number Publication Date
JP2000067248A true JP2000067248A (en) 2000-03-03

Family

ID=17202463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11250076A Pending JP2000067248A (en) 1999-09-03 1999-09-03 Picture matching method/device

Country Status (1)

Country Link
JP (1) JP2000067248A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7692669B2 (en) 2006-05-26 2010-04-06 Konica Minolta Business Technologies, Inc. Image processing apparatus, image processing method and image processing program
US8249434B2 (en) 2005-06-27 2012-08-21 Nec Corporation Contents playing method and apparatus with play starting position control

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8249434B2 (en) 2005-06-27 2012-08-21 Nec Corporation Contents playing method and apparatus with play starting position control
US7692669B2 (en) 2006-05-26 2010-04-06 Konica Minolta Business Technologies, Inc. Image processing apparatus, image processing method and image processing program

Similar Documents

Publication Publication Date Title
CN109583483B (en) Target detection method and system based on convolutional neural network
JP3234064B2 (en) Image retrieval method and apparatus
WO2016054802A1 (en) Hierarchical interlinked multi-scale convolutional network for image parsing
KR100892470B1 (en) Method for representing and searching an object in an image, apparatus, and computer readable medium thereof
EP1387303A2 (en) Image classification method and image feature space displaying method
JP2002543539A (en) Method for expressing color image, method for searching for color image, apparatus for expressing and searching for color image, computer system, computer program, and computer readable medium
JP2004522228A (en) A method for representing and comparing digital images.
US7724944B2 (en) Image retrieval method and image retrieval device
JP5507962B2 (en) Information processing apparatus, control method therefor, and program
JPH05181411A (en) Map information collation and update system
KR100302366B1 (en) Apparatus and method for searching layout base image
JP6202938B2 (en) Image recognition apparatus and image recognition method
JPH10149449A (en) Picture division method, picture identification method, picture division device and picture identification device
JP3010747B2 (en) Image matching method and apparatus
JPH10111946A (en) Image tracking device
JP2000067248A (en) Picture matching method/device
JPH08137908A (en) Method and device for retrieving picture
CN116092100A (en) Text content extraction method and device
JP2000310940A (en) Map information updating method and map updating device
JP2018049396A (en) Shape estimation method, shape estimation device and shape estimation program
JP2005173128A (en) Contour shape extractor
JPH03121571A (en) Color picture processor
JPH06309377A (en) Picture retrieving method and device
JP2581380B2 (en) Image clustering method and apparatus based on image structure information
JP6427534B2 (en) Pattern identification device, method and program

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20021203