JP2000285141A - Image retrieval device, image classifying device, and computer readable recording medium recorded with program for functioning computer as these devices - Google Patents

Image retrieval device, image classifying device, and computer readable recording medium recorded with program for functioning computer as these devices

Info

Publication number
JP2000285141A
JP2000285141A JP11359939A JP35993999A JP2000285141A JP 2000285141 A JP2000285141 A JP 2000285141A JP 11359939 A JP11359939 A JP 11359939A JP 35993999 A JP35993999 A JP 35993999A JP 2000285141 A JP2000285141 A JP 2000285141A
Authority
JP
Japan
Prior art keywords
image
similarity
images
classification
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11359939A
Other languages
Japanese (ja)
Other versions
JP4340367B2 (en
Inventor
Masajiro Iwasaki
雅二郎 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP35993999A priority Critical patent/JP4340367B2/en
Publication of JP2000285141A publication Critical patent/JP2000285141A/en
Application granted granted Critical
Publication of JP4340367B2 publication Critical patent/JP4340367B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image retrieval device capable of exactly expressing the intention of a user as a retrieval condition. SOLUTION: A U/I part 151 designates a plurality of inquiry images and designates the kind of a feature amount to be used for finding similarity to the image of a retrieval object for each of respective designated inquiry images, a matching engine 153 finds the degree of similarity to each inquiry image while using the feature amount of the kind designated by the U/I part 151 for each image of the retrieval object and finds the total degree of similarity to the image of the retrieval object while totaling the found degrees of similarity to each inquiry image, and the U/I part 151 outputs the retrieved result on the basis of the total degree of similarity found for each image of the retrieval object.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、大量の画像の中か
らユーザが希望する画像を探し出すための画像検索装置
および大量の画像を所定の分類先に分類する画像分類装
置に関し、ユーザが望む通りの方法で精度の高い画像検
索処理および画像分類処理を行うことが可能な画像検索
装置および画像分類装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image retrieving apparatus for retrieving an image desired by a user from a large number of images and an image classifying apparatus for classifying a large number of images into a predetermined classification destination. The present invention relates to an image retrieval apparatus and an image classification apparatus capable of performing highly accurate image retrieval processing and image classification processing by the method described above.

【0002】[0002]

【従来の技術】近年、コンピュータ技術や画像処理技術
の発達に伴って、大量の電子画像を蓄積して画像データ
ベースを構築する試みが盛んに行われている。画像デー
タベースを構築する際に重要となるのは、大量に蓄積し
た画像の中から利用したい画像を簡単に得ることができ
るようにするための画像検索装置である。
2. Description of the Related Art In recent years, with the development of computer technology and image processing technology, many attempts have been made to build up an image database by storing a large amount of electronic images. What is important when constructing an image database is an image search device that enables an image to be used to be easily obtained from a large amount of stored images.

【0003】画像検索装置の一つとして、各画像に言葉
を用いた検索キーを付与し、文書の検索と同様な方法
で、入力されたキーワードと画像に付された検索キーと
を照合し、キーワードと一致する検索キーが付された画
像を検索結果として返すというものがある。
[0003] As one of the image retrieval devices, a search key using words is given to each image, and in the same manner as in document retrieval, the entered keyword is collated with the search key attached to the image. In some cases, an image to which a search key matching a keyword is attached is returned as a search result.

【0004】ところが、人間が画像から受ける印象は人
によって異なるため、画像に付された検索キーがその画
像から人間が受ける印象を全て言い表しているとは言え
ず、従って言葉による検索キーを用いた画像検索では満
足な画像を得ることができない場合が多い。なぜなら、
画像中に登場する人間,動物,建物等の事物(以下「オ
ブジェクト」と定義する)の形状特徴や位置関係につい
ては、適切な言葉で表現することができない場合が多い
からである。
However, since the impression that a person receives from an image varies from person to person, the search key attached to the image cannot be said to express all the impressions that a person receives from the image. Therefore, a search key using words is used. In many cases, a satisfactory image cannot be obtained by image search. Because
This is because, in many cases, the shape features and positional relationships of objects (hereinafter, referred to as “objects”) such as humans, animals, and buildings appearing in images cannot be expressed in appropriate words.

【0005】そのため、キーワードと言葉による検索キ
ーとを照合することによって画像を検索するのではな
く、検索条件として特定の画像(以下「問合せ画像」と
記述する)を与え、問合せ画像に類似する画像を画像デ
ータベースの中から検索できるようにすることが望まし
い。このような検索装置を実現するために、問合せ画像
および検索対象の画像からそれぞれ画像の特徴を表す特
徴量を抽出し、問合せ画像の特徴量と検索対象の画像の
特徴量との類似性を判定し、問合せ画像の特徴量と類似
する特徴量を有する画像を検索結果として返すという方
法が提案されている。つまり、この画像検索装置は、特
徴間の類似性を画像自体の類似性と考えることによっ
て、類似する画像を検索するというものである。
Therefore, a specific image (hereinafter, referred to as a “query image”) is given as a search condition instead of searching for an image by collating a keyword with a search key of words, and an image similar to the query image is searched. Is desirably searchable from an image database. In order to realize such a search device, a feature amount representing a feature of each image is extracted from the query image and the search target image, and the similarity between the feature amount of the query image and the feature amount of the search target image is determined. A method has been proposed in which an image having a feature amount similar to the feature amount of a query image is returned as a search result. In other words, this image search device searches for similar images by considering the similarity between features as the similarity of the images themselves.

【0006】また、画像そのものを問合せ画像とするの
ではなく、各画像の特徴量として画像の色(色のヒスト
グラム),テクスチャ,オブジェクトの形状等を抽出し
てデータベース化しておき、画像を検索する際に、デー
タベース化した画像の特徴量を検索条件として指定する
ことによって、指定した特徴量を有する画像を検索する
という検索装置も提案されている(Myron Flickner et
al, “Query by Imageand Video Content: The QBIC Sy
stem,” Computer, September 1995, pp23-32)。
Further, instead of using the image itself as the query image, the image color (histogram of color), texture, the shape of the object, etc. are extracted and stored in a database as the feature amount of each image, and the image is searched. At this time, a search device that searches for an image having a specified feature amount by designating the feature amount of an image in a database as a search condition has also been proposed (Myron Flickner et al.
al, “Query by Imageand Video Content: The QBIC Sy
stem, ”Computer, September 1995, pp23-32).

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上記問
合せ画像を指定して、問合せ画像に類似する画像を検索
する画像検索装置においては、例えば、ユーザが検索結
果として望む画像に類似した問合せ画像が存在しない場
合、問合せ画像として指定するための画像を検索する処
理が必要となり、検索作業の利便性に欠けるという問題
点があった。
However, in an image search apparatus that searches for an image similar to the query image by specifying the query image, for example, a query image similar to the image desired by the user as a search result exists. If not, a process of searching for an image to be designated as a query image is required, and there is a problem that the search operation is not convenient.

【0008】また、画像の特徴量を指定して画像を検索
する画像検索装置にあっても、例えば、ユーザが検索結
果として望む画像の配色を選択したり、検索結果として
望む画像中に存在するオブジェクトの形状を描いたりす
ることによって画像の特徴量を検索条件として指定する
必要があるため、検索を実行する際のユーザの負担が大
きいという問題点があった。また、画像の特徴量を検索
条件として指定するため、ユーザが検索結果として希望
する画像を検索条件において的確に表現することは困難
で、検索に対するユーザの意図を適切に装置に伝えられ
ないという問題点があった。その結果、ユーザの望む検
索結果を得ることは困難であった。
Further, even in an image search apparatus for searching for an image by designating the feature amount of the image, for example, the user selects a color scheme of the image desired as a search result or exists in the image desired as a search result. Since it is necessary to specify the feature amount of an image as a search condition by drawing the shape of an object, there is a problem that a user's burden in performing a search is large. In addition, since the feature amount of an image is specified as a search condition, it is difficult for a user to accurately express a desired image as a search result in the search condition, and the user's intention for the search cannot be properly transmitted to the device. There was a point. As a result, it has been difficult to obtain a search result desired by the user.

【0009】すなわち、上記従来の画像検索装置におい
ては、検索条件の指定に自由度がなく、ユーザの意図を
検索条件として正確に表現することができないという点
で不便であった。したがって、ユーザの意図を装置側に
正確に伝えることができず、ユーザの望む画像を精度良
く得ることは困難であった。さらに、ユーザの意図を装
置側に正確に伝え、ユーザの意図通りの検索処理を行う
ことを可能にするためには、ユーザが望む方法で検索処
理を行えるように様々な検索手法が用意されていなけれ
ばならない。
[0009] That is, the above-described conventional image retrieval apparatus is inconvenient in that there is no degree of freedom in specifying the retrieval conditions, and the user's intention cannot be accurately expressed as the retrieval conditions. Therefore, the user's intention cannot be accurately communicated to the device side, and it has been difficult to obtain an image desired by the user with high accuracy. Furthermore, in order to accurately convey the user's intention to the device side and perform the search processing as intended by the user, various search methods are prepared so that the search processing can be performed in a manner desired by the user. There must be.

【0010】本発明は上記に鑑みてなされたものであっ
て、新たな方法で画像検索処理を実行可能な画像検索装
置を提供することを目的とする。
The present invention has been made in view of the above, and an object of the present invention is to provide an image search device capable of executing an image search process by a new method.

【0011】また、本発明は上記に鑑みてなされたもの
であって、ユーザの意図を検索条件として正確に表現で
きるようにし、精度の高い画像検索処理を行うことが可
能な画像検索装置を提供することを目的とする。
Further, the present invention has been made in view of the above, and provides an image search apparatus capable of accurately expressing a user's intention as a search condition and capable of performing a highly accurate image search process. The purpose is to do.

【0012】また、本発明は上記に鑑みてなされたもの
であって、ユーザの検索意図を検索結果に反映できるよ
うな新たな方法の画像検索処理を実行可能にすることに
より、精度の高い画像検索処理を行うことが可能な画像
検索装置を提供することを目的とする。
Further, the present invention has been made in view of the above, and is capable of executing an image search process of a new method capable of reflecting a user's search intention in search results, thereby achieving high-accuracy image search. It is an object to provide an image search device capable of performing a search process.

【0013】また、本発明は、上記のような画像検索装
置における画像検索処理を画像分類処理に応用し、新た
な方法で画像分類処理を実行可能な画像分類装置を提供
することを目的とする。
It is another object of the present invention to provide an image classification apparatus which can apply the image retrieval processing in the image retrieval apparatus as described above to the image classification processing and can execute the image classification processing by a new method. .

【0014】また、本発明は、上記のような画像検索装
置における画像検索処理を画像分類処理に応用し、ユー
ザの意図を画像分類の基準となる分類条件として正確に
表現できるようにし、精度の高い画像の分類処理を行う
ことが可能な画像分類装置を提供することを目的とす
る。
Further, the present invention applies the image search processing in the image search apparatus as described above to the image classification processing, so that the intention of the user can be accurately represented as a classification condition serving as a reference for the image classification. It is an object of the present invention to provide an image classification device capable of performing high image classification processing.

【0015】さらに、本発明は、上記のような画像検索
装置における画像検索処理を画像分類処理に応用し、ユ
ーザの検索意図を分類結果に反映できるような新たな方
法の画像分類処理を実行可能にすることにより、精度の
高い画像分類処理を行うことが可能な画像分類装置を提
供することを目的とする。
Further, the present invention applies the image search processing in the image search apparatus as described above to the image classification processing, and can execute the image classification processing of a new method that can reflect the user's search intention in the classification result. Accordingly, an object of the present invention is to provide an image classification device capable of performing highly accurate image classification processing.

【0016】[0016]

【課題を解決するための手段】上記目的を達成するた
め、請求項1の画像検索装置は、問合せ画像および複数
の検索対象の画像から画像の特徴を表す特徴量を少なく
とも一種類抽出し、抽出した少なくとも一種類の特徴量
を用いて前記問合せ画像および検索対象の画像の類似度
を求めることにより、前記複数の検索対象の画像から前
記問合せ画像と同一または類似の画像を検索する画像検
索装置において、前記問合せ画像および検索対象の画像
の類似度を求める際に使用される各種類の特徴量毎にそ
れぞれ一つの問合せ画像を指定する指定手段と、前記検
索対象の画像毎に、前記指定手段で指定された各問合せ
画像との類似度を対応する種類の特徴量を用いて求める
と共に、求めた各問合せ画像との類似度を合計して前記
検索対象の画像の総合類似度を求める検索手段と、前記
検索手段で前記検索対象の画像毎に求めた総合類似度に
基づいて、検索結果を出力する出力手段と、を備えたも
のである。
In order to achieve the above object, an image retrieval apparatus according to a first aspect of the present invention extracts and extracts at least one type of feature quantity representing a feature of an image from an inquiry image and a plurality of images to be searched. An image search apparatus that searches for the same or similar image as the query image from the plurality of search target images by calculating the similarity between the query image and the search target image using the at least one type of feature amount obtained above. A designating unit that designates one query image for each type of feature amount used when calculating the similarity between the query image and the search target image, and a designating unit that specifies one query image for each of the search target images. The degree of similarity with each of the specified query images is obtained using the feature amount of the corresponding type, and the obtained degree of similarity with each of the query images is summed to obtain the total of the images to be searched. Search means for obtaining the similarity, based on the overall similarity obtained for each image of the search target in the search unit, in which and an output means for outputting a search result.

【0017】また、請求項2の画像検索装置は、問合せ
画像および複数の検索対象の画像から画像の特徴を表す
特徴量を少なくとも一種類抽出し、抽出した少なくとも
一種類の特徴量を用いて前記問合せ画像および検索対象
の画像の類似度を求めることにより、前記複数の検索対
象の画像から前記問合せ画像と同一または類似の画像を
検索する画像検索装置において、前記問合せ画像を複数
指定すると共に、指定した各問合せ画像毎に前記検索対
象の画像との類似度を求める際に使用する特徴量の種類
を指定する指定手段と、前記検索対象の画像毎に、前記
指定手段で指定された種類の特徴量を用いて各問合せ画
像との類似度を求めると共に、求めた各問合せ画像との
類似度を合計して前記検索対象の画像の総合類似度を求
める検索手段と、前記検索手段で前記検索対象の画像毎
に求めた総合類似度に基づいて、検索結果を出力する出
力手段と、を備えたものである。
Further, the image retrieval apparatus according to claim 2 extracts at least one kind of feature quantity representing a feature of the image from the query image and the plurality of search target images, and uses the extracted at least one kind of feature quantity. In an image search apparatus that searches for the same or similar image as the query image from the plurality of search target images by calculating the similarity between the query image and the search target image, a plurality of the query images are specified and specified. Specifying means for specifying a type of a feature amount to be used when obtaining a similarity with the image to be searched for each query image, and a feature of the type specified by the specifying means for each image to be searched. Search means for calculating the similarity with each query image using the amount, and summing the calculated similarities with each query image to obtain the overall similarity of the search target image, Based on the overall similarity obtained for each image of the search target in the serial search means, in which and an output means for outputting a search result.

【0018】また、請求項3の画像検索装置は、問合せ
画像および複数の検索対象の画像から画像の特徴を表す
特徴量を少なくとも一種類抽出し、抽出した少なくとも
一種類の特徴量を用いて前記問合せ画像および検索対象
の画像の類似度を求めることにより、前記複数の検索対
象の画像から前記問合せ画像と同一または類似の画像を
検索する画像検索装置において、前記問合せ画像を複数
指定する指定手段と、前記検索対象の画像毎に、前記指
定手段で指定された各問合せ画像との類似度を求めると
共に、求めた各問合せ画像との類似度を合計して前記検
索対象の画像の総合類似度を求める検索手段と、前記検
索手段で前記検索対象の画像毎に求めた総合類似度に基
づいて、検索結果を出力する出力手段と、を備えたもの
である。
The image retrieval apparatus according to a third aspect of the present invention extracts at least one kind of feature quantity representing the feature of the image from the query image and the plurality of search target images, and uses the extracted at least one kind of feature quantity. An image search device that searches for the same or similar image as the query image from the plurality of search target images by calculating the similarity between the query image and the search target image; Calculating, for each of the images to be searched, the degree of similarity with each of the query images specified by the specifying means, and summing up the degrees of similarity with each of the obtained query images to obtain the overall similarity of the images to be searched. A search unit to be obtained; and an output unit to output a search result based on the overall similarity obtained for each image to be searched by the search unit.

【0019】また、請求項4の画像検索装置は、問合せ
画像および複数の検索対象の画像から画像の特徴を表す
特徴量を少なくとも一種類抽出し、抽出した少なくとも
一種類の特徴量を用いて前記問合せ画像および検索対象
の画像の類似度を求めることにより、前記複数の検索対
象の画像から前記問合せ画像と同一または類似の画像を
検索する画像検索装置において、前記問合せ画像を複数
指定する指定手段と、前記検索対象の画像毎に、前記指
定手段で指定された各問合せ画像との類似度を求めると
共に、求めた各問合せ画像との類似度の中から最も高い
類似性を示す類似度を選択して前記検索対象の画像の総
合類似度を求める検索手段と、前記検索手段で前記検索
対象の画像毎に求めた総合類似度に基づいて、検索結果
を出力する出力手段と、を備えたものである。
The image retrieval apparatus according to a fourth aspect of the present invention extracts at least one type of feature quantity representing the feature of the image from the query image and the plurality of images to be searched, and uses the extracted at least one type of feature quantity. An image search device that searches for the same or similar image as the query image from the plurality of search target images by calculating the similarity between the query image and the search target image; For each of the images to be searched, determine the similarity with each of the query images specified by the specifying unit, and select the similarity indicating the highest similarity from the obtained similarities with the query images. Means for obtaining the overall similarity of the image to be searched by the search means, and an output means for outputting a search result based on the overall similarity obtained for each image to be searched by the search means. When, those having a.

【0020】また、請求項5の画像検索装置は、請求項
2,3または4に記載の画像検索装置において、前記指
定手段が、前記検索手段で求める類似度に対し、前記問
合せ画像の種類に応じて任意の重み付けを行うことがで
きるように、前記各問合せ画像毎に重要度を指定するこ
とが可能であり、前記検索手段が、前記検索対象の画像
毎に、前記各問合せ画像との類似度を求め、求めた各問
合せ画像との類似度に対して前記指定手段で指定された
重要度に応じた重み付けを行った後、前記総合類似度を
求めるものである。
According to a fifth aspect of the present invention, in the image search apparatus according to the second, third, or fourth aspect, the designation means determines the type of the query image with respect to the similarity determined by the search means. It is possible to specify an importance level for each of the query images so that any weight can be given according to the query image, and the search unit determines, for each of the search target images, a similarity to each of the query images. The degree of similarity is obtained, and the obtained degree of similarity with each query image is weighted according to the degree of importance specified by the specifying means, and then the overall degree of similarity is obtained.

【0021】また、請求項6の画像検索装置は、請求項
3または4に記載の画像検索装置において、前記指定手
段が、複数種類の特徴量を用いて前記問合せ画像および
検索対象の画像の類似度を求める場合に、前記検索手段
で求める類似度に対し、前記問合せ画像および特徴量の
種類に応じて任意の重み付けを行うことができるよう
に、各種類の特徴量毎の重要度を各問合せ画像毎に指定
することが可能であり、前記検索手段が、前記検索対象
の画像それぞれについて、前記各種類の特徴量毎に前記
各問合せ画像との類似度を求め、前記各種類の特徴量毎
に求めた各問合せ画像との類似度に対して前記指定手段
で指定された重要度に応じた重み付けを行った後、前記
総合類似度を求めるものである。
According to a sixth aspect of the present invention, in the image search apparatus according to the third or fourth aspect, the specifying means uses a plurality of types of feature amounts to determine the similarity between the query image and the image to be searched. When determining the degree, the importance of each type of feature is determined by each query so that the similarity determined by the search means can be arbitrarily weighted in accordance with the type of the query image and the feature. It is possible to specify for each image, the search means obtains the similarity with each of the query images for each type of feature amount for each of the search target images, After weighting the similarity with each query image obtained in (1) according to the degree of importance specified by the specifying means, the overall similarity is obtained.

【0022】また、請求項7の画像検索装置は、請求項
3または4に記載の画像検索装置において、さらに、複
数種類の特徴量を用いて前記問合せ画像および検索対象
の画像の類似度を求める場合に、前記検索手段で求める
類似度に対し、前記特徴量の種類に応じて任意の重み付
けを行うことができるように、前記指定手段で指定され
た各問合せ画像間の類似度を各種類の特徴量毎に求め、
求めた各種類の特徴量毎の類似度に基づいて前記各問合
せ画像間における各種類の特徴量毎の重要度を決定する
重要度決定手段を備え、前記検索手段が、前記検索対象
の画像それぞれについて、前記各種類の特徴量毎に各問
合せ画像との類似度を求め、前記各種類の特徴量毎に求
めた各問合せ画像との類似度に対して前記重要度決定手
段で決定した各種類の特徴量毎の重要度に応じた重み付
けを行った後、前記総合類似度を求めるものである。
According to a seventh aspect of the present invention, in the image search apparatus according to the third or fourth aspect, further, the similarity between the query image and the image to be searched is obtained using a plurality of types of feature amounts. In such a case, the similarity between the query images specified by the specifying unit is determined for each type so that the similarity obtained by the search unit can be arbitrarily weighted in accordance with the type of the feature amount. Calculated for each feature,
An importance determining unit that determines the importance of each type of feature amount between the query images based on the obtained similarity degree of each type of feature amount; For each of the types of feature amounts, a similarity with each query image is obtained, and the similarity with each query image obtained for each type of feature amount is determined by the importance determining unit. After performing weighting according to the importance for each feature amount, the overall similarity is obtained.

【0023】また、請求項8の画像検索装置は、問合せ
画像および複数の検索対象の画像から画像の特徴を表す
特徴量を少なくとも一種類抽出し、抽出した少なくとも
一種類の特徴量を用いて前記問合せ画像および検索対象
の画像の類似度を求めることにより、前記複数の検索対
象の画像から前記問合せ画像と同一または類似の画像を
検索する画像検索装置において、前記問合せ画像を少な
くとも一つ指定すると共に、画像から抽出する特徴量の
粗さのレベルを粗から細に向かって段階的に定義した抽
出基準に基づいて、検索に利用する特徴量の粗さのレベ
ルを少なくとも一つ指定する指定手段と、前記抽出基準
に基づいて、前記問合せ画像および複数の検索対象の画
像から少なくとも前記指定手段で指定された粗さのレベ
ルに該当する特徴量を所定のタイミングで抽出する特徴
抽出手段と、前記検索対象の画像毎に、前記指定手段で
指定された粗さのレベルに応じた特徴量を用いて前記問
合せ画像との類似度を求める検索手段と、前記検索手段
で前記検索対象の画像毎に求めた類似度に基づいて、検
索結果を出力する出力手段と、を備えたものである。
Further, the image retrieval apparatus according to claim 8 extracts at least one kind of feature quantity representing the feature of the image from the query image and the plurality of images to be searched, and uses the extracted at least one kind of feature quantity. In an image search apparatus that searches for the same or similar image as the query image from the plurality of search images by determining the similarity between the query image and the search target image, at least one of the query images is specified. Specifying means for specifying at least one roughness level of a feature to be used for search, based on an extraction criterion in which the level of roughness of a feature to be extracted from an image is defined stepwise from coarse to fine. A feature corresponding to at least a roughness level specified by the specifying unit from the query image and the plurality of images to be searched based on the extraction criterion. Extracting means at a predetermined timing; and searching means for obtaining, for each image to be searched, a similarity with the query image using a feature amount corresponding to a roughness level specified by the specifying means. And output means for outputting a search result based on the similarity obtained for each image to be searched by the search means.

【0024】また、請求項9の画像検索装置は、請求項
8に記載の画像検索装置において、前記抽出基準が、少
なくとも画像を何分割するかを表す分割数を前記粗さの
レベルとして段階的に定義しており、前記特徴抽出手段
が、前記段階的に定義された粗さのレベルのいずれか一
つに応じて前記特徴量を抽出する場合、該当する分割数
に基づいて画像を分割して複数の分割画像を生成し、生
成した各分割画像から前記特徴量をそれぞれ抽出するこ
とにより、前記問合せ画像および検索対象の画像から分
割画像単位の特徴量からなる特徴量群を抽出し、前記検
索手段が、前記特徴量群を利用して前記問合せ画像およ
び検索対象の画像の類似度を求める場合、前記問合せ画
像および検索対象の画像の対応する分割画像毎の類似度
を該当する特徴量を用いてそれぞれ求めることにより、
前記問合せ画像および検索対象の画像の類似度を求める
ものである。
According to a ninth aspect of the present invention, in the image retrieval apparatus according to the eighth aspect, the extraction criterion includes a step-by-step process in which the number of divisions indicating at least how many images are divided is set as the roughness level. When the feature extraction unit extracts the feature amount according to any one of the stepwise defined roughness levels, the feature extraction unit divides the image based on the corresponding division number. A plurality of divided images, and extracting the feature amount from each of the generated divided images, thereby extracting a feature amount group including feature amounts in divided image units from the query image and the search target image, When the search unit obtains the similarity between the query image and the search target image using the feature amount group, the similarity of each of the divided images corresponding to the query image and the search target image is a feature amount. By finding respectively, using,
The similarity between the query image and the image to be searched is obtained.

【0025】また、請求項10の画像検索装置は、請求
項9に記載の画像検索装置において、前記抽出基準が、
前記段階的に定義された粗さのレベル中の最も粗い特徴
量を示すレベルとして、画像を分割することなく、画像
全体を特徴量の抽出対象とするレベルを含み、前記特徴
抽出手段が、前記画像全体を特徴量の抽出対象とするレ
ベルに応じて特徴量を抽出する場合、前記問合せ画像お
よび検索対象の画像から画像全体を対象として特徴量を
抽出するものである。
According to a tenth aspect of the present invention, in the image search apparatus of the ninth aspect, the extraction criterion is
As the level indicating the coarsest feature amount among the stepwise defined roughness levels, without dividing the image, includes a level at which the entire image is to be extracted as a feature amount, and the feature extraction means includes: When extracting a feature amount in accordance with a level at which the entire image is to be extracted, the feature amount is extracted from the query image and the image to be searched for the entire image.

【0026】また、請求項11の画像検索装置は、請求
項8,9または10のいずれか一つに記載の画像検索装
置において、前記抽出基準が、画像中に存在するオブジ
ェクトを特徴量の抽出対象とする場合に、前記オブジェ
クトから抽出する特徴量の粗さのレベルの定義を含むも
のである。
[0027] According to an eleventh aspect of the present invention, in the image search apparatus according to any one of the eighth, ninth and tenth aspects, the extraction criterion is such that an object existing in the image is extracted as a feature amount. In the case of a target, the definition of the roughness level of the feature quantity extracted from the object is included.

【0027】また、請求項12の画像検索装置は、請求
項8〜11のいずれか一つに記載の画像検索装置におい
て、前記特徴抽出手段が、前記複数の検索対象の画像に
ついては前記抽出基準で定義された全ての粗さのレベル
に応じた特徴量を予め抽出しておき、前記指定手段で指
定された問合せ画像のうち、前記特徴量が抽出されてい
ない問合せ画像については前記検索手段が類似度を求め
る処理を実行する前に前記指定手段で指定された粗さの
レベルに応じた特徴量を抽出するものである。
According to a twelfth aspect of the present invention, in the image search apparatus according to any one of the eighth to eleventh aspects, the feature extracting means determines that the plurality of images to be searched are determined by the extraction criterion. The feature amounts corresponding to all the roughness levels defined in are extracted in advance, and among the query images designated by the designation unit, for the query image from which the feature amounts have not been extracted, the search unit Before executing the processing for obtaining the degree of similarity, a feature amount corresponding to the roughness level specified by the specifying means is extracted.

【0028】また、請求項13の画像検索装置は、問合
せ画像および複数の検索対象の画像から画像の特徴を表
す特徴量を少なくとも一種類抽出し、抽出した少なくと
も一種類の特徴量を用いて前記問合せ画像および検索対
象の画像の類似度を求めることにより、前記複数の検索
対象の画像から前記問合せ画像と同一または類似の画像
を検索する画像検索装置において、前記問合せ画像を少
なくとも一つ指定する指定手段と、前記検索対象の画像
毎に、前記検索対象の画像中の所定のサイズの領域と前
記指定手段で指定された問合せ画像との類似度を予め抽
出した所定の特徴量を用いて求める処理を前記検索対象
の画像全体にわたって繰り返し実行する検索手段と、前
記検索手段で前記検索対象の画像毎に求めた類似度に基
づいて、検索結果を出力する出力手段と、を備えたもの
である。
[0028] The image retrieval apparatus according to a thirteenth aspect extracts at least one type of feature quantity representing an image feature from the query image and the plurality of search target images, and uses the extracted at least one type of feature quantity. In an image search apparatus that searches for the same or similar image as the query image from the plurality of search target images by calculating the similarity between the query image and the search target image, a designation that specifies at least one of the query images Means for obtaining, for each image to be searched, a degree of similarity between a region of a predetermined size in the image to be searched and the query image specified by the specifying means using a predetermined feature amount extracted in advance; Based on the similarity obtained for each of the search target images by the search unit. And output means for outputting, in which with a.

【0029】また、請求項14の画像検索装置は、請求
項1〜13のいずれか一つに記載の画像検索装置におい
て、前記指定手段が、検索結果の画像を前記問合せ画像
として指定可能であるものである。
According to a fourteenth aspect of the present invention, in the image search device according to any one of the first to thirteenth aspects, the designating means can designate a search result image as the query image. Things.

【0030】また、請求項15のコンピュータ読み取り
可能な記録媒体は、前記請求項1〜14のいずれか一つ
に記載の画像検索装置の各手段としてコンピュータを機
能させるためのプログラムを記録したものである。
According to a fifteenth aspect of the present invention, there is provided a computer-readable recording medium on which a program for causing a computer to function as each means of the image retrieval device according to any one of the first to fourteenth aspects is recorded. is there.

【0031】また、請求項16の画像分類装置は、分類
対象の画像の分類先となる分類項目毎に前記分類対象の
画像の分類基準となる基準画像を設定し、前記各分類項
目毎に設定された基準画像および前記分類対象の画像か
らそれぞれ抽出した画像の特徴を表す少なくとも一種類
の特徴量を用いることにより、前記各分類項目毎に前記
基準画像および分類対象の画像の類似度を求め、求めた
類似度に基づいて前記分類対象の画像を前記分類項目の
いずれかに分類する画像分類装置であって、前記分類項
目を設定し、設定した分類項目それぞれに対し、前記基
準画像および分類対象の画像の類似度を求める際に使用
される各種類の特徴量毎にそれぞれ一つの基準画像を設
定する設定手段と、前記分類項目毎に、前記設定手段で
設定された各基準画像および分類対象の画像の類似度を
対応する種類の特徴量を用いて求めると共に、求めた類
似度を合計して前記分類対象の画像の総合類似度を求め
る演算手段と、前記演算手段で前記分類項目毎に求めた
前記分類対象の画像の総合類似度および予め設定された
分類先決定基準に基づいて、前記分類対象の画像の分類
先となる分類項目を決定する決定手段と、を備えたもの
である。
The image classification apparatus according to claim 16 sets a reference image as a classification reference of the image to be classified for each classification item to which the image to be classified is classified, and sets the reference image for each classification item. By using at least one type of feature amount representing the characteristics of the extracted image from the reference image and the image of the classification target, the similarity of the reference image and the image of the classification target for each of the classification items, An image classification device that classifies the image to be classified into any of the classification items based on the obtained similarity, wherein the classification item is set, and the reference image and the classification target are set for each of the set classification items. Setting means for setting one reference image for each type of feature amount used when calculating the similarity between images, and setting each reference image set by the setting means for each classification item. Calculating means for calculating the similarity between the image and the image to be classified using the corresponding type of feature quantity, and calculating the total similarity of the images to be classified by summing up the obtained similarities; and Determining means for determining a classification item to which the classification target image is to be classified, based on the overall similarity of the classification target image obtained for each classification item and a preset classification destination determination criterion. Things.

【0032】また、請求項17の画像分類装置は、分類
対象の画像の分類先となる分類項目毎に前記分類対象の
画像の分類基準となる基準画像を設定し、前記各分類項
目毎に設定された基準画像および前記分類対象の画像か
らそれぞれ抽出した画像の特徴を表す少なくとも一種類
の特徴量を用いることにより、前記各分類項目毎に前記
基準画像および分類対象の画像の類似度を求め、求めた
類似度に基づいて前記分類対象の画像を前記分類項目の
いずれかに分類する画像分類装置であって、前記分類項
目を設定し、設定した分類項目毎に、前記基準画像を複
数設定すると共に、設定した各基準画像毎に前記分類対
象の画像との類似度を求める際に使用する特徴量の種類
を設定する設定手段と、前記分類項目毎に、前記設定手
段で設定された種類の特徴量を用いて各基準画像および
分類対象の画像の類似度を求めると共に、求めた類似度
を合計して前記分類対象の画像の総合類似度を求める演
算手段と、前記演算手段で前記分類項目毎に求めた前記
分類対象の画像の総合類似度および予め設定された分類
先決定基準に基づいて、前記分類対象の画像の分類先と
なる分類項目を決定する決定手段と、を備えたものであ
る。
The image classification apparatus according to claim 17 sets a reference image as a classification standard of the image to be classified for each classification item to which the image to be classified is classified, and sets the reference image for each of the classification items. By using at least one type of feature amount representing the characteristics of the extracted image from the reference image and the image of the classification target, the similarity of the reference image and the image of the classification target for each of the classification items, An image classification device that classifies the image to be classified into one of the classification items based on the obtained similarity, wherein the classification item is set, and a plurality of the reference images are set for each of the set classification items. A setting unit for setting a type of a feature amount used when obtaining a similarity with the image to be classified for each of the set reference images; and a type set by the setting unit for each of the classification items. Calculating means for calculating the similarity between each reference image and the image to be classified by using the feature amounts of the above, and calculating the total similarity of the images to be classified by summing up the obtained similarities; Determining means for determining a classification item to which the classification target image is to be classified, based on the overall similarity of the classification target image obtained for each item and a preset classification destination determination criterion. It is.

【0033】また、請求項18の画像分類装置は、分類
対象の画像の分類先となる分類項目毎に前記分類対象の
画像の分類基準となる基準画像を設定し、前記各分類項
目毎に設定された基準画像および前記分類対象の画像か
らそれぞれ抽出した画像の特徴を表す少なくとも一種類
の特徴量を用いることにより、前記各分類項目毎に前記
基準画像および分類対象の画像の類似度を求め、求めた
類似度に基づいて前記分類対象の画像を前記分類項目の
いずれかに分類する画像分類装置であって、前記分類項
目を設定し、設定した分類項目毎に、前記基準画像を複
数設定する設定手段と、前記分類項目毎に、前記設定手
段で設定された各基準画像および前記分類対象の画像の
類似度を求めると共に、求めた類似度を合計して前記分
類対象の画像の総合類似度を求める演算手段と、前記演
算手段で前記分類項目毎に求めた前記分類対象の画像の
総合類似度および予め設定された分類先決定基準に基づ
いて、前記分類対象の画像の分類先となる分類項目を決
定する決定手段と、を備えたものである。
An image classification apparatus according to claim 18 sets a reference image as a classification standard of the image to be classified for each classification item to which the image to be classified is classified, and sets the reference image for each of the classification items. By using at least one type of feature amount representing the characteristics of the extracted image from the reference image and the image of the classification target, the similarity of the reference image and the image of the classification target for each of the classification items, An image classification device that classifies the image to be classified into one of the classification items based on the obtained similarity, wherein the classification item is set, and a plurality of the reference images are set for each of the set classification items. Setting means for obtaining, for each of the classification items, a similarity between each of the reference images set by the setting means and the image to be classified, and summing up the obtained similarities to obtain a total of the images to be classified. Calculating means for calculating the degree of similarity, based on the overall similarity of the images to be classified obtained for each of the classification items by the calculating means and a predetermined classification destination determination criterion, Determining means for determining a classification item to be classified.

【0034】また、請求項19の画像分類装置は、分類
対象の画像の分類先となる分類項目毎に前記分類対象の
画像の分類基準となる基準画像を設定し、前記各分類項
目毎に設定された基準画像および前記分類対象の画像か
らそれぞれ抽出した画像の特徴を表す少なくとも一種類
の特徴量を用いることにより、前記各分類項目毎に前記
基準画像および分類対象の画像の類似度を求め、求めた
類似度に基づいて前記分類対象の画像を前記分類項目の
いずれかに分類する画像分類装置であって、前記分類項
目を設定し、設定した分類項目毎に、前記基準画像を複
数設定する設定手段と、前記分類項目毎に、前記設定手
段で設定された各基準画像および前記分類対象の画像の
類似度を求めると共に、求めた類似度の中から最も高い
類似性を示す類似度を選択して前記分類対象の画像の総
合類似度を求める演算手段と、前記演算手段で前記分類
項目毎に求めた前記分類対象の画像の総合類似度および
予め設定された分類先決定基準に基づいて、前記分類対
象の画像の分類先となる分類項目を決定する決定手段
と、を備えたものである。
The image classification apparatus according to the nineteenth aspect sets a reference image as a classification criterion of the classification target image for each classification item to which the classification target image is classified, and sets the reference image for each of the classification items. By using at least one type of feature amount representing the characteristics of the extracted image from the reference image and the image of the classification target, the similarity of the reference image and the image of the classification target for each of the classification items, An image classification device that classifies the image to be classified into one of the classification items based on the obtained similarity, wherein the classification item is set, and a plurality of the reference images are set for each of the set classification items. Setting means for obtaining, for each of the classification items, a similarity between each of the reference images set by the setting means and the image to be classified, and a similarity indicating the highest similarity among the obtained similarities. Calculating means for calculating the overall similarity of the images to be classified, and calculating the total similarity of the images to be classified obtained for each of the classification items by the arithmetic means and a preset classification destination determination criterion. Determining means for determining a classification item to which the image to be classified is to be classified.

【0035】また、請求項20の画像分類装置は、請求
項17,18または19に記載の画像分類装置におい
て、前記設定手段が、前記演算手段で求める類似度に対
し、前記基準画像の種類に応じて任意の重み付けを行う
ことができるように、前記各基準画像毎に重要度を設定
することが可能であり、前記演算手段が、前記分類項目
毎に、前記各基準画像および分類対象の画像の類似度を
求め、求めた類似度に対して前記設定手段で設定された
重要度に応じた重み付けを行った後、前記総合類似度を
求めるものである。
According to a twentieth aspect of the present invention, in the image categorizing apparatus according to the seventeenth, eighteenth, or nineteenth aspect, the setting means determines the type of the reference image with respect to the similarity obtained by the arithmetic means. It is possible to set the importance for each of the reference images so that any weighting can be performed according to the reference image. Is obtained, and the obtained similarity is weighted according to the importance set by the setting means, and then the overall similarity is obtained.

【0036】また、請求項21の画像分類装置は、請求
項18または19に記載の画像分類装置において、前記
設定手段が、複数種類の特徴量を用いて前記基準画像お
よび分類対象の画像の類似度を求める場合に、前記演算
手段で求める類似度に対し、前記基準画像および特徴量
の種類に応じて任意の重み付けを行うことができるよう
に、各種類の特徴量毎の重要度を各基準画像毎に設定す
ることが可能であり、前記演算手段が、前記分類項目そ
れぞれについて、前記各種類の特徴量毎に前記各基準画
像および分類対象の画像の類似度を求め、前記各種類の
特徴量毎に求めた類似度に対して前記設定手段で設定さ
れた重要度に応じた重み付けを行った後、前記総合類似
度を求めるものである。
According to a twenty-first aspect of the present invention, in the image classification apparatus according to the eighteenth or nineteenth aspect, the setting means uses a plurality of types of feature amounts to obtain a similarity between the reference image and the image to be classified. When determining the degree, the importance for each type of feature is determined by each reference level so that the similarity determined by the calculation means can be arbitrarily weighted in accordance with the type of the reference image and the feature. It is possible to set the similarity between the reference image and the image to be classified for each type of feature amount for each of the classification items, After weighting the similarity obtained for each quantity according to the importance set by the setting means, the overall similarity is obtained.

【0037】また、請求項22の画像分類装置は、請求
項18または19に記載の画像分類装置において、さら
に、複数種類の特徴量を用いて前記基準画像および分類
対象の画像の類似度を求める場合に、前記演算手段で求
める類似度に対し、前記特徴量の種類に応じて任意の重
み付けを行うことができるように、前記分類項目毎に、
前記設定手段で設定された各基準画像間の類似度を各種
類の特徴量毎に求め、前記各種類の特徴量毎に求めた類
似度に基づいて前記各基準画像間における各特徴量毎の
重要度を決定する重要度決定手段を備え、前記演算手段
が、前記分類項目それぞれについて、前記各種類の特徴
量毎に前記各基準画像および分類対象の画像の類似度を
求め、前記各種類の特徴量毎に求めた類似度に対して前
記重要度決定手段で決定された重要度に応じた重み付け
を行った後、前記総合類似度を求めるものである。
According to a twenty-second aspect of the present invention, in the image classification apparatus of the eighteenth or nineteenth aspect, the similarity between the reference image and the image to be classified is further determined using a plurality of types of feature amounts. In this case, for each of the classification items, a similarity calculated by the calculation unit can be arbitrarily weighted in accordance with the type of the feature amount.
The similarity between the reference images set by the setting means is obtained for each type of feature amount, and the similarity between each of the reference images is obtained based on the similarity obtained for each type of feature amount. An importance determining unit for determining an importance, wherein the calculating unit obtains a similarity between the reference image and the image to be classified for each of the types of feature amounts for each of the classification items, and After weighting the similarity obtained for each feature amount according to the importance determined by the importance determining means, the overall similarity is obtained.

【0038】また、請求項23の画像分類装置は、請求
項16〜22のいずれか一つに記載の画像分類装置にお
いて、前記設定手段が、前記分類項目毎に分類された画
像をさらに分類するための分類項目を設定可能であるも
のである。
According to a twenty-third aspect of the present invention, in the image classification apparatus according to any one of the sixteenth to twenty-second aspects, the setting means further classifies the images classified for each of the classification items. Can be set.

【0039】また、請求項24の画像分類装置は、分類
対象の複数の画像から画像の特徴を表す少なくとも一種
類の特徴量を抽出し、抽出した特徴量を用いて前記分類
対象の各画像を類似する画像同士のグループに分類する
画像分類装置であって、前記特徴量の種類を指定する指
定手段と、前記指定手段で特徴量の種類が指定された場
合に、指定された種類の特徴量を用いて前記分類対象の
各画像間の類似度を求め、求めた分類対象の各画像間の
類似度に基づいて、前記分類対象の各画像を類似する画
像同士のグループに分類する分類手段と、前記分類手段
で分類された各グループからそれぞれグループを代表す
る代表画像を選択して画面表示する表示手段と、を備
え、前記指定手段が、さらに、前記表示手段によって表
示された代表画像の一つを指定すると共に、前記特徴量
の種類を指定可能であり、前記分類手段が、前記指定手
段で前記代表画像および前記特徴量の種類が指定された
場合に、指定された種類の特徴量を用いて前記代表画像
の属するグループに分類された各画像を類似する画像同
士のグループに分類し、前記表示手段が、前記分類手段
で分類された各グループからそれぞれグループを代表す
る代表画像を選択して画面表示するものである。
Further, the image classification apparatus according to claim 24 extracts at least one kind of feature amount representing a feature of an image from a plurality of images to be classified, and uses the extracted feature amount to convert each of the images to be classified. An image classification device for classifying similar images into groups, wherein a designating means for designating the type of the feature quantity, and a feature quantity of the designated type when the kind of the feature quantity is designated by the designating means Classifying means for calculating the degree of similarity between the images of the classification target using, and classifying each image of the classification target into a group of similar images based on the obtained degree of similarity between the images of the classification target; Display means for selecting a representative image representing each group from each of the groups classified by the classifying means and displaying the selected image on a screen, wherein the specifying means further comprises: And the type of the characteristic amount can be specified, and when the classifying unit specifies the type of the representative image and the characteristic amount by the specifying unit, the classifying unit specifies the characteristic amount of the specified type. Classifying each image classified into the group to which the representative image belongs into a group of similar images, and the display unit selects a representative image representing each group from each group classified by the classification unit. On the screen.

【0040】また、請求項25の画像分類装置は、請求
項24に記載の画像分類装置において、前記表示手段
が、前記指定手段で指定可能な特徴量の種類を画面表示
し、前記指定手段で指定された特徴量の種類に関連付け
て前記分類手段で分類された各グループの代表画像を画
面表示して、前記分類対象の複数の画像を分類した結果
を木構造で画面表示するものである。
According to a twenty-fifth aspect of the present invention, there is provided the image classification device according to the twenty-fourth aspect, wherein the display means displays on the screen the types of characteristic amounts that can be designated by the designation means. A representative image of each group classified by the classifying means is displayed on a screen in association with a type of a specified feature amount, and a result of classification of the plurality of images to be classified is displayed on a screen in a tree structure.

【0041】また、請求項26の画像分類装置は、請求
項16〜25のいずれか一つに記載の画像分類装置にお
いて、さらに、前記分類項目毎に分類された任意の画像
を問合せ画像として用いることにより、前記問合せ画像
と同一または類似の画像を検索する検索手段を備えたも
のである。
According to a twenty-sixth aspect of the present invention, in the image classification device according to any one of the sixteenth to twenty-fifth aspects, an arbitrary image classified for each of the classification items is further used as a query image. Thereby, a search means for searching for the same or similar image as the inquiry image is provided.

【0042】また、請求項27の画像分類装置は、請求
項26に記載の画像分類装置において、前記検索手段
が、前記請求項1〜14のいずれか一つに記載の画像検
索装置であるものである。
According to a twenty-seventh aspect of the present invention, in the image classification device according to the twenty-sixth aspect, the search means is the image search device according to any one of the first to fourteenth aspects. It is.

【0043】また、請求項28の画像分類装置は、請求
項16〜25のいずれか一つに記載の画像分類装置にお
いて、前記分類対象の画像が、前記請求項26に記載の
検索手段または前記請求項1〜14のいずれか一つに記
載の画像検索装置で検索された画像であるものである。
According to a twenty-eighth aspect of the present invention, there is provided the image classification device according to any one of the sixteenth to twenty-fifth aspects, wherein the image to be classified is searched for by the retrieval means according to the twenty-sixth aspect, An image searched by the image search device according to any one of claims 1 to 14.

【0044】さらに、請求項29のコンピュータ読み取
り可能な記録媒体は、前記請求項16〜28のいずれか
一つに記載の画像分類装置の各手段としてコンピュータ
を機能させるためのプログラムを記録したものである。
A computer-readable recording medium according to a twenty-ninth aspect stores a program for causing a computer to function as each means of the image classification device according to any one of the sixteenth to twenty-eighth aspects. is there.

【0045】[0045]

【発明の実施の形態】以下、本発明に係る画像検索装置
および画像分類装置の実施の形態について、添付の図面
を参照しつつ詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of an image retrieval apparatus and an image classification apparatus according to the present invention will be described below in detail with reference to the accompanying drawings.

【0046】〔実施の形態1〕まず、本発明に係る画像
検索装置について説明する。図1は、実施の形態1に係
る画像検索装置のブロック構成図である。図1に示す画
像検索装置は、パーソナルコンピュータやワークステー
ション等のコンピュータ100で構成されており、全体
を制御するCPU101と、ブートプログラム等を記憶
したROM102と、CPU101のワークエリアとし
て使用されるRAM103と、問合せ画像,検索実行命
令等の入力を行うためのキーボード104およびマウス
105と、例えば検索結果の画像を表示するためのCR
Tや液晶ディスプレイ等のモニタ106と、本発明の画
像検索装置としての機能をCPU101(コンピュータ
100)に実行させるための画像検索ソフト107,複
数の画像が登録された画像DB108,画像DB108
中の画像から抽出した特徴量が登録された画像特徴DB
109等を記憶したハードディスク110と、画像を入
力するためのスキャナやディジタルカメラを接続するた
めのインターフェイス(I/F)111と、インターネ
ットやLANのようなネットワーク112にコンピュー
タ100(画像検索装置)を接続するためのネットワー
ク・アダプタ113と、上記各部を接続するバス114
と、を備えている。
[First Embodiment] First, an image retrieval apparatus according to the present invention will be described. FIG. 1 is a block diagram of the image search device according to the first embodiment. The image search apparatus shown in FIG. 1 is composed of a computer 100 such as a personal computer or a workstation, and has a CPU 101 for controlling the whole, a ROM 102 storing a boot program and the like, and a RAM 103 used as a work area of the CPU 101. And a mouse 105 for inputting a query image, a search execution command, etc., and a CR for displaying a search result image, for example.
A monitor 106 such as a T or a liquid crystal display; image search software 107 for causing the CPU 101 (computer 100) to execute the function as the image search device of the present invention; an image DB 108 in which a plurality of images are registered;
An image feature DB in which feature amounts extracted from the image inside are registered
A computer 100 (image search device) is connected to a hard disk 110 storing an image and the like, an interface (I / F) 111 for connecting a scanner or digital camera for inputting an image, and a network 112 such as the Internet or a LAN. A network adapter 113 for connection, and a bus 114 for connecting the above-described units.
And

【0047】図2は、図1に示した画像検索装置におい
て実行される処理を示すブロック図である。処理の詳細
な内容については後述するが、図2において、ユーザ・
インターフェイス(U/I)部151(本発明の指定手
段および出力手段に該当する)は、ユーザに対して画像
検索を行うための検索条件入力画面,検索結果表示画面
等を表示して、検索条件の入力,検索結果の出力処理等
を実行する。特徴抽出エンジン152(本発明の重要度
決定手段および特徴抽出手段に該当する)は、画像DB
108に登録する画像(検索対象の画像)および検索時
に指定される問合せ画像から画像の特徴量を抽出する処
理を実行する。さらに、マッチング・エンジン153
(本発明の検索手段に該当する)は、問合せ画像から抽
出された特徴量と画像特徴DB109に登録された画像
DB108中の画像の特徴量とを比較し、問合せ画像の
特徴に該当する特徴を有する画像を検索する処理を実行
する。
FIG. 2 is a block diagram showing the processing executed in the image search device shown in FIG. Although the details of the processing will be described later, in FIG.
An interface (U / I) unit 151 (corresponding to a designation unit and an output unit of the present invention) displays a search condition input screen, a search result display screen, and the like for performing an image search for a user, and displays the search condition. Input processing, output processing of search results, and the like. The feature extraction engine 152 (corresponding to the importance determination means and the feature extraction means of the present invention) includes an image DB
A process of extracting the feature amount of the image from the image registered in 108 (the image to be searched) and the query image specified at the time of the search is executed. Further, the matching engine 153
(Corresponding to the search means of the present invention) compares the feature amount extracted from the query image with the feature value of the image in the image DB 108 registered in the image feature DB 109, and determines the feature corresponding to the feature of the query image. A process for searching for an image is executed.

【0048】なお、図2において、U/I部151,特
徴抽出エンジン152およびマッチング・エンジン15
3は、図1に示した画像検索ソフト107を構成するモ
ジュールを意味している。これら各部による処理は、図
1に示したCPU101が画像検索ソフト107を実行
することによって実現される。
In FIG. 2, the U / I section 151, the feature extraction engine 152, and the matching engine 15
Reference numeral 3 denotes a module constituting the image search software 107 shown in FIG. The processing by these units is realized by the CPU 101 shown in FIG.

【0049】つぎに、前述した構成を有する画像検索装
置によって実行される処理について、 (1)特徴量抽出処理 (2)画像検索処理 の順で説明する。
Next, the processing executed by the image search apparatus having the above-described configuration will be described in the order of (1) feature amount extraction processing and (2) image search processing.

【0050】(1)特徴量抽出処理 まず、検索対象の画像を画像DB108に登録する処理
を例にとって、画像の特徴を表す特徴量を各画像から抽
出する処理を説明する。ここでは、一例として、従来か
ら良く知られている画像の色特徴(色ヒストグラム),
画像のエッジ特徴および画像中のテクスチャ特徴を特徴
量として抽出するものとする。
(1) Feature Amount Extraction Process First, a process for extracting a feature amount representing the feature of an image from each image will be described with reference to an example of a process of registering a search target image in the image DB 108. Here, as an example, color characteristics (color histogram) of an image that have been well known from the past,
It is assumed that an edge feature of an image and a texture feature in the image are extracted as feature amounts.

【0051】図3は、実施の形態1に係る画像検索装置
において実行される画像登録処理の概略を示すフローチ
ャートである。図2に示した特徴抽出エンジン152
は、U/I部151を介して登録対象となる画像を入力
する(S11)。入力する画像は、例えば、スキャナで
読み取った画像,ディジタルカメラで撮像した画像,ネ
ットワーク112を介してダウンロードした画像,予め
ハードディスク110に記憶されていた画像等、いかな
るものであっても良い。
FIG. 3 is a flowchart showing an outline of an image registration process executed in the image search device according to the first embodiment. Feature extraction engine 152 shown in FIG.
Inputs an image to be registered via the U / I unit 151 (S11). The input image may be any image such as an image read by a scanner, an image captured by a digital camera, an image downloaded via the network 112, an image stored in the hard disk 110 in advance, and the like.

【0052】そして、特徴抽出エンジン152は、入力
した画像から特徴量を抽出する処理を実行する(S1
2)。このステップS12において、上記3種類の特徴
量が各画像から抽出されるものとする。これら3種類の
特徴量は、以下に示すように従来から知られている方法
を用いて各画像から抽出することができる。
Then, the feature extraction engine 152 executes a process of extracting a feature amount from the input image (S1).
2). In this step S12, it is assumed that the three types of feature amounts are extracted from each image. These three types of feature amounts can be extracted from each image using a conventionally known method as described below.

【0053】画像の色ヒストグラム(以下、単に「色」
と記述する)は、適当な色空間(例えばLab,Lu
v,HSVなどが一般的)を選択して複数の領域に分割
し、画像の各ピクセルが色空間中のどの領域に対応する
かを調べ、領域毎のピクセル数を全体のピクセル数によ
り正規化することによって得ることができる。画像のエ
ッジ(以下、「構造」と記述する)は、例えばsobe
lのようなエッジ抽出フィルタを用いて得ることができ
る。さらに、テクスチャは、同時生起行列に基づくテク
スチャ抽出によって得ることができる(参考文献:高木
幹夫雄,下田陽久監修,「画像解析ハンドブック」,東
京大学出版会,1991年)。
Color histogram of an image (hereinafter simply referred to as "color")
) Is an appropriate color space (for example, Lab, Lu)
v, HSV, etc.), and divides the image into a plurality of regions, checks which pixel in the image corresponds to which region in the color space, and normalizes the number of pixels in each region by the total number of pixels Can be obtained. An edge of an image (hereinafter referred to as “structure”) is, for example,
It can be obtained by using an edge extraction filter such as l. Further, the texture can be obtained by texture extraction based on a co-occurrence matrix (Reference: Mikio Takagi, supervised by Hirohisa Shimoda, "Image Analysis Handbook", University of Tokyo Press, 1991).

【0054】ステップS12で画像から特徴量を抽出し
た後、特徴抽出エンジン152は、画像DB108に登
録する元の画像に関連付けて、抽出した特徴量を画像特
徴DB109に登録する(S13)。また、元の画像も
画像DB108に登録される。
After extracting the features from the image in step S12, the feature extraction engine 152 registers the extracted features in the image feature DB 109 in association with the original image to be registered in the image DB 108 (S13). The original image is also registered in the image DB 108.

【0055】なお、画像検索の高速化という観点から、
画像DB108に登録する検索対象の画像については、
登録時に予め特徴量を抽出して画像特徴DB109に登
録しておくことが好ましい。ただし、画像検索時に検索
対象の各画像から特徴量を抽出することにする場合に
は、予め特徴量を抽出しておく必要はない。
From the viewpoint of speeding up image retrieval,
For the search target images registered in the image DB 108,
It is preferable that a feature amount be extracted in advance and registered in the image feature DB 109 at the time of registration. However, when extracting feature amounts from each image to be searched at the time of image search, it is not necessary to extract feature amounts in advance.

【0056】図3に示した処理を実行することにより、
画像DB108に登録された画像は、抽出した特徴量の
種類毎に図4に示すような特徴空間にマップされること
になる。画像検索時においては、後述するように問合せ
画像から画像の特徴量を抽出し、同じく図4に示す特徴
空間にマップする。図4に示すポイント(黒点)は、特
徴空間にマップされた画像を示し、問合せ画像のポイン
トと各画像のポイント間の距離が画像の類似度となる。
なお、画像の特徴量の多くはベクトルデータであり、類
似度であるポイント間の距離の計算には一般にユークリ
ッド距離などのベクトルの距離定義式が利用される。ま
た、画像の特徴量の種類に合わせて独自の距離を定義す
ることもできる。
By executing the processing shown in FIG. 3,
The image registered in the image DB 108 is mapped to a feature space as shown in FIG. 4 for each type of the extracted feature amount. At the time of the image search, the feature amount of the image is extracted from the query image as described later, and is mapped to the feature space shown in FIG. The points (black dots) shown in FIG. 4 indicate images mapped in the feature space, and the distance between the points of the query image and the points of each image is the similarity of the images.
Note that most of the feature amounts of an image are vector data, and a distance definition formula of a vector such as a Euclidean distance is generally used for calculating a distance between points which are similarities. Further, a unique distance can be defined according to the type of the feature amount of the image.

【0057】(2)画像検索処理 続いて、実施の形態1に係る画像検索装置において実行
される画像検索処理について説明する。実施の形態1に
係る画像検索装置は、単に問合せ画像を検索条件として
指定するのみでは問合せ画像とユーザが検索結果として
希望する画像との類似観点を装置に伝えられないという
点を考慮したものであって、検索に使用する特徴量の種
類毎に問合せ画像を指定することによって、ユーザが適
切と考える仮想的な一つの問合せ画像を表現できるよう
にしたものである。なお、前述したように、ここで使用
可能な特徴量の種類としては、色,構造およびテクスチ
ャの3種類であるものとし、検索対象の画像は画像DB
108に登録された画像であるものとする。
(2) Image Retrieval Processing Next, the image retrieval processing executed in the image retrieval apparatus according to the first embodiment will be described. The image search device according to the first embodiment takes into consideration that simply specifying an inquiry image as a search condition cannot convey a similar viewpoint between an inquiry image and an image desired by a user as a search result to the device. In addition, by designating a query image for each type of feature amount used in the search, it is possible to represent a single virtual query image that the user considers appropriate. Note that, as described above, the types of feature amounts that can be used here are three types of colors, structures, and textures.
It is assumed that the image is registered in the image 108.

【0058】図5は検索時に使用される検索ウインドウ
を示す説明図であり、図6は実施の形態1に係る画像検
索処理を示すフローチャートである。図2のU/I部1
51は、画像検索処理を実行する際に図5に示す検索ウ
インドウ200aを図1に示したモニタ106上に画面
表示する。検索ウインドウ200aは、画像検索に用い
られる色,構造およびテクスチャの特徴量毎にそれぞれ
一つの問合せ画像を指定するための画像指定欄A,Bお
よびCと、画像検索処理の実行を指定するための検索ボ
タン201と、検索結果の画像を表示する画像表示欄2
02と、を備えている。
FIG. 5 is an explanatory diagram showing a search window used at the time of a search, and FIG. 6 is a flowchart showing an image search process according to the first embodiment. U / I unit 1 in FIG.
When the image search processing is executed, a search window 200a shown in FIG. 5 is displayed on the monitor 106 shown in FIG. The search window 200a includes image specification columns A, B, and C for specifying one query image for each color, structure, and texture feature amount used for image search, and for specifying execution of image search processing. Search button 201 and image display field 2 for displaying the image of the search result
02.

【0059】ユーザは、図5に示した各画像指定欄にお
いて、特徴量の種類毎に問合せ画像をそれぞれ指定する
(S101)。問合せ画像として指定する画像は、例え
ば、スキャナで読み取った画像,ディジタルカメラで撮
像した画像,ネットワーク112を介してダウンロード
した画像,予めハードディスク110に記憶されていた
画像等、いかなるものであっても良い。
The user specifies an inquiry image for each type of feature amount in each image specification column shown in FIG. 5 (S101). The image specified as the inquiry image may be any image such as an image read by a scanner, an image captured by a digital camera, an image downloaded via the network 112, an image stored in the hard disk 110 in advance, and the like. .

【0060】ここで、問合せ画像の指定方法について具
体的に説明する。前提として、ユーザが検索結果として
希望する画像を適切に表現した一枚の画像は存在しない
が、例えば、検索結果として希望する画像に画像の配色
の雰囲気が似た画像A,画像の構造(オブジェクトの配
置等)の雰囲気が似た画像Bおよび画像中のテクスチャ
の雰囲気が似た画像Cが見つかったものとする。
Here, a method of specifying an inquiry image will be specifically described. As a premise, there is no single image that appropriately represents an image desired by a user as a search result, but for example, an image A having an image similar in color to the image desired as a search result, an image structure (object It is assumed that an image B with a similar atmosphere and an image C with a similar texture atmosphere in the image have been found.

【0061】ユーザは、図5に示すように、これら3枚
の画像A,BおよびCをそれぞれ画像指定欄A,Bおよ
びCに問合せ画像として指定する。具体的には、検索結
果として希望する画像に画像の配色の雰囲気が似ている
問合せ画像Aを特徴量「色」に対応する画像指定欄Aに
指定する。同様に、検索結果として希望する画像に画像
の構造の雰囲気が似ている問合せ画像Bを特徴量「構
造」に対応する画像指定欄Bに、画像中のテクスチャの
雰囲気が似ている問合せ画像Cを特徴量「テクスチャ」
に対応する画像指定欄Cに指定する。
As shown in FIG. 5, the user designates these three images A, B and C in the image designation columns A, B and C, respectively, as query images. More specifically, an inquiry image A having an image color similar to that of a desired image as a search result is specified in an image specification column A corresponding to the feature amount “color”. Similarly, a query image B in which the atmosphere of the image structure is similar to the desired image as a search result is added to the query image C in which the texture atmosphere in the image is similar to the image specification column B corresponding to the feature amount “structure”. The feature amount "texture"
Is designated in the image designation field C corresponding to.

【0062】なお、以下の説明において、画像指定欄A
に指定された画像を問合せ画像Aと、画像指定欄Bに指
定された画像を問合せ画像Bと、画像指定欄Cに指定さ
れた画像を問合せ画像Cと呼ぶことにする。
In the following description, the image designation column A
Are referred to as a query image A, an image designated in the image designation column B is referred to as a query image B, and an image designated in the image designation column C is referred to as a query image C.

【0063】このように、単に問合せ画像を複数指定す
るだけでなく、画像検索に使用される各種類の特徴量毎
に問合せ画像を指定することにより、ユーザが適切と考
える仮想的な一つの問合せ画像を表現できると共に、検
索に対するユーザの意図を装置側に正確に伝えることが
可能となる。したがって、後述する検索処理によって、
ユーザの意図が反映された検索結果の画像を得ることが
可能となる。
As described above, not only by specifying a plurality of query images, but also by specifying a query image for each type of feature amount used in the image search, a virtual query The image can be expressed, and the user's intention for the search can be accurately transmitted to the device side. Therefore, by the search processing described later,
It is possible to obtain an image of the search result reflecting the intention of the user.

【0064】図6のフローチャートの説明に戻る。ユー
ザが図5の検索ボタン201を指定すると、U/I部1
51は、問合せ画像A,BおよびCを特徴抽出エンジン
152に入力し、特徴抽出エンジン152は、各問合せ
画像A,BおよびCから対応する種類の特徴量を抽出す
る処理を実行する(S102)。すなわち、特徴抽出エ
ンジン152は、問合せ画像Aから色の特徴量を、問合
せ画像Bから構造の特徴量を、問合せ画像Cからテクス
チャの特徴量を抽出する。その後、特徴抽出エンジン1
52は、抽出した各問合せ画像の特徴量をマッチング・
エンジン153に渡す(図4の特徴空間にそれぞれマッ
プする)。
Returning to the description of the flowchart of FIG. When the user designates the search button 201 in FIG.
51 inputs the query images A, B, and C to the feature extraction engine 152, and the feature extraction engine 152 executes a process of extracting corresponding types of feature amounts from the query images A, B, and C (S102). . That is, the feature extraction engine 152 extracts a color feature from the query image A, a structural feature from the query image B, and a texture feature from the query image C. Then, feature extraction engine 1
52 matches and extracts the feature amount of each extracted query image.
It is passed to the engine 153 (mapped to the feature space in FIG. 4).

【0065】なお、問合せ画像A,BおよびCから抽出
した特徴量が画像特徴DB109に登録されている場合
には、図6のステップS102の処理をスキップするこ
とができる。
When the feature amounts extracted from the inquiry images A, B, and C are registered in the image feature DB 109, the processing in step S102 in FIG. 6 can be skipped.

【0066】続いて、マッチング・エンジン153は、
画像DB108に登録されている検索対象の画像毎に、
該当する特徴量を用いて各問合せ画像A,BおよびCと
の類似度を求めると共に、求めた各問合せ画像A,Bお
よびCとの類似度を合計して、検索対象の画像の総合類
似度を求める処理を実行する(S103)。
Subsequently, the matching engine 153
For each image to be searched registered in the image DB 108,
The similarity to each of the query images A, B, and C is obtained using the corresponding feature amount, and the obtained similarities to the query images A, B, and C are summed to obtain the total similarity of the search target image. Is performed (S103).

【0067】このステップS103における処理を検索
対象の一つの画像を例にとって具体的に説明する。マッ
チング・エンジン153は、検索対象の画像と問合せ画
像Aについて、色の特徴量を用いて類似度を求める。す
なわち、マッチング・エンジン153は、色の特徴量に
基づいて図4に示した特徴量空間中にプロットされた検
索対象の画像と問合せ画像Aとの距離を例えばユークリ
ッド距離などのベクトルの距離定義式を用いて求める。
この画像間の距離が、二つの画像の類似度に該当し、距
離が短いほど二つの画像が色の特徴において類似してい
ることになる。マッチング・エンジン153は、同様
に、構造の特徴量に基づいて検索対象の画像と問合せ画
像Bとの距離を求めると共に、テクスチャの特徴量に基
づいて検索対象の画像と問合せ画像Cとの距離を求め
る。
The processing in step S103 will be specifically described by taking one image to be searched as an example. The matching engine 153 obtains the similarity between the image to be searched and the query image A using the color feature amount. That is, the matching engine 153 calculates the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. Is determined using
The distance between the images corresponds to the degree of similarity between the two images, and the shorter the distance, the more similar the two images in color characteristics. Similarly, the matching engine 153 obtains the distance between the search target image and the query image B based on the structural feature amount, and calculates the distance between the search target image and the query image C based on the texture feature amount. Ask.

【0068】その後、マッチング・エンジン153は、
検索対象の画像と各問合せ画像A,BおよびCとの距離
を合計し、距離の合計値を総合類似度とする。ここで、
特徴量の種類の数をN、特徴量jの問合せ画像をQj
検索対象の画像をIi、特徴量jの画像間の距離式をDj
()とすると、検索対象の各画像毎の総合類似度Si
以下のように表わされる。
Thereafter, the matching engine 153
The distance between the image to be searched and each of the inquiry images A, B, and C is totaled, and the total value of the distances is defined as the overall similarity. here,
The number of types of feature amounts is N, the query image of feature amount j is Q j ,
The image to be searched is I i , and the distance formula between the images of the feature amount j is D j
Then, the total similarity S i for each image to be searched is expressed as follows.

【0069】[0069]

【数1】 (Equation 1)

【0070】マッチング・エンジン153は、このよう
にして検索対象の画像毎に総合類似度を求め、検索対象
の画像毎の総合類似度をU/I部151に出力する。
The matching engine 153 obtains the overall similarity for each image to be searched in this way, and outputs the overall similarity for each image to be searched to the U / I unit 151.

【0071】U/I部151は、マッチング・エンジン
153によって検索対象の画像毎に求められた総合類似
度を参照し、例えば総合類似度の高い順に検索対象の画
像を図5の画像表示欄202に表示する(S104)。
ここでは、総合類似度として、検索対象の画像と問合せ
画像A,BおよびCとの特徴量間の距離の合計を用いて
いるため、実際には、総合類似度の値の小さい順に検索
対象の画像が画像表示欄202に表示されることにな
る。すなわち、総合類似度は0以上の値を持ち、総合類
似度が0のときは各問合せ画像の特徴量および検索対象
の画像の特徴量が等しいということを意味する。
The U / I unit 151 refers to the overall similarity obtained for each image to be searched by the matching engine 153 and, for example, sorts the images to be searched in descending order of the overall similarity in the image display column 202 of FIG. (S104).
Here, since the sum of the distances between the feature amounts of the image to be searched and the query images A, B, and C is used as the overall similarity, actually, the search targets are searched in ascending order of the value of the overall similarity. The image will be displayed in the image display column 202. That is, the total similarity has a value of 0 or more, and when the total similarity is 0, it means that the feature amount of each query image and the feature amount of the image to be searched are equal.

【0072】なお、画像表示欄202には検索対象の画
像を全て表示する必要はなく、予め定めた数の画像のみ
を表示したり、予め定めた閾値以下(総合類似度が画像
間の距離で表されている場合)の総合類似度を得た画像
のみを表示することにしても良い。すなわち、検索結果
をどのように表示するかについては任意に設定・変更す
ることが可能である(以下の実施の形態においても同
様)。
It is not necessary to display all the images to be searched in the image display column 202, and only a predetermined number of images may be displayed, or a predetermined number of images may be displayed. (If it is represented), only the image that has obtained the overall similarity may be displayed. That is, how the search result is displayed can be arbitrarily set and changed (the same applies to the following embodiments).

【0073】また、画像表示欄202に表示された検索
結果の画像を参照した結果、絞込み検索を行いたい場合
には、画像表示欄202に表示された画像を問合せ画像
として指定して同様の検索処理を行うこともできる。ま
た、画像表示欄202に表示された画像をマウス105
でクリックすることにより、画像を拡大して表示する処
理を行うことも可能である。
When the user wants to perform a narrowing-down search as a result of referring to the image of the search result displayed in the image display column 202, the user designates the image displayed in the image display column 202 as a query image and performs a similar search. Processing can also be performed. Further, the image displayed in the image display field 202 is
By clicking on, processing for enlarging and displaying an image can also be performed.

【0074】このように、実施の形態1に係る画像検索
装置によれば、問合せ画像および検索対象の画像の類似
度を求める際に使用される各種類の特徴量毎にそれぞれ
一つの問合せ画像を指定し、検索対象の画像毎に、指定
された各問合せ画像との類似度を対応する種類の特徴量
を用いて求めると共に、求めた各問合せ画像との類似度
を合計して検索対象の画像の総合類似度を求め、検索対
象の画像毎に求めた総合類似度に基づいて検索結果を出
力することにより、ユーザの意図を検索条件として正確
に表現できるため、ユーザの意図を正確に装置に伝える
ことができると共に、検索に対するユーザの意図を確実
に装置に伝えることができるため、検索に対するユーザ
の意図を正確に反映した検索結果を得ることができ、ユ
ーザが望む通りの精度の高い画像検索処理を行うことが
できる。
As described above, according to the image search apparatus of the first embodiment, one query image is used for each type of feature used when obtaining the similarity between the query image and the search target image. For each image to be searched, the similarity with each specified query image is obtained using the corresponding type of feature quantity, and the obtained similarity with each query image is summed to obtain the image to be searched. By calculating the total similarity of the search results and outputting the search results based on the total similarity obtained for each image to be searched, the user's intention can be accurately expressed as a search condition. In addition to being able to communicate, the user's intention for the search can be reliably transmitted to the device, so that a search result that accurately reflects the user's intention for the search can be obtained, and the user can obtain the desired result. Degrees of high image retrieval processing can be performed.

【0075】例えば、問合せ画像として適切な画像が存
在しない場合であっても、検索結果として望む画像に色
の雰囲気が似た画像やオブジェクトの形状の雰囲気が似
た画像を問合せ画像として指定し、これらの画像を合わ
せたものを一つの問合せとして使用することができる。
For example, even if an appropriate image does not exist as an inquiry image, an image having a similar color atmosphere to an image desired as a search result or an image having an atmosphere similar to the shape of an object is designated as an inquiry image. A combination of these images can be used as one query.

【0076】なお、実施の形態1の説明において、全て
の種類の特徴量にそれぞれ対応して問合せ画像を指定す
ることにしたが、必ず全ての種類の特徴量に対応して問
合せ画像を指定する必要はない。また、色,構造および
テクスチャの3種類の特徴量を用いることにしたが、こ
れらはあくまでも例示であって、特徴量の種類および数
を限定することを意図したものではない。
In the description of the first embodiment, an inquiry image is specified corresponding to all types of feature amounts. However, an inquiry image is always specified corresponding to all types of feature amounts. No need. In addition, three types of feature amounts of color, structure, and texture are used, but these are merely examples, and are not intended to limit the type and number of feature amounts.

【0077】〔実施の形態2〕実施の形態2に係る画像
検索装置は、実施の形態1の場合と同様に、単に問合せ
画像を検索条件として指定するのみでは問合せ画像とユ
ーザが検索結果として希望する画像との類似観点を装置
に伝えられないという点を考慮したものであって、複数
の問合せ画像と検索に使用する特徴量の種類とを指定す
ることによって、ユーザが適切と考える仮想的な一つの
問合せ画像を表現できるようにしたものである。なお、
実施の形態2に係る画像検索装置において、実施の形態
1で既に説明した構成については同一の符号を使用して
詳細な説明を省略し、画像検索処理についても共通する
点については適宜説明を省略する。
[Embodiment 2] In the image search apparatus according to Embodiment 2, just by designating the query image as a search condition, the query image and the user can obtain desired search results as in the case of Embodiment 1. In consideration of the fact that a similar viewpoint to the image to be performed cannot be transmitted to the device, by specifying a plurality of query images and the type of the feature amount used for the search, the virtual This makes it possible to express one inquiry image. In addition,
In the image retrieval device according to the second embodiment, the same reference numerals are used for the configuration already described in the first embodiment, and a detailed description is omitted, and a description of a common point in the image retrieval process is appropriately omitted. I do.

【0078】図7は検索時に使用される検索ウインドウ
を示す説明図であり、図8は実施の形態2に係る画像検
索処理を示すフローチャートである。図2のU/I部1
51は、画像検索処理を実行する際に図7に示す検索ウ
インドウ200bを図1に示したモニタ106上に画面
表示する。検索ウインドウ200bは、複数の問合せ画
像を指定するための画像指定欄A,BおよびCと、各画
像指定欄に指定した問合せ画像毎に、検索対象の画像と
の類似度を求める際に使用する特徴量の種類を指定する
ための特徴量指定ボタン203と、画像検索処理の実行
を指定するための検索ボタン201と、検索結果の画像
を表示する画像表示欄202と、を備えている。
FIG. 7 is an explanatory diagram showing a search window used at the time of a search, and FIG. 8 is a flowchart showing an image search process according to the second embodiment. U / I unit 1 in FIG.
Reference numeral 51 displays a search window 200b shown in FIG. 7 on the screen of the monitor 106 shown in FIG. 1 when executing the image search process. The search window 200b is used to determine the similarity between the image specification fields A, B, and C for specifying a plurality of query images and the search target image for each query image specified in each image specification field. The image processing apparatus includes a feature amount designation button 203 for designating a type of feature amount, a search button 201 for designating execution of image search processing, and an image display field 202 for displaying an image of a search result.

【0079】実施の形態1で説明したように、前提とし
て、ユーザが検索結果として希望する画像を適切に表現
した一枚の画像は存在しないが、例えば、検索結果とし
て希望する画像に画像の配色の雰囲気が似た画像A,画
像の構造の雰囲気が似た画像Bおよび画像中のテクスチ
ャの雰囲気が似た画像Cが見つかったものとする。
As described in the first embodiment, it is assumed that there is no single image that appropriately represents the image desired by the user as a search result. It is assumed that an image A having a similar atmosphere, an image B having a similar atmosphere of the image structure, and an image C having a similar atmosphere of the texture in the image have been found.

【0080】ユーザは、図7に示した各画像指定欄に問
合せ画像を複数指定すると共に、指定した各問合せ画像
毎に検索対象の画像との類似度を求める際に使用する特
徴量の種類を指定する(S201)。
The user designates a plurality of query images in the respective image designation fields shown in FIG. 7, and specifies the type of feature used when obtaining the similarity with the search target image for each designated query image. It is specified (S201).

【0081】具体的に、ユーザは、図7に示すように3
枚の画像A,BおよびCを画像指定欄A,BおよびCに
問合せ画像として指定する。そして、ユーザは、検索結
果として希望する画像に画像の配色の雰囲気が似ている
問合せ画像Aについては、特徴量指定ボタン203にお
いて「色」を指定する。同様に、検索結果として希望す
る画像に画像の構造の雰囲気が似ている問合せ画像Bに
ついては「構造」を、画像中のテクスチャの雰囲気が似
ている問合せ画像Cについては「テクスチャ」を指定す
る。
Specifically, as shown in FIG.
The images A, B and C are designated as inquiry images in the image designation fields A, B and C. Then, the user designates “color” in the feature amount designation button 203 for the inquiry image A in which the color atmosphere of the image is similar to the desired image as a search result. Similarly, “structure” is designated for the query image B having a similar atmosphere of the image structure to the desired image as a search result, and “texture” is designated for the query image C having a similar texture atmosphere in the image. .

【0082】このように、単に問合せ画像を複数指定す
るだけでなく、指定した各問合せ画像毎にユーザが重視
する画像の特徴に該当する特徴量を指定することによ
り、ユーザが適切と考える仮想的な一つの問合せ画像を
表現できると共に、検索に対するユーザの意図を装置側
に正確に伝えることが可能となる。したがって、後述す
る検索処理によって、ユーザの意図が反映された検索結
果の画像を得ることが可能となる。
As described above, in addition to simply designating a plurality of query images, by designating a feature amount corresponding to a feature of an image emphasized by the user for each of the designated query images, a virtual image that the user considers appropriate is provided. In addition to being able to express a single query image, it is possible to accurately convey the user's intention for the search to the device side. Therefore, it is possible to obtain an image of a search result in which a user's intention is reflected by a search process described later.

【0083】ただし、図7においては、各問合せ画像に
対してそれぞれ異なる種類の特徴量を指定することにし
たが、同一種類の特徴量を指定しても良い。すなわち、
複数の問合せ画像全てに同一種類の特徴量を指定しても
良い。
In FIG. 7, however, different types of feature amounts are specified for each query image, but the same type of feature amounts may be specified. That is,
The same type of feature amount may be specified for all of a plurality of query images.

【0084】そして、ユーザが図7の検索ボタン201
を指定すると、U/I部151は、問合せ画像A,Bお
よびC,ならびに特徴量の種類を特徴抽出エンジン15
2に入力し、特徴抽出エンジン152は、各問合せ画像
A,BおよびCから指定された種類の特徴量を抽出する
処理を実行する(S202)。すなわち、特徴抽出エン
ジン152は、問合せ画像Aから色の特徴量を、問合せ
画像Bから構造の特徴量を、問合せ画像Cからテクスチ
ャの特徴量を抽出する。その後、特徴抽出エンジン15
2は、抽出した各問合せ画像の特徴量をマッチング・エ
ンジン153に渡す(図4の特徴空間にそれぞれマップ
する)。
Then, the user presses the search button 201 in FIG.
Is specified, the U / I unit 151 transmits the query images A, B, and C, and the type of the feature amount to the feature extraction engine 15.
2, the feature extraction engine 152 executes a process of extracting a specified type of feature amount from each of the query images A, B, and C (S202). That is, the feature extraction engine 152 extracts a color feature from the query image A, a structural feature from the query image B, and a texture feature from the query image C. Then, the feature extraction engine 15
2 passes the extracted feature amount of each query image to the matching engine 153 (maps them to the feature space in FIG. 4).

【0085】なお、問合せ画像A,BおよびCから抽出
した特徴量が画像特徴DB109に登録されている場合
には、図8のステップS202の処理をスキップするこ
とができる。
When the feature amounts extracted from the inquiry images A, B, and C are registered in the image feature DB 109, the processing in step S202 in FIG. 8 can be skipped.

【0086】続いて、マッチング・エンジン153は、
画像DB108に登録されている検索対象の画像毎に、
ユーザが指定した種類の特徴量を用いて各問合せ画像
A,BおよびCとの類似度を求めると共に、求めた各問
合せ画像A,BおよびCとの類似度を合計して検索対象
の画像の総合類似度を求める処理を実行する(S20
3)。
Subsequently, the matching engine 153
For each image to be searched registered in the image DB 108,
The similarity with each of the query images A, B, and C is obtained using the type of feature amount designated by the user, and the obtained similarities with the query images A, B, and C are summed up to obtain the search target image. A process for obtaining the overall similarity is executed (S20)
3).

【0087】このステップS203における処理を検索
対象の一つの画像を例にとって具体的に説明する。マッ
チング・エンジン153は、検索対象の画像と問合せ画
像Aについて、色の特徴量を用いて類似度を求める。す
なわち、マッチング・エンジン153は、色の特徴量に
基づいて図4に示した特徴量空間中にプロットされた検
索対象の画像と問合せ画像Aとの距離を例えばユークリ
ッド距離などのベクトルの距離定義式を用いて求める。
この画像間の距離が、二つの画像の類似度に該当し、距
離が短いほど二つの画像が色の特徴において類似してい
ることになる。マッチング・エンジン153は、同様
に、構造の特徴量に基づいて検索対象の画像と問合せ画
像Bとの距離を求めると共に、テクスチャの特徴量に基
づいて検索対象の画像と問合せ画像Cとの距離を求め
る。
The processing in step S203 will be specifically described by taking one image to be searched as an example. The matching engine 153 obtains the similarity between the image to be searched and the query image A using the color feature amount. That is, the matching engine 153 calculates the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. Is determined using
The distance between the images corresponds to the degree of similarity between the two images, and the shorter the distance, the more similar the two images in color characteristics. Similarly, the matching engine 153 obtains the distance between the search target image and the query image B based on the structural feature amount, and calculates the distance between the search target image and the query image C based on the texture feature amount. Ask.

【0088】その後、マッチング・エンジン153は、
検索対象の画像と各問合せ画像A,BおよびCとの距離
を合計し、距離の合計値を総合類似度とする。ここで、
特徴量の数をN、問合せ画像の数をM、k番目の問合せ
画像をQk、検索対象の画像をIi、特徴量jの画像間の
距離式をDj()、k番目の画像の特徴量jの指定の有
無をtjk(指定されていれば1、指定されていなければ
0)とすると、検索対象の各画像毎の総合類似度Si
以下のように表わされる。
Thereafter, the matching engine 153
The distance between the image to be searched and each of the inquiry images A, B, and C is totaled, and the total value of the distances is defined as the overall similarity. here,
The number of feature values is N, the number of query images is M, the k-th query image is Q k , the image to be searched is I i , the distance formula between images of the feature value j is D j (), and the k-th image Assuming that the presence / absence of the feature amount j is t jk (1 if specified, 0 if not specified), the overall similarity S i for each image to be searched is expressed as follows.

【0089】[0089]

【数2】 (Equation 2)

【0090】マッチング・エンジン153は、このよう
にして検索対象の画像毎に総合類似度を求め、検索対象
の画像毎の総合類似度をU/I部151に出力する。
The matching engine 153 obtains the overall similarity for each image to be searched in this way, and outputs the overall similarity for each image to be searched to the U / I unit 151.

【0091】U/I部151は、マッチング・エンジン
153によって検索対象の画像毎に求められた総合類似
度を参照し、例えば総合類似度の高い順に検索対象の画
像を図7の画像表示欄202に表示する(S204)。
ここでは、総合類似度として、検索対象の画像と問合せ
画像A,BおよびCとの特徴量間の距離の合計を用いて
いるため、実際には、総合類似度の値の小さい順に検索
対象の画像が画像表示欄202に表示されることにな
る。すなわち、総合類似度は0以上の値を持ち、総合類
似度が0のときは各問合せ画像の特徴量および検索対象
の画像の特徴量が等しいということを意味する。
The U / I unit 151 refers to the overall similarity obtained for each image to be searched by the matching engine 153 and, for example, sorts the images to be searched in descending order of the overall similarity in the image display column 202 in FIG. (S204).
Here, since the sum of the distances between the feature amounts of the image to be searched and the query images A, B, and C is used as the overall similarity, actually, the search targets are searched in ascending order of the value of the overall similarity. The image will be displayed in the image display column 202. That is, the total similarity has a value of 0 or more, and when the total similarity is 0, it means that the feature amount of each query image and the feature amount of the image to be searched are equal.

【0092】なお、画像表示欄202には検索対象の全
ての画像を表示する必要はなく、予め定めた数の画像の
みを表示したり、予め定めた閾値以下(総合類似度が画
像間の距離で表されている場合)の総合類似度を得た画
像のみを表示することにしても良い。
It is not necessary to display all the images to be searched in the image display column 202. Only a predetermined number of images may be displayed, or the predetermined number of images may be displayed below a predetermined threshold (the total similarity is determined by the distance between the images). May be displayed only when the overall similarity of (indicated by) is obtained.

【0093】また、画像表示欄202に表示された検索
結果の画像を参照した結果、絞込み検索を行いたい場合
には、画像表示欄202に表示された画像を問合せ画像
として指定して同様の検索処理を行うこともできる。ま
た、画像表示欄202に表示された画像をマウス105
でクリックすることにより、画像を拡大して表示する処
理を行うことも可能である。
When a narrow search is desired as a result of referring to the image of the search result displayed in the image display field 202, the image displayed in the image display field 202 is designated as a query image and a similar search is performed. Processing can also be performed. Further, the image displayed in the image display field 202 is
By clicking on, processing for enlarging and displaying an image can also be performed.

【0094】このように、実施の形態2に係る画像検索
装置によれば、問合せ画像を複数指定すると共に、指定
した各問合せ画像毎に検索対象の画像との類似度を求め
る際に使用する特徴量の種類を指定し、検索対象の画像
毎に、指定された種類の特徴量を用いて各問合せ画像と
の類似度を求めると共に、求めた各問合せ画像との類似
度を合計して総合類似度を求め、検索対象の画像毎に求
めた総合類似度に基づいて検索結果を出力することによ
り、ユーザの意図を検索条件として正確に表現できるた
め、ユーザの意図を正確に装置に伝えることができると
共に、検索に対するユーザの意図を確実に装置に伝える
ことができるため、検索に対するユーザの意図を正確に
反映した検索結果を得ることができ、ユーザが望む通り
の精度の高い画像検索処理を行うことができる。
As described above, according to the image search apparatus of the second embodiment, a plurality of query images are designated, and the feature used when obtaining the degree of similarity with the search target image for each designated query image. By specifying the type of quantity, for each image to be searched, the degree of similarity with each query image is obtained using the specified type of feature quantity, and the similarity with each obtained query image is summed to obtain a total similarity. The user's intention can be accurately expressed as a search condition by outputting the search result based on the total similarity obtained for each image to be searched, so that the user's intention can be accurately conveyed to the device. In addition to the above, since the user's intention for the search can be reliably transmitted to the apparatus, a search result that accurately reflects the user's intention for the search can be obtained, and a highly accurate image desired by the user can be obtained. It is possible to perform the search process.

【0095】例えば、問合せ画像として適切な画像が存
在しない場合であっても、検索結果として望む画像に色
の雰囲気が似た画像やオブジェクトの形状の雰囲気が似
た画像を問合せ画像として指定し、これらの画像を合わ
せたものを一つの問合せとして使用することができる。
加えて、指定した各問合せ画像毎にユーザが希望する特
徴量を指定することができるため、実施の形態1に係る
画像検索装置に比べ、検索条件を自由に設定することが
できる。
For example, even when an appropriate image does not exist as an inquiry image, an image having a similar color atmosphere to an image desired as a search result or an image having an atmosphere similar to an object shape is designated as an inquiry image. A combination of these images can be used as one query.
In addition, since the user can specify a desired feature amount for each specified query image, search conditions can be set freely compared to the image search device according to the first embodiment.

【0096】なお、実施の形態2の説明において、問合
せ画像として3枚の画像を用いたが、問合せ画像の枚数
は3枚に限定されるものではない。すなわち、問合せ画
像を1枚のみ指定しても同様の方法で検索処理を行うこ
とができるが、実施の形態2においては複数枚指定する
ことに意味がある。また、色,構造およびテクスチャの
3種類の特徴量を用いることにしたが、これらはあくま
でも例示であって、特徴量の種類を限定することを意図
したものではない。
In the description of the second embodiment, three images are used as inquiry images, but the number of inquiry images is not limited to three. That is, even if only one inquiry image is specified, the search process can be performed in the same manner, but in the second embodiment, it is meaningful to specify a plurality of images. In addition, although three types of feature amounts of color, structure, and texture are used, these are merely examples, and are not intended to limit the types of feature amounts.

【0097】〔実施の形態3〕実施の形態3に係る画像
検索装置は、実施の形態2の画像検索装置において、検
索に対するユーザの意図をさらに正確に表現できるよう
にしたものである。
[Third Embodiment] An image retrieval apparatus according to a third embodiment is different from the image retrieval apparatus according to the second embodiment in that a user's intention for retrieval can be expressed more accurately.

【0098】図9は、実施の形態3に係る画像検索装置
において用いられる検索ウインドウ200cを示す説明
図である。図9に示す検索ウインドウ200cは、図7
に示した検索ウインドウ200bの構成に加えて、画像
指定欄A,BおよびCに指定された問合せ画像毎に相対
的な重要度を指定するための重要度指定バー204を備
えている。
FIG. 9 is an explanatory diagram showing a search window 200c used in the image search device according to the third embodiment. The search window 200c shown in FIG.
In addition to the configuration of the search window 200b shown in FIG. 7, an importance level designation bar 204 for designating the relative importance for each of the query images designated in the image designation fields A, B and C is provided.

【0099】実施の形態1および2で説明したように、
前提として、ユーザが検索結果として希望する画像を適
切に表現した一枚の画像は存在しないが、例えば、検索
結果として希望する画像に画像の配色の雰囲気が似た画
像A,画像の構造の雰囲気が似た画像Bおよび画像中の
テクスチャの雰囲気が似た画像Cが見つかったものとす
る。
As described in Embodiments 1 and 2,
As a premise, there is no single image that appropriately represents an image desired by a user as a search result, but for example, an image A in which the color of the image is similar to the image desired as the search result, an atmosphere of an image structure It is assumed that an image B similar to the image B and an image C similar to the texture in the image are found.

【0100】ユーザは、図9に示すように、これら3枚
の画像をそれぞれ画像指定欄A,BおよびCに問合せ画
像A,BおよびCとして指定する。つぎにユーザは、検
索結果として希望する画像に画像の配色の雰囲気が似て
いる問合せ画像Aについては特徴量指定ボタン203に
おいて「色」を指定する。同様に、検索結果として希望
する画像に画像の構造の雰囲気が似ている問合せ画像B
については「構造」を、画像中のテクスチャの雰囲気が
似ている問合せ画像Cについては「テクスチャ」を指定
する。
As shown in FIG. 9, the user designates these three images as inquiry images A, B and C in image designation columns A, B and C, respectively. Next, the user designates “color” in the feature amount designation button 203 for the query image A in which the color atmosphere of the image is similar to the desired image as a search result. Similarly, the query image B in which the atmosphere of the image structure is similar to the desired image as the search result
Is designated as "structure", and as for the query image C having a similar texture atmosphere in the image, "texture" is designated.

【0101】続いて、ユーザは重要度指定バー204を
用いて各問合せ画像に重要度を指定する。この重要度指
定バー204は、一例として、各問合せ画像毎に「0」
を中心にして「+」の重要度および「−」の重要度を指
定することができるように構成されている。なお、重要
度として「+」方向および「−」方向の両方ではなく、
「+」方向のみ、または「−」方向のみを指定できるよ
うにしても良い。
Subsequently, the user uses the importance designation bar 204 to designate the importance for each inquiry image. As an example, the importance designation bar 204 is “0” for each query image.
The importance of "+" and the importance of "-" can be designated with "." Note that the importance is not in both the "+" direction and the "-" direction,
Only the "+" direction or only the "-" direction may be designated.

【0102】例えば、問合せ画像A,BおよびCのう
ち、検索結果として希望する画像に類似する配色を持っ
た問合せ画像Aが最も重要である、即ち、検索結果とし
て問合せ画像Aのような配色の画像が特に欲しいとユー
ザが感じる場合、ユーザは重要度指定バー204を
「+」方向の所望の位置に移動させ、問合せ画像Aは重
要であることを指定する。このようにして重要度が指定
されると、後述する検索時において、検索対象の画像と
問合せ画像Aとの類似度に対し、問合せ画像Aに対して
指定された重要度に応じた「+」の重み付けが行われ
る。
For example, of the query images A, B, and C, the query image A having a color scheme similar to the desired image as the search result is the most important. When the user feels that he / she particularly wants an image, the user moves the importance designation bar 204 to a desired position in the “+” direction, and designates that the inquiry image A is important. When the importance is designated in this manner, the similarity between the image to be searched and the query image A is set to “+” corresponding to the significance specified for the query image A during the search described later. Is weighted.

【0103】なお、例えば、問合せ画像Cのようなテク
スチャの画像は検索結果として欲しくないとユーザが感
じる場合、ユーザは重要度指定バー204を「−」方向
の所望の位置に移動させる。すなわち、「−」方向の重
要度を指定することによりNOT条件を問合せ画像に付
与することができる。したがって、こんな特徴を有する
画像は検索結果として欲しくないとユーザが考える画像
を問合せ画像として指定することも可能である。この場
合、検索対象の画像と問合せ画像Cとの類似度に対し、
問合せ画像Cに対して指定された重要度に応じた「−」
の重み付けが行われることになる。
If the user does not want a texture image such as the query image C as a search result, the user moves the importance designation bar 204 to a desired position in the “-” direction. That is, a NOT condition can be given to the inquiry image by specifying the importance in the “-” direction. Therefore, it is also possible to designate, as a query image, an image that the user thinks that an image having such characteristics is not desired as a search result. In this case, for the similarity between the image to be searched and the query image C,
"-" According to the degree of importance specified for query image C
Will be weighted.

【0104】このように、問合せ画像毎にユーザが重要
度を指定することを可能にすることにより、検索に対す
るユーザの意図を検索条件として正確に表現することが
可能となる。すなわち、後述する検索処理によって、重
要度は類似度に対する重み付けとして反映されるため、
ユーザの意図が反映された検索結果の画像を得ることが
可能となる。なお、必ず重要度を指定しなければならな
いわけではなく、ユーザが希望する場合に、希望する問
合せ画像に対して指定すれば良い。
As described above, by enabling the user to specify the importance for each query image, it is possible to accurately express the user's intention for the search as a search condition. That is, the importance is reflected as a weight to the similarity by the search processing described later,
It is possible to obtain an image of the search result reflecting the intention of the user. Note that it is not always necessary to specify the degree of importance, and if the user desires, the importance level may be designated for a desired query image.

【0105】つぎに、実施の形態3に係る画像検索装置
による画像検索処理について説明する。図10は、実施
の形態3に係る検索処理を示すフローチャートである。
ユーザは、図9に示した各画像指定欄に問合せ画像を複
数指定し、指定した各問合せ画像毎に検索対象の画像と
の類似度を求める際に使用する特徴量の種類を指定する
と共に、必要に応じて重要度を指定する(S301)。
図9に示したように、ユーザは、問合せ画像A,Bおよ
びCを指定し、各問合せ画像A,BおよびC毎に特徴量
の種類および重要度を指定したものとする。
Next, an image search process by the image search device according to the third embodiment will be described. FIG. 10 is a flowchart showing a search process according to the third embodiment.
The user designates a plurality of query images in each image designation field shown in FIG. 9 and designates a type of a feature amount used when obtaining a similarity with the image to be searched for each designated query image. The importance is designated as necessary (S301).
As illustrated in FIG. 9, it is assumed that the user has specified the inquiry images A, B, and C, and has specified the type and importance of the feature amount for each of the inquiry images A, B, and C.

【0106】続いて、ユーザが図9の検索ボタン201
を指定すると、U/I部151は、問合せ画像A,Bお
よびC,ならびに特徴量の種類を特徴抽出エンジン15
2に入力し、特徴抽出エンジン152は、各問合せ画像
A,BおよびCから指定された種類の特徴量を抽出する
処理を実行する(S302)。すなわち、特徴抽出エン
ジン152は、問合せ画像Aから色の特徴量を、問合せ
画像Bから構造の特徴量を、問合せ画像Cからテクスチ
ャの特徴量を抽出する。その後、特徴抽出エンジン15
2は、抽出した各問合せ画像の特徴量をマッチング・エ
ンジン153に渡す(図4の特徴空間にそれぞれマップ
する)。
Then, the user presses the search button 201 in FIG.
Is specified, the U / I unit 151 transmits the query images A, B, and C, and the type of the feature amount to the feature extraction engine 15.
2, the feature extraction engine 152 executes a process of extracting a specified type of feature amount from each of the query images A, B, and C (S302). That is, the feature extraction engine 152 extracts a color feature from the query image A, a structural feature from the query image B, and a texture feature from the query image C. Then, the feature extraction engine 15
2 passes the extracted feature amount of each query image to the matching engine 153 (maps them to the feature space in FIG. 4).

【0107】続いて、マッチング・エンジン153は、
画像DB108に登録されている検索対象の画像毎に、
ユーザが指定した種類の特徴量を用いて各問合せ画像
A,BおよびCとの類似度を求め、求めた各類似度に対
して重要度に応じた重み付けを行い、各問合せ画像A,
BおよびCとの類似度を合計して検索対象の画像の総合
類似度を求める処理を実行する(S303)。
Subsequently, the matching engine 153
For each image to be searched registered in the image DB 108,
The similarity to each of the query images A, B, and C is obtained using the feature amount of the type designated by the user, and the obtained similarities are weighted according to the importance, and each of the query images A, B, and C is weighted.
A process is performed to obtain the total similarity of the search target image by summing the similarities with B and C (S303).

【0108】このステップS303における処理を検索
対象の一つの画像を例にとって具体的に説明する。マッ
チング・エンジン153は、検索対象の画像と問合せ画
像Aについて、色の特徴量を用いて類似度を求める。す
なわち、マッチング・エンジン153は、色の特徴量に
基づいて図4に示した特徴量空間中にプロットされた検
索対象の画像と問合せ画像Aとの距離を例えばユークリ
ッド距離などのベクトルの距離定義式を用いて求める。
続いて、マッチング・エンジン153は、求めた距離に
対し、重要度指定バー204で指定された問合せ画像A
の重要度に応じて重み付けを行う。マッチング・エンジ
ン153は、同様に、構造の特徴量に基づいて検索対象
の画像と問合せ画像Bとの距離を求め、求めた距離に対
して問合せ画像Bの重要度に応じた重み付けを行うと共
に、テクスチャの特徴量に基づいて検索対象の画像と問
合せ画像Cとの距離を求め、求めた距離に対して問合せ
画像Cの重要度に応じた重み付けを行う。
The process in step S303 will be specifically described with reference to one image to be searched. The matching engine 153 obtains the similarity between the image to be searched and the query image A using the color feature amount. That is, the matching engine 153 calculates the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. Is determined using
Subsequently, the matching engine 153 compares the obtained distance with the query image A designated by the importance designation bar 204.
Is weighted according to the importance of. Similarly, the matching engine 153 calculates the distance between the image to be searched and the query image B based on the feature amount of the structure, weights the obtained distance according to the importance of the query image B, The distance between the image to be searched and the inquiry image C is obtained based on the feature amount of the texture, and the obtained distance is weighted according to the importance of the inquiry image C.

【0109】なお、重み付けの対象となる類似度は画像
同士の特徴量間の距離であるため、「+」の重要度に基
づく「+」の重み付けは画像間の距離を短くする方向に
働き、「−」の重要度に基づく「−」の重み付けは画像
間の距離を長くする方向に働くことになる。
Since the similarity to be weighted is the distance between the feature values of the images, the weighting of “+” based on the importance of “+” works to shorten the distance between the images. The weighting of "-" based on the importance of "-" works to increase the distance between images.

【0110】その後、マッチング・エンジン153は、
検索対象の画像と各問合せ画像A,BおよびCとの距離
を合計し、距離の合計値を総合類似度とする。ここで、
特徴量の数をN、問合せ画像の数をM、k番目の問合せ
画像をQk、検索対象の画像をIi、特徴量jの画像間の
距離式をDj()、k番目の画像の特徴量jの重要度を
jk(該当する特徴が指定されていなければ0)とする
と、検索対象の各画像毎の総合類似度Siは以下のよう
に表わされる。
Thereafter, the matching engine 153
The distance between the image to be searched and each of the inquiry images A, B, and C is totaled, and the total value of the distances is defined as the overall similarity. here,
The number of feature values is N, the number of query images is M, the k-th query image is Q k , the image to be searched is I i , the distance formula between images of the feature value j is D j (), and the k-th image Assuming that the importance of the feature amount j is w jk (0 if the corresponding feature is not specified), the total similarity S i for each image to be searched is expressed as follows.

【0111】[0111]

【数3】 (Equation 3)

【0112】マッチング・エンジン153は、このよう
にして検索対象の画像毎に総合類似度を求め、検索対象
の画像毎の総合類似度をU/I部151に出力する。
The matching engine 153 obtains the total similarity for each image to be searched in this way, and outputs the total similarity for each image to be searched to the U / I unit 151.

【0113】U/I部151は、マッチング・エンジン
153によって検索対象の画像毎に求められた総合類似
度を参照し、例えば総合類似度の高い順に検索対象の画
像を図9の画像表示欄202に表示する(S304)。
ここでは、総合類似度として、検索対象の画像と問合せ
画像A,BおよびCとの特徴量間の距離の合計を用いて
いるため、実際には、総合類似度の値の小さい順に検索
対象の画像が画像表示欄202に表示されることにな
る。すなわち、総合類似度は0以上の値を持ち、総合類
似度が0のときは各問合せ画像の特徴量および検索対象
の画像の特徴量が等しいということを意味する。
The U / I unit 151 refers to the overall similarity obtained for each image to be searched by the matching engine 153 and, for example, sorts the images to be searched in descending order of the overall similarity in the image display column 202 of FIG. (S304).
Here, since the sum of the distances between the feature amounts of the image to be searched and the query images A, B, and C is used as the overall similarity, actually, the search targets are searched in ascending order of the value of the overall similarity. The image will be displayed in the image display column 202. That is, the total similarity has a value of 0 or more, and when the total similarity is 0, it means that the feature amount of each query image and the feature amount of the image to be searched are equal.

【0114】なお、画像表示欄202に表示された検索
結果の画像を参照した結果、絞込み検索を行いたい場合
には、画像表示欄202に表示された画像を問合せ画像
として指定して同様の検索処理を行うこともできる。ま
た、画像表示欄202に表示された画像をマウス105
でクリックすることにより、画像を拡大して表示する処
理を行うことも可能である。
If a narrow search is to be performed as a result of referring to the image of the search result displayed in the image display column 202, the image displayed in the image display column 202 is designated as a query image, and a similar search is performed. Processing can also be performed. Further, the image displayed in the image display field 202 is
By clicking on, processing for enlarging and displaying an image can also be performed.

【0115】このように、実施の形態3に係る画像検索
装置によれば、求めた類似度に対し、問合せ画像の種類
に応じて任意の重み付けを行うことができるように、各
問合せ画像毎に重要度を指定することが可能であり、検
索対象の画像毎に、各問合せ画像との類似度を求め、求
めた各問合せ画像との類似度に対し、指定された重要度
に応じた重み付けを行うことにより、ユーザの意図を検
索条件として正確に表現できるため、ユーザの意図を正
確に装置に伝えることが可能となると共に、重要度は類
似度に対する重み付けとして反映されるため、ユーザの
意図が反映された検索結果の画像を得ることが可能とな
る。
As described above, according to the image retrieval apparatus of the third embodiment, the obtained similarity can be arbitrarily weighted in accordance with the type of the query image, so that the similarity is obtained for each query image. It is possible to specify the degree of importance. For each image to be searched, the degree of similarity to each query image is obtained, and the similarity to each obtained query image is weighted according to the specified degree of importance. By doing so, since the user's intention can be accurately expressed as a search condition, it is possible to accurately convey the user's intention to the device, and the importance is reflected as a weight for the similarity, so that the user's intention is reflected. It is possible to obtain an image of the reflected search result.

【0116】なお、実施の形態3の説明において、問合
せ画像として3枚の画像を用いたが、問合せ画像の枚数
は3枚に限定されるものではない。ただし、実施の形態
3においては、問合せ画像毎に重要度を指定するため、
複数枚の問合せ画像を指定することに意味がある。
In the description of the third embodiment, three images are used as inquiry images, but the number of inquiry images is not limited to three. However, in the third embodiment, since the importance is specified for each query image,
It is meaningful to specify a plurality of query images.

【0117】また、詳細な説明については省略するが、
実施の形態1で説明した画像検索装置においても、実施
の形態3で説明したように各問合せ画像毎に重要度を指
定することができるようにしても良い。
Although detailed description is omitted,
Also in the image search device described in the first embodiment, the importance may be designated for each query image as described in the third embodiment.

【0118】〔実施の形態4〕実施の形態4に係る画像
検索装置は、ユーザの意図を検索条件として正確に表現
するための一つの手法として、AND検索を実行可能に
するものである。なお、実施の形態4に係る画像検索装
置において、実施の形態1で既に説明した構成について
は同一の符号を使用して詳細な説明を省略し、画像検索
処理についても共通する点については適宜説明を省略す
る。
[Fourth Embodiment] The image search apparatus according to the fourth embodiment enables an AND search to be executed as one method for accurately expressing a user's intention as a search condition. In the image search device according to the fourth embodiment, the same components as those described in the first embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted. Is omitted.

【0119】図11は、実施の形態4に係る画像検索装
置において用いられる検索ウインドウ200dを示す説
明図である。この検索ウインドウ200dは、画像指定
欄A,BおよびC,検索ボタン201ならびに画像表示
欄202に加え、AND検索の実行を指定するためのA
ND指定ボタン205およびOR検索の実行を指定する
ためのOR指定ボタン206を備えている。OR検索に
ついては、後述する実施の形態8において詳細に説明す
ることにし、ここではAND検索についてのみ説明す
る。また、検索の際に用いる特徴量は一種類であるもの
とするが、当然、複数種類の特徴量を用いることにして
も良い。
FIG. 11 is an explanatory diagram showing a search window 200d used in the image search device according to the fourth embodiment. The search window 200d includes an image designation field A, B, and C, a search button 201, an image display field 202, and an A for designating execution of an AND search.
An ND designation button 205 and an OR designation button 206 for designating execution of an OR search are provided. The OR search will be described in detail in an eighth embodiment, which will be described later. Here, only the AND search will be described. Although one type of feature amount is used in the search, a plurality of types of feature amounts may naturally be used.

【0120】続いて、実施の形態4に係る画像検索装置
による画像検索処理について説明する。図12は、実施
の形態4に係る画像検索処理を示すフローチャートであ
る。ユーザは、図11に示した各画像指定欄に問合せ画
像を複数指定し、AND指定ボタン205を選択してA
ND条件による画像検索処理を指定する(S401)。
図11に示したように、ユーザは、3枚の問合せ画像
A,BおよびCを指定したものとする。
Next, an image search process by the image search apparatus according to the fourth embodiment will be described. FIG. 12 is a flowchart illustrating an image search process according to the fourth embodiment. The user specifies a plurality of inquiry images in each image specification column shown in FIG.
The image search processing based on the ND condition is designated (S401).
As shown in FIG. 11, it is assumed that the user has designated three inquiry images A, B, and C.

【0121】続いて、ユーザが図11の検索ボタン20
1を指定すると、U/I部151は、問合せ画像A,B
およびCを特徴抽出エンジン152に入力し、特徴抽出
エンジン152は、各問合せ画像A,BおよびCから所
定の特徴量を抽出する処理を実行する(S402)。そ
の後、特徴抽出エンジン152は、抽出した各問合せ画
像の特徴量をマッチング・エンジン153に渡す(図4
の特徴空間にそれぞれマップする)。
Then, the user presses the search button 20 in FIG.
When 1 is specified, the U / I unit 151 makes the inquiry images A and B
And C are input to the feature extraction engine 152, and the feature extraction engine 152 executes a process of extracting a predetermined feature amount from each of the query images A, B, and C (S402). Thereafter, the feature extraction engine 152 passes the extracted feature amount of each query image to the matching engine 153 (FIG. 4).
Map to each feature space).

【0122】マッチング・エンジン153は、画像DB
108に登録されている検索対象の画像毎に、所定の特
徴量を用いて各問合せ画像A,BおよびCとの類似度を
求めると共に、求めた各問合せ画像A,BおよびCとの
類似度を合計して検索対象の画像の総合類似度を求める
処理を実行する(S403)。
The matching engine 153 has an image DB
For each image to be searched registered in 108, the similarity with each of the query images A, B, and C is obtained using a predetermined feature amount, and the similarity with each of the obtained query images A, B, and C is obtained. Are executed to calculate the total similarity of the images to be searched (S403).

【0123】このステップS403における処理を検索
対象の一つの画像を例にとって具体的に説明する。マッ
チング・エンジン153は、検索対象の画像と問合せ画
像Aについて、所定の特徴量を用いて類似度を求める。
すなわち、マッチング・エンジン153は、所定の特徴
量に基づいて図4に示した特徴量空間中にプロットされ
た検索対象の画像と問合せ画像Aとの距離を例えばユー
クリッド距離などのベクトルの距離定義式を用いて求め
る。マッチング・エンジン153は、同様に、所定の特
徴量に基づいて検索対象の画像と問合せ画像Bとの距離
を求めると共に、検索対象の画像と問合せ画像Cとの距
離を求める。
The processing in step S403 will be specifically described by taking one image to be searched as an example. The matching engine 153 obtains a similarity between the search target image and the query image A using a predetermined feature amount.
That is, the matching engine 153 calculates the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. 4 based on the predetermined feature amount by using a distance definition expression of a vector such as a Euclidean distance. Is determined using Similarly, the matching engine 153 obtains the distance between the search target image and the query image B based on the predetermined feature amount, and calculates the distance between the search target image and the query image C.

【0124】その後、マッチング・エンジン153は、
検索対象の画像と各問合せ画像A,BおよびCとの距離
を合計し、距離の合計値を総合類似度とする。ここで、
問合せ画像の数をM、k番目の問合せ画像をQk、検索
対象の画像をIi、画像間の距離式をD()とすると、
検索対象の各画像毎の総合類似度Siは以下のように表
わされる。
Thereafter, the matching engine 153
The distance between the image to be searched and each of the inquiry images A, B, and C is totaled, and the total value of the distances is defined as the overall similarity. here,
When the number of query images is M, the k-th query image is Q k , the search target image is I i , and the distance formula between the images is D (),
The overall similarity S i for each image to be searched is represented as follows.

【0125】[0125]

【数4】 (Equation 4)

【0126】マッチング・エンジン153は、このよう
にして検索対象の画像毎に総合類似度を求め、検索対象
の画像毎の総合類似度をU/I部151に出力する。
The matching engine 153 obtains the overall similarity for each image to be searched in this way, and outputs the overall similarity for each image to be searched to the U / I unit 151.

【0127】なお、複数種類の特徴量を用いて検索を行
う場合は、各種類の特徴量毎に検索対象の画像および各
問合せ画像の類似度(距離)を求め、検索対象の画像毎
に、特徴量毎に求めた各問合せ画像との類似度の全てを
合計して総合類似度を求めれば良い。
When a search is performed using a plurality of types of feature amounts, the similarity (distance) between the image to be searched and each query image is obtained for each type of feature amount, and for each image to be searched, The total similarity may be obtained by summing all the similarities with each query image obtained for each feature amount.

【0128】続いて、U/I部151は、マッチング・
エンジン153によって検索対象の画像毎に求められた
総合類似度を参照し、例えば総合類似度の高い順に検索
対象の画像を図11の画像表示欄202に表示する(S
404)。ここでの総合類似度は、問合せ画像A,Bお
よびCの全てに対する検索対象の各画像の類似度を意味
しているため、画像のAND検索が実行されたことにな
る。ただし、ここでは総合類似度として検索対象の画像
と問合せ画像A,BおよびCとの特徴量間の距離の合計
を用いているため、実際には、総合類似度の値の小さい
順に検索対象の画像が画像表示欄202に表示されるこ
とになる。すなわち、総合類似度は0以上の値を持ち、
総合類似度が0のときは各問合せ画像の特徴量および検
索対象の画像の特徴量が等しいということを意味する。
Subsequently, U / I section 151 performs matching
The engine 153 refers to the overall similarity obtained for each image to be searched, and displays, for example, images to be searched in the image display column 202 of FIG. 11 in descending order of overall similarity (S
404). Since the total similarity here means the similarity of each of the search target images to all of the query images A, B, and C, the AND search of the images has been performed. However, since the sum of the distances between the feature amounts of the image to be searched and the query images A, B, and C is used as the overall similarity, actually, the search targets are sorted in ascending order of the value of the overall similarity. The image will be displayed in the image display column 202. That is, the overall similarity has a value of 0 or more,
When the total similarity is 0, it means that the feature amount of each query image and the feature amount of the search target image are equal.

【0129】そして、画像表示欄202に表示された検
索結果の画像を参照した結果、絞込み検索を行いたい場
合には、画像表示欄202に表示された画像を問合せ画
像として指定して同様の検索処理を行うこともできる。
If the user wants to perform a narrowing-down search as a result of referring to the image of the search result displayed in the image display section 202, the user designates the image displayed in the image display section 202 as a query image and performs a similar search. Processing can also be performed.

【0130】このように、実施の形態4に係る画像検索
装置によれば、問合せ画像を複数指定し、検索対象の画
像毎に、指定された各問合せ画像との類似度を求めると
共に、求めた各問合せ画像との類似度を合計して総合類
似度を求め、検索対象の画像毎に求めた総合類似度に基
づいて検索結果を出力することにより、AND検索を行
うことが可能となるため、ユーザの意図を検索条件とし
て正確に表現するための一つの手法を提供することがで
きる。
As described above, according to the image search apparatus of the fourth embodiment, a plurality of query images are designated, and for each of the images to be searched, the degree of similarity to each of the designated query images is determined, and the similarity is determined. Since the total similarity with each query image is summed to obtain a total similarity, and a search result is output based on the total similarity obtained for each image to be searched, an AND search can be performed. It is possible to provide one method for accurately expressing a user's intention as a search condition.

【0131】なお、実施の形態4の説明において、問合
せ画像として3枚の画像を用いたが、問合せ画像の枚数
は3枚に限定されるものではない。また、特徴量の種類
を特に示さなかったが、色,構造およびテクスチャ等、
いかなる種類の特徴量であっても単独でまたは複数組み
合わせて用いることができる。
In the description of the fourth embodiment, three images are used as inquiry images, but the number of inquiry images is not limited to three. In addition, although the types of the feature amounts are not specifically shown, the colors, structures, textures, etc.
Any type of feature can be used alone or in combination.

【0132】〔実施の形態5〕実施の形態5に係る画像
検索装置は、実施の形態4の画像検索装置において、検
索に対するユーザの意図をさらに正確に表現できるよう
にしたものである。
[Fifth Embodiment] An image retrieval apparatus according to the fifth embodiment is different from the image retrieval apparatus according to the fourth embodiment in that the user's intention for retrieval can be expressed more accurately.

【0133】図13は、実施の形態5に係る画像検索装
置において用いられる検索ウインドウ200eを示す説
明図である。図13に示す検索ウインドウ200eは、
図11に示した検索ウインドウ200dに加えて、画像
指定欄A,BおよびCに指定された各問合せ画像毎に相
対的な重要度を指定する重要度指定バー207を備えて
いる。
FIG. 13 is an explanatory diagram showing a search window 200e used in the image search device according to the fifth embodiment. The search window 200e shown in FIG.
In addition to the search window 200d shown in FIG. 11, an importance designation bar 207 for designating relative importance for each of the inquiry images designated in the image designation columns A, B, and C is provided.

【0134】この重要度指定バー207は、実施の形態
3で説明したように、各問合せ画像毎に「0」を中心に
して「+」の重要度および「−」の重要度を指定するこ
とを可能にするものである。したがって、ユーザが重要
と考える問合せ画像に対して「+」の重要度を指定し、
このような画像に類似する画像は検索結果として欲しく
ないと考える場合は該当する問合せ画像に対して「−」
の重要度を指定することができる。指定した重要度は、
求めた類似度に対する重み付けとして検索結果に反映さ
れる。なお、重要度として「+」方向および「−」方向
の両方ではなく、「+」方向のみ、または「−」方向の
みを指定できるようにしても良い。
As described in the third embodiment, the importance designation bar 207 designates the importance of “+” and the importance of “−” centering on “0” for each query image. Is what makes it possible. Therefore, if the user considers the query image to be important, specify the importance of "+"
If an image similar to such an image is not desired as a search result, a "-"
Can be specified. The specified severity is
It is reflected in the search results as a weight for the obtained similarity. In addition, only the "+" direction or only the "-" direction may be designated as the importance, not both the "+" direction and the "-" direction.

【0135】つぎに、実施の形態5に係る画像検索装置
による画像検索処理について説明する。図14は、実施
の形態5に係る検索処理を示すフローチャートである。
ユーザは、図13に示した各画像指定欄に問合せ画像を
複数指定すると共に、指定した各問合せ画像毎に必要に
応じて重要度を指定し、さらにAND指定ボタン205
を選択してAND条件による画像検索処理を指定する
(S501)。図13に示したように、ユーザは、問合
せ画像A,BおよびCを指定し、指定した各問合せ画像
A,BおよびC毎に任意の重要度を指定したものとす
る。
Next, an image search process by the image search apparatus according to the fifth embodiment will be described. FIG. 14 is a flowchart illustrating a search process according to the fifth embodiment.
The user designates a plurality of inquiry images in each image designation column shown in FIG. 13, designates the importance as needed for each designated inquiry image, and further designates an AND designation button 205.
Is selected to specify an image search process based on an AND condition (S501). As illustrated in FIG. 13, it is assumed that the user has specified the inquiry images A, B, and C, and has specified any degree of importance for each of the specified inquiry images A, B, and C.

【0136】そして、ユーザが図13の検索ボタン20
1を指定すると、U/I部151は、問合せ画像A,B
およびCを特徴抽出エンジン152に入力し、特徴抽出
エンジン152は、各問合せ画像A,BおよびCから所
定の特徴量を抽出する処理を実行する(S502)。そ
の後、特徴抽出エンジン152は、抽出した各問合せ画
像の特徴量をマッチング・エンジン153に渡す(図4
の特徴空間にそれぞれマップする)。
Then, the user presses the search button 20 in FIG.
When 1 is specified, the U / I unit 151 makes the inquiry images A and B
And C are input to the feature extraction engine 152, and the feature extraction engine 152 executes a process of extracting a predetermined feature amount from each of the query images A, B, and C (S502). Thereafter, the feature extraction engine 152 passes the extracted feature amount of each query image to the matching engine 153 (FIG. 4).
Map to each feature space).

【0137】マッチング・エンジン153は、画像DB
108に登録されている検索対象の画像毎に、所定の特
徴量を用いて各問合せ画像A,BおよびCとの類似度を
求め、求めた各類似度に対して重要度に応じた重み付け
を行い、各問合せ画像A,BおよびCとの類似度を合計
して検索対象の画像の総合類似度を求める処理を実行す
る(S503)。
The matching engine 153 has an image DB
For each of the images to be searched registered in 108, the similarity with each of the inquiry images A, B, and C is obtained using a predetermined feature amount, and the obtained similarities are weighted according to the importance. Then, a process of calculating the total similarity of the images to be searched by summing the similarities with the query images A, B, and C is executed (S503).

【0138】このステップS503における処理を検索
対象の一つの画像を例にとって具体的に説明する。マッ
チング・エンジン153は、検索対象の画像と問合せ画
像Aについて、所定の特徴量を用いて類似度を求める。
すなわち、マッチング・エンジン153は、所定の特徴
量に基づいて図4に示した特徴量空間中にプロットされ
た検索対象の画像と問合せ画像Aとの距離を例えばユー
クリッド距離などのベクトルの距離定義式を用いて求め
る。続いて、マッチング・エンジン153は、求めた距
離に対し、検索ウインドウ200eにおいて指定された
問合せ画像Aの重要度に応じて重み付けを行う。マッチ
ング・エンジン153は、同様に、検索対象の画像と問
合せ画像Bとの距離を求め、求めた距離に対して問合せ
画像Bの重要度に応じた重み付けを行うと共に、検索対
象の画像と問合せ画像Cとの距離を求め、求めた距離に
対して問合せ画像Cの重要度に応じた重み付けを行う。
[0138] The processing in step S503 will be specifically described using one image to be searched as an example. The matching engine 153 obtains a similarity between the search target image and the query image A using a predetermined feature amount.
That is, the matching engine 153 calculates the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. 4 based on the predetermined feature amount by using a distance definition expression of a vector such as a Euclidean distance. Is determined using Next, the matching engine 153 weights the obtained distance in accordance with the importance of the query image A specified in the search window 200e. Similarly, the matching engine 153 obtains the distance between the image to be searched and the query image B, weights the obtained distance according to the importance of the query image B, and also calculates the distance between the image to be searched and the query image B. The distance to C is obtained, and the obtained distance is weighted according to the importance of the inquiry image C.

【0139】その後、マッチング・エンジン153は、
検索対象の画像と各問合せ画像A,BおよびCとの距離
を合計し、距離の合計値を総合類似度とする。ここで、
問合せ画像の数をM、k番目の問合せ画像をQk、検索
対象の画像をIi、画像間の距離式をD()、k番目の
画像の重要度をwkとすると、検索対象の各画像毎の総
合類似度Siは以下のように表わされる。
After that, the matching engine 153
The distance between the image to be searched and each of the inquiry images A, B, and C is totaled, and the total value of the distances is defined as the overall similarity. here,
Assuming that the number of query images is M, the k-th query image is Q k , the search target image is I i , the distance formula between the images is D (), and the importance of the k-th image is w k , The overall similarity S i for each image is represented as follows.

【0140】[0140]

【数5】 (Equation 5)

【0141】マッチング・エンジン153は、このよう
にして検索対象の画像毎に総合類似度を求め、検索対象
の画像毎の総合類似度をU/I部151に出力する。
The matching engine 153 obtains the total similarity for each image to be searched in this way, and outputs the total similarity for each image to be searched to the U / I unit 151.

【0142】続いて、U/I部151は、マッチング・
エンジン153によって検索対象の画像毎に求められた
総合類似度を参照し、例えば総合類似度の高い順に検索
対象の画像を図13の画像表示欄202に表示する(S
504)。ここでは総合類似度として検索対象の画像と
問合せ画像A,BおよびCとの特徴量間の距離の合計を
用いているため、実際には、総合類似度の値の小さい順
に検索対象の画像が画像表示欄202に表示されること
になる。すなわち、総合類似度は0以上の値を持ち、総
合類似度が0のときは各問合せ画像の特徴量および検索
対象の画像の特徴量が等しいということを意味する。
Subsequently, U / I section 151 performs matching
The engine 153 refers to the overall similarity obtained for each image to be searched, and displays, for example, images to be searched in the image display field 202 of FIG. 13 in descending order of the overall similarity (S
504). Here, since the total distance between the feature amounts of the image to be searched and the query images A, B, and C is used as the overall similarity, the images to be searched are actually sorted in ascending order of the value of the overall similarity. It will be displayed in the image display column 202. That is, the total similarity has a value of 0 or more, and when the total similarity is 0, it means that the feature amount of each query image and the feature amount of the image to be searched are equal.

【0143】なお、画像表示欄202に表示された検索
結果の画像を参照した結果、絞込み検索を行いたい場合
には、画像表示欄202に表示された画像を問合せ画像
として指定して同様の検索処理を行うこともできる。
If the user wants to perform a narrowing-down search as a result of referring to the image of the search result displayed in the image display section 202, the user designates the image displayed in the image display section 202 as a query image and performs a similar search. Processing can also be performed.

【0144】このように、実施の形態5に係る画像検索
装置によれば、求めた類似度に対し、問合せ画像の種類
に応じて任意の重み付けを行うことができるように、各
問合せ画像毎に重要度を指定することが可能であり、検
索対象の画像毎に、各問合せ画像との類似度を求め、求
めた各問合せ画像との類似度に対し、指定された重要度
に応じた重み付けを行うことにより、ユーザの意図を検
索条件として正確に表現できるため、ユーザの意図を正
確に装置に伝えることが可能となると共に、重要度は類
似度に対する重み付けとして反映されるため、ユーザの
意図が反映された検索結果の画像を得ることが可能とな
る。
As described above, according to the image retrieval apparatus of the fifth embodiment, the obtained similarity can be arbitrarily weighted in accordance with the type of the query image, so that each query image can be weighted. It is possible to specify the degree of importance. For each image to be searched, the degree of similarity to each query image is obtained, and the similarity to each obtained query image is weighted according to the specified degree of importance. By doing so, since the user's intention can be accurately expressed as a search condition, it is possible to accurately convey the user's intention to the device, and the importance is reflected as a weight for the similarity, so that the user's intention is reflected. It is possible to obtain an image of the reflected search result.

【0145】なお、実施の形態5の説明において、問合
せ画像として3枚の画像を用いたが、問合せ画像の枚数
は3枚に限定されるものではない。また、特徴量の種類
を特に示さなかったが、色,構造およびテクスチャ等、
いかなる種類の特徴量であっても単独でまたは複数組み
合わせて用いることができる。
In the description of the fifth embodiment, three images are used as inquiry images, but the number of inquiry images is not limited to three. In addition, although the types of the feature amounts are not specifically shown, the colors, structures, textures, etc.
Any type of feature can be used alone or in combination.

【0146】〔実施の形態6〕実施の形態6に係る画像
検索装置は、実施の形態4の画像検索装置において、検
索に対するユーザの意図をさらに正確に表現できるよう
にしたものである。
[Embodiment 6] An image retrieval apparatus according to Embodiment 6 is different from the image retrieval apparatus of Embodiment 4 in that a user's intention for retrieval can be expressed more accurately.

【0147】図15は、実施の形態6に係る画像検索装
置において用いられる検索ウインドウ200fを示す説
明図である。図15に示す検索ウインドウ200fは、
図11に示した検索ウインドウ200dに加えて、画像
指定欄A,BおよびCに指定された各問合せ画像A,B
およびC毎に、検索に使用される特徴量の種類毎の重要
度を指定する重要度指定バー208を備えている。な
お、検索に使用される特徴量としては、一例として、
色,構造およびテクスチャの3種類を用いるものとす
る。
FIG. 15 is an explanatory diagram showing a search window 200f used in the image search device according to the sixth embodiment. The search window 200f shown in FIG.
In addition to the search window 200d shown in FIG. 11, each query image A, B specified in the image specification columns A, B, and C
And C, an importance level designation bar 208 for designating an importance level for each type of feature amount used in the search. In addition, as an example of the feature amount used for the search,
Three types of colors, structures and textures are used.

【0148】重要度指定バー208は、各種類の特徴量
毎の重要度を各問合せ画像毎に指定することを可能とす
るものであって、実施の形態3の重要度指定バー204
(図9参照)で説明したように「0」を中心にして
「+」の重要度および「−」の重要度を指定することを
可能にするものである。なお、重要度として「+」方向
および「−」方向の両方ではなく、「+」方向のみ、ま
たは「−」方向のみを指定できるようにしても良い。
The importance designation bar 208 enables the importance of each type of feature to be designated for each query image. The importance designation bar 204 of the third embodiment is used.
As described with reference to FIG. 9, it is possible to designate the importance of "+" and the importance of "-" centering on "0". In addition, only the "+" direction or only the "-" direction may be designated as the importance, not both the "+" direction and the "-" direction.

【0149】具体的に、この重要度の指定方法を図15
の問合せ画像Aを例にとって説明する。例えば、問合せ
画像Aにおける配色は検索結果として希望する画像に近
いと考える場合、ユーザは色の重要度指定バー208を
操作して「+」の重要度を指定する。一方、問合せ画像
Aにおける構造は検索結果として希望する画像とはほと
んど似ていないと考える場合、ユーザは構造の重要度指
定バー208を操作して「−」の重要度を指定する。
More specifically, the method of designating the importance is shown in FIG.
This will be described with reference to the inquiry image A of FIG. For example, if it is considered that the color scheme in the inquiry image A is close to the desired image as a search result, the user operates the color importance level designation bar 208 to designate the importance level of “+”. On the other hand, when it is considered that the structure in the query image A is hardly similar to the image desired as a search result, the user operates the structure importance designation bar 208 to designate the importance of “−”.

【0150】そして、後に説明する検索処理において、
問合せ画像Aと検索対象の画像の類似度が色の特徴量,
構造の特徴量およびテクスチャの特徴量毎に求められ
る。上記例においては、色の特徴量に「+」の重要度
が、構造の特徴量に「−」の特徴量が指定されているた
め、色の特徴量を用いて求めた類似度に対して「+」の
重要度に応じた「+」の重み付けが行われ、構造の特徴
量を用いて求めた類似度に対して「−」の重要度に応じ
た「−」の重み付けが行われる。この処理は、検索対象
の各画像との類似度に対して実行される。
Then, in a search process described later,
The similarity between the query image A and the search target image is the color feature amount,
It is obtained for each feature amount of the structure and each feature amount of the texture. In the above example, since the importance of “+” is designated as the color feature and the feature of “−” is designated as the structure feature, the similarity calculated using the color feature is determined. Weighting of “+” is performed in accordance with the importance of “+”, and “−” is weighted in accordance with the importance of “−” for the similarity obtained using the feature amount of the structure. This processing is executed for the similarity with each image to be searched.

【0151】問合せ画像BおよびCについても、上述し
た特徴量毎の重要度を指定することにより、問合せ画像
Aのような処理が実行されることになる。
For the inquiry images B and C as well, the processing like the inquiry image A is executed by designating the importance for each feature amount described above.

【0152】このように、各種類の特徴量毎の重要度を
各問合せ画像毎に指定することにより、検索に対するユ
ーザの意図を確実に装置側に伝えることが可能となる。
そして、検索処理によって、重要度は各種類の特徴量毎
に求めた類似度に対する重み付けとして反映されるた
め、ユーザの意図が反映された検索結果の画像を得るこ
とが可能となる。なお、必ず重要度を指定しなければな
らないわけではなく、ユーザが希望する場合に、希望す
る問合せ画像の任意の特徴量に対して指定すれば良い。
As described above, by specifying the importance for each type of feature amount for each query image, it is possible to reliably convey the user's intention for the search to the apparatus side.
Then, by the search processing, the importance is reflected as a weight to the similarity obtained for each type of feature amount, so that it is possible to obtain a search result image in which the user's intention is reflected. Note that it is not always necessary to designate the importance, but if the user desires, the importance may be designated for any feature amount of the desired query image.

【0153】つぎに、実施の形態6に係る画像検索装置
による画像検索処理について説明する。図16は、実施
の形態6に係る検索処理を示すフローチャートである。
ユーザは、図15に示した各画像指定欄に問合せ画像を
複数指定すると共に、指定した各問合せ画像毎に特徴量
の種類毎の重要度を指定し、さらにAND指定ボタン2
05を選択してAND条件による画像検索処理を指定す
る(S601)。図15に示したように、ユーザは、問
合せ画像A,BおよびCを指定し、各種類の特徴量毎の
重要度を各問合せ画像A,BおよびC毎に指定したもの
とする。
Next, an image search process performed by the image search device according to the sixth embodiment will be described. FIG. 16 is a flowchart illustrating a search process according to the sixth embodiment.
The user designates a plurality of query images in each image designation field shown in FIG. 15, designates the importance of each type of feature amount for each designated query image, and furthermore, an AND designation button 2
05 is selected and the image search processing based on the AND condition is designated (S601). As shown in FIG. 15, it is assumed that the user has designated the inquiry images A, B, and C, and has designated the importance for each type of feature amount for each of the inquiry images A, B, and C.

【0154】そして、ユーザが図15の検索ボタン20
1を指定すると、U/I部151は、問合せ画像A,B
およびCを特徴抽出エンジン152に入力し、特徴抽出
エンジン152は、各問合せ画像A,BおよびCから
色,構造およびテクスチャの3種類の特徴量を抽出する
処理を実行する(S602)。その後、特徴抽出エンジ
ン152は、3種類の特徴量毎に抽出した各問合せ画像
の特徴量をマッチング・エンジン153に渡す(図4の
特徴空間にそれぞれマップする)。
Then, the user presses the search button 20 in FIG.
When 1 is specified, the U / I unit 151 makes the inquiry images A and B
And C are input to the feature extraction engine 152, and the feature extraction engine 152 executes a process of extracting three types of feature amounts of color, structure, and texture from the query images A, B, and C (S602). Thereafter, the feature extraction engine 152 passes the feature amounts of each query image extracted for each of the three types of feature amounts to the matching engine 153 (maps them to the feature space in FIG. 4).

【0155】続いて、マッチング・エンジン153は、
画像DB108に登録されている検索対象の画像毎に、
3種類の特徴量を用いて各問合せ画像A,BおよびCと
の類似度を求め、求めた各類似度に対して重要度に応じ
た重み付けを行い、各問合せ画像A,BおよびCとの類
似度を合計して検索対象の画像の総合類似度を求める処
理を実行する(S603)。
Subsequently, the matching engine 153
For each image to be searched registered in the image DB 108,
The similarity to each of the query images A, B, and C is obtained using three types of feature amounts, and the obtained similarities are weighted in accordance with the importance, and the similarity to each of the query images A, B, and C is calculated. A process of calculating the total similarity of the search target images by summing the similarities is executed (S603).

【0156】このステップS603における処理を検索
対象の一つの画像を例にとって具体的に説明する。マッ
チング・エンジン153は、検索対象の画像と問合せ画
像Aについて、色の特徴量を用いて類似度を求める。す
なわち、マッチング・エンジン153は、色の特徴量に
基づいて図4に示した特徴量空間中にプロットされた検
索対象の画像と問合せ画像Aとの距離を例えばユークリ
ッド距離などのベクトルの距離定義式を用いて求める。
続いて、マッチング・エンジン153は、求めた距離に
対し、検索ウインドウ200fにおいて問合せ画像Aに
対して指定された色の特徴量の重要度に応じて重み付け
を行う。さらに、マッチング・エンジン153は、検索
対象の画像と問合せ画像Aについて、構造の特徴量およ
びテクスチャの特徴量を用いた距離をそれぞれ求め、求
めた各距離に対し、検索ウインドウ200fで問合せ画
像Aに対して指定された構造の特徴量の重要度およびテ
クスチャの特徴量の重要度に応じて重み付けを行う。
The processing in step S603 will be specifically described by taking one image to be searched as an example. The matching engine 153 obtains the similarity between the image to be searched and the query image A using the color feature amount. That is, the matching engine 153 calculates the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. Is determined using
Subsequently, the matching engine 153 weights the obtained distance in accordance with the importance of the feature amount of the color specified for the query image A in the search window 200f. Further, the matching engine 153 obtains distances using the structural feature amount and the texture feature amount with respect to the search target image and the query image A, respectively, and applies the obtained distances to the query image A in the search window 200f. On the other hand, weighting is performed according to the importance of the feature of the designated structure and the importance of the feature of the texture.

【0157】マッチング・エンジン153は、同様に、
検索対象の画像と問合せ画像Bとの距離を3種類の特徴
量毎に求め、求めた各距離に対し、問合せ画像Bに対し
て指定された各特徴量毎の重要度に応じた重み付けを行
う。また、検索対象の画像と問合せ画像Cとの距離を3
種類の特徴量毎に求め、求めた各距離に対し、問合せ画
像Cに対して指定された各特徴量毎の重要度に応じた重
み付けを行う。
The matching engine 153 also performs
The distance between the image to be searched and the query image B is obtained for each of the three types of feature values, and the obtained distances are weighted according to the importance of each of the feature values specified for the query image B. . In addition, the distance between the search target image and the query image C is set to 3
For each type of feature amount, weighting is performed on each of the obtained distances in accordance with the importance of each feature amount specified for the inquiry image C.

【0158】その後、マッチング・エンジン153は、
3種類の特徴量毎に求めた検索対象の画像と各問合せ画
像A,BおよびCとの距離を合計し、距離の合計値を総
合類似度とする。ここで、特徴量の数をN、問合せ画像
の数をM、k番目の問合せ画像をQk、検索対象の画像
をIi、特徴量jの画像間の距離式をDj()、k番目の
画像の特徴量jの重要度をwjkとすると、検索対象の各
画像毎の総合類似度S iは以下のように表わされる。
After that, the matching engine 153
Images to be searched and inquiry images obtained for each of the three types of feature values
The distances to the images A, B, and C are summed, and the sum of the distances is summed up.
The similarity is assumed. Here, the number of feature amounts is N, the query image
Is M, the k-th query image is Qk, Images to search for
To Ii, The distance formula between images of the feature amount j is Dj(), K-th
Let w be the importance of image feature jjkWill give you
Total similarity S for each image iIs expressed as follows.

【0159】[0159]

【数6】 (Equation 6)

【0160】マッチング・エンジン153は、このよう
にして検索対象の画像毎に総合類似度を求め、検索対象
の画像毎の総合類似度をU/I部151に出力する。
The matching engine 153 obtains the overall similarity for each image to be searched in this way, and outputs the overall similarity for each image to be searched to the U / I unit 151.

【0161】U/I部151は、マッチング・エンジン
153によって検索対象の画像毎に求められた総合類似
度を参照し、例えば総合類似度の高い順に検索対象の画
像を図15の画像表示欄202に表示する(S60
4)。ここでは総合類似度として検索対象の画像と問合
せ画像A,BおよびCとの特徴量間の距離の合計を用い
ているため、実際には、総合類似度の値の小さい順に検
索対象の画像が画像表示欄202に表示されることにな
る。すなわち、総合類似度は0以上の値を持ち、総合類
似度が0のときは各問合せ画像の特徴量および検索対象
の画像の特徴量が等しいということを意味する。
The U / I unit 151 refers to the overall similarity obtained for each image to be searched by the matching engine 153 and, for example, sorts the images to be searched in descending order of the overall similarity in the image display column 202 of FIG. (S60)
4). Here, since the total distance between the feature amounts of the image to be searched and the query images A, B, and C is used as the overall similarity, the images to be searched are actually sorted in ascending order of the value of the overall similarity. It will be displayed in the image display column 202. That is, the total similarity has a value of 0 or more, and when the total similarity is 0, it means that the feature amount of each query image and the feature amount of the image to be searched are equal.

【0162】なお、画像表示欄202に表示された検索
結果の画像を参照した結果、絞込み検索を行いたい場合
には、画像表示欄202に表示された画像を問合せ画像
として指定して同様の検索処理を行うこともできる。
If the user wants to perform a refined search by referring to the image of the search result displayed in the image display field 202, the user designates the image displayed in the image display field 202 as a query image and performs a similar search. Processing can also be performed.

【0163】このように、実施の形態6に係る画像検索
装置によれば、複数種類の特徴量を用いて問合せ画像お
よび検索対象の画像の類似度を求める場合に、求めた類
似度に対し、問合せ画像および特徴量の種類に応じて任
意の重み付けを行うことができるように、各種類の特徴
量毎の重要度を各問合せ画像毎に指定することが可能で
あり、検索対象の画像それぞれについて、各種類の特徴
量毎に各問合せ画像との類似度を求め、各種類の特徴量
毎に求めた各問合せ画像との類似度に対し、指定された
重要度に応じた重み付けを行うことにより、ユーザの意
図を検索条件として正確に表現できるため、ユーザの意
図を正確に装置に伝えることが可能となると共に、重要
度は類似度に対する重み付けとして反映されるため、ユ
ーザの意図が反映された検索結果の画像を得ることが可
能となる。
As described above, according to the image search device of the sixth embodiment, when the similarity between the query image and the image to be searched is obtained using a plurality of types of feature amounts, It is possible to specify the importance of each type of feature amount for each query image so that any weight can be given according to the type of the query image and feature amount. By calculating the degree of similarity to each query image for each type of feature amount, and by weighting the similarity to each query image obtained for each type of feature amount in accordance with the specified importance, Since the user's intention can be accurately expressed as a search condition, the user's intention can be accurately conveyed to the device, and the importance is reflected as a weight to the similarity, so that the user's intention is reflected. It becomes possible to the obtain an image of the search results.

【0164】なお、実施の形態6の説明において、問合
せ画像として3枚の画像を用いたが、問合せ画像の枚数
は3枚に限定されるものではない。また、特徴量の種類
は、色,構造およびテクスチャの3種類に限定されるも
のではなく、いかなる種類の特徴量の組み合わせであっ
ても良い。
In the description of the sixth embodiment, three images are used as inquiry images, but the number of inquiry images is not limited to three. Further, the types of the feature amounts are not limited to the three types of color, structure, and texture, and may be any combination of the feature amounts.

【0165】〔実施の形態7〕実施の形態7に係る画像
検索装置は、実施の形態4の画像検索装置において、検
索に対するユーザの意図を装置側が汲み取ることができ
るようにしたものである。
[Embodiment 7] An image retrieval apparatus according to Embodiment 7 is different from the image retrieval apparatus of Embodiment 4 in that the apparatus can extract the user's intention for the retrieval.

【0166】前述した実施の形態5および6において
は、ユーザが問合せ画像の重要度または問合せ画像毎に
各特徴量の重要度を指定する必要があったが、実施の形
態7に係る画像検索装置においては、画像検索に使用す
る特徴量を用いてユーザによって指定された問合せ画像
間の類似度を求め、求めた特徴量毎の類似度に基づいて
各問合せ画像間における特徴量毎の重要度を装置側で決
定し、類似度に対する重み付けとして反映するという点
が特徴となる。ここでは、例として、色,構造およびテ
クスチャの3種類の特徴量を用いて検索処理を行うもの
とし、検索条件を指定するための検索ウインドウは図1
1に示した検索ウインドウ200dと同一であるものと
する。
In the above-described fifth and sixth embodiments, the user has to specify the importance of the inquiry image or the importance of each feature amount for each inquiry image. In, the similarity between query images specified by the user is obtained using the feature amounts used for image search, and the importance for each feature amount between query images is calculated based on the obtained similarity for each feature amount. The feature is that it is determined on the device side and reflected as a weight for the similarity. Here, as an example, it is assumed that search processing is performed using three types of feature amounts of color, structure, and texture, and a search window for specifying search conditions is shown in FIG.
It is assumed that this is the same as the search window 200d shown in FIG.

【0167】つぎに、実施の形態7に係る画像検索装置
による画像検索処理について説明する。図17は、実施
の形態7に係る検索処理を示すフローチャートである。
ユーザは、図11に示した検索ウインドウ200dを表
示させ、各画像指定欄に問合せ画像を複数指定すると共
に、AND指定ボタン205を選択してAND条件によ
る画像検索処理を指定する(S701)。ユーザは、問
合せ画像A,BおよびCを指定したものとする。
Next, an image search process performed by the image search apparatus according to the seventh embodiment will be described. FIG. 17 is a flowchart illustrating a search process according to the seventh embodiment.
The user displays the search window 200d shown in FIG. 11, specifies a plurality of query images in each image specification column, selects the AND specification button 205, and specifies image search processing based on AND conditions (S701). It is assumed that the user has specified the inquiry images A, B, and C.

【0168】そして、ユーザが図11の検索ボタン20
1を指定すると、U/I部151は、問合せ画像A,B
およびCを特徴抽出エンジン152に入力し、特徴抽出
エンジン152は、各問合せ画像A,BおよびCから
色,構造およびテクスチャの3種類の特徴量を抽出する
処理を実行する(S702)。
Then, when the user presses the search button 20 in FIG.
When 1 is specified, the U / I unit 151 makes the inquiry images A and B
And C are input to the feature extraction engine 152, and the feature extraction engine 152 executes a process of extracting three types of feature amounts of color, structure, and texture from each of the query images A, B, and C (S702).

【0169】続いて、特徴抽出エンジン152は、抽出
した3種類の特徴量毎に、各問合せ画像A,BおよびC
同士の距離(類似度)を求め、求めた各特徴量毎の距離
に基づいて各問合せ画像A,BおよびC間における特徴
量毎の重要度を決定する(S703)。
Subsequently, the feature extraction engine 152 sets each of the query images A, B, and C for each of the three extracted feature amounts.
The distance (similarity) between them is determined, and the importance of each of the query images A, B, and C for each of the feature amounts is determined based on the obtained distance of each of the feature amounts (S703).

【0170】具体的に、特徴抽出エンジン152は、3
種類の特徴量毎に、問合せ画像同士の特徴間距離を求め
る。各特徴量毎に求めた距離の分散が大きい場合にはそ
の特徴量についてはユーザは関知していないことを意味
し、分散が小さい場合にはユーザはその特徴量を重視し
ていると判断できる。したがって、分散が大きい特徴量
の場合には重要度を小さくし、分散が小さい場合には重
要度を大きくするように設定する。
More specifically, the feature extraction engine 152
The feature-to-feature distance between query images is obtained for each type of feature amount. If the variance of the distance obtained for each feature amount is large, it means that the user is not aware of the feature amount, and if the variance is small, it can be determined that the user values the feature amount. . Therefore, the importance is set to be small when the feature amount has a large variance, and the importance is set to be large when the variance is small.

【0171】例えば、σ2を特徴iにおける全ての問合
せ画像間の距離の分散とするとi番目の特徴量の重要度
kは以下の式で決定することができる。kはwkが適正
な値に収まるようにするための任意の係数である。
For example, if σ 2 is the variance of the distance between all query images in feature i, the importance w k of the i-th feature can be determined by the following equation. k is an arbitrary coefficient for keeping w k within an appropriate value.

【0172】[0172]

【数7】 (Equation 7)

【0173】なお、距離の分散の程度に応じて、前述し
た実施の形態3,5および6で説明したように、「+」
の重要度や「−」の重要度を設定することも可能であ
る。
As described in the third, fifth and sixth embodiments, "+"
And the importance of “−” can be set.

【0174】その後、特徴抽出エンジン152は、3種
類の特徴量毎に抽出した各問合せ画像の特徴量および対
応する重要度をマッチング・エンジン153に渡す。
Thereafter, the feature extraction engine 152 passes the feature amount of each query image extracted for each of the three types of feature amounts and the corresponding importance to the matching engine 153.

【0175】マッチング・エンジン153は、画像DB
108に登録されている検索対象の画像毎に、3種類の
特徴量を用いて各問合せ画像A,BおよびCとの類似度
を求め、求めた各類似度に対して重要度に応じた重み付
けを行い、各問合せ画像A,BおよびCとの類似度を合
計して検索対象の画像の総合類似度を求める処理を実行
する(S704)。
The matching engine 153 has an image DB
For each of the images to be searched registered in 108, the similarity to each of the query images A, B, and C is obtained using three types of feature amounts, and the obtained similarities are weighted according to the importance. Is performed, and a process of calculating the total similarity of the search target image by summing the similarities with the query images A, B, and C is executed (S704).

【0176】このステップS704における処理を検索
対象の一つの画像を例にとって具体的に説明する。マッ
チング・エンジン153は、検索対象の画像と問合せ画
像Aについて色の特徴量を用いて類似度を求める。すな
わち、マッチング・エンジン153は、色の特徴量に基
づいて図4に示した特徴量空間中にプロットされた検索
対象の画像と問合せ画像Aとの距離を例えばユークリッ
ド距離などのベクトルの距離定義式を用いて求める。続
いて、マッチング・エンジン153は、求めた距離に対
し、特徴抽出エンジン152で色の特徴量について決定
した重要度に応じて重み付けを行う。さらに、マッチン
グ・エンジン153は、検索対象の画像と問合せ画像A
について、構造の特徴量およびテクスチャの特徴量を用
いた距離をそれぞれ求め、求めた各距離に対し、特徴抽
出エンジン152で決定した構造の特徴量の重要度およ
びテクスチャの特徴量の重要度に応じて重み付けを行
う。
The process in step S704 will be specifically described with reference to one image to be searched. The matching engine 153 obtains the similarity between the image to be searched and the query image A using the color feature amount. That is, the matching engine 153 calculates the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. Is determined using Subsequently, the matching engine 153 weights the obtained distance according to the importance determined for the color feature by the feature extraction engine 152. Further, the matching engine 153 searches for the image to be searched and the query image A
For each of the distances, a distance using the feature amount of the structure and the feature amount of the texture is obtained, and for each of the obtained distances, according to the importance of the feature amount of the structure and the importance amount of the feature amount of the texture determined by the feature extraction engine 152. Weighting.

【0177】マッチング・エンジン153は、同様に、
検索対象の画像と問合せ画像Bとの距離を3種類の特徴
量毎に求め、求めた各距離に対し、各種類の特徴量毎に
決定された重要度に応じた重み付けを行う。また、検索
対象の画像と問合せ画像Cとの距離を3種類の特徴量毎
に求め、求めた各距離に対し、各種類の特徴量毎に決定
された重要度に応じた重み付けを行う。
The matching engine 153 also performs
The distance between the image to be searched and the query image B is obtained for each of the three types of feature amounts, and the obtained distances are weighted in accordance with the degrees of importance determined for each of the types of feature amounts. Further, the distance between the image to be searched and the query image C is obtained for each of the three types of feature amounts, and the obtained distances are weighted in accordance with the degrees of importance determined for each of the types of feature amounts.

【0178】その後、マッチング・エンジン153は、
3種類の特徴量毎に求めた検索対象の画像と各問合せ画
像A,BおよびCとの距離を合計し、距離の合計値を総
合類似度とする。マッチング・エンジン153は、この
ようにして検索対象の画像毎に総合類似度を求め、検索
対象の画像毎の総合類似度をU/I部151に出力す
る。
Then, the matching engine 153
The distances between the search target image obtained for each of the three types of feature amounts and the query images A, B, and C are totaled, and the total value of the distances is used as the overall similarity. The matching engine 153 obtains the overall similarity for each image to be searched in this way, and outputs the overall similarity for each image to be searched to the U / I unit 151.

【0179】続いて、U/I部151は、マッチング・
エンジン153によって検索対象の画像毎に求められた
総合類似度を参照し、例えば総合類似度の高い順に検索
対象の画像を図11の画像表示欄202に表示する(S
705)。ここでは総合類似度として検索対象の画像と
問合せ画像A,BおよびCとの特徴量間の距離の合計を
用いているため、実際には、総合類似度の値の小さい順
に検索対象の画像が画像表示欄202に表示されること
になる。すなわち、総合類似度は0以上の値を持ち、総
合類似度が0のときは各問合せ画像の特徴量および検索
対象の画像の特徴量が等しいということを意味する。
Subsequently, the U / I section 151 performs matching
The engine 153 refers to the overall similarity obtained for each image to be searched, and displays, for example, images to be searched in the image display column 202 of FIG. 11 in descending order of overall similarity (S
705). Here, since the total distance between the feature amounts of the image to be searched and the query images A, B, and C is used as the overall similarity, the images to be searched are actually sorted in ascending order of the value of the overall similarity. It will be displayed in the image display column 202. That is, the total similarity has a value of 0 or more, and when the total similarity is 0, it means that the feature amount of each query image and the feature amount of the image to be searched are equal.

【0180】なお、画像表示欄202に表示された検索
結果の画像を参照した結果、絞込み検索を行いたい場合
には、画像表示欄202に表示された画像を問合せ画像
として指定して同様の検索処理を行うこともできる。
If a narrow search is to be performed as a result of referring to the image of the search result displayed in the image display field 202, the image displayed in the image display field 202 is designated as a query image and a similar search is performed. Processing can also be performed.

【0181】このように、実施の形態7に係る画像検索
装置によれば、複数種類の特徴量を用いて問合せ画像お
よび検索対象の画像の類似度を求める場合に、求めた類
似度に対し、特徴量の種類に応じて任意の重み付けを行
うことができるように、各種類の特徴量毎に各問合せ画
像間の類似度を求め、求めた各種類の特徴量毎の類似度
に基づいて各問合せ画像間における各種類の特徴量毎の
重要度を決定し、検索対象の画像それぞれについて、各
種類の特徴量毎に各問合せ画像との類似度を求め、各種
類の特徴量毎に求めた各問合せ画像との類似度に対し、
決定した各種類の特徴量毎の重要度に応じた重み付けを
行うことにより、装置側でユーザが指定した問合せ画像
間における各種類の特徴量の重要度を判断し、判断した
重要度を画像間の類似度に反映させるため、ユーザの意
図に合った検索結果を返すことが可能となる。したがっ
て、ユーザが望む通りの検索処理を実現することがで
き、ユーザが望む検索結果を得ることができる。
As described above, according to the image search apparatus of the seventh embodiment, when the similarity between the query image and the image to be searched is obtained using a plurality of types of feature amounts, The similarity between the query images is obtained for each type of feature amount so that arbitrary weighting can be performed according to the type of the feature amount, and each similarity is determined based on the obtained similarity degree for each type of feature amount. The importance of each type of feature amount between query images was determined, and for each image to be searched, the similarity with each query image was obtained for each type of feature amount, and the similarity was obtained for each type of feature amount. For the similarity with each query image,
By performing weighting according to the determined importance of each type of feature amount, the apparatus determines the importance of each type of feature amount between query images specified by the user, and determines the determined importance level between the images. , It is possible to return a search result that meets the user's intention. Therefore, search processing desired by the user can be realized, and search results desired by the user can be obtained.

【0182】なお、実施の形態7の説明において、問合
せ画像として3枚の画像を用いたが、問合せ画像の枚数
は3枚に限定されるものではない。また、特徴量の種類
は、色,構造およびテクスチャの3種類に限定されるも
のではなく、いかなる種類の特徴量の組み合わせであっ
ても良い。
In the description of the seventh embodiment, three images are used as inquiry images, but the number of inquiry images is not limited to three. Further, the types of the feature amounts are not limited to the three types of color, structure, and texture, and may be any combination of the feature amounts.

【0183】〔実施の形態8〕実施の形態8に係る画像
検索装置は、ユーザの意図を検索条件として正確に表現
するための一つの手法として、OR検索を実行可能にす
るものである。実施の形態8に係る画像検索装置による
画像検索処理は、実施の形態4で説明に用いた図11の
検索ウインドウ200dにおいて、AND指定ボタン2
05ではなく、OR指定ボタン206が指定された場合
に実行される。
[Eighth Embodiment] An image search apparatus according to an eighth embodiment enables an OR search to be executed as one method for accurately expressing a user's intention as a search condition. The image search processing by the image search device according to the eighth embodiment is performed by using the AND designation button 2 in the search window 200d of FIG. 11 described in the fourth embodiment.
This is executed when the OR designation button 206 is designated instead of 05.

【0184】図18は、実施の形態8に係る画像検索処
理を示すフローチャートである。ユーザは、図11に示
した各画像指定欄に問合せ画像を複数指定し、OR指定
ボタン206を選択してOR条件による画像検索処理を
指定する(S801)。ユーザは、図11に示すように
3枚の問合せ画像A,BおよびCを指定したものとす
る。
FIG. 18 is a flowchart showing an image search process according to the eighth embodiment. The user designates a plurality of query images in each image designation column shown in FIG. 11, selects the OR designation button 206, and designates an image search process based on the OR condition (S801). It is assumed that the user has specified three inquiry images A, B, and C as shown in FIG.

【0185】そして、ユーザが図11の検索ボタン20
1を指定すると、U/I部151は、問合せ画像A,B
およびCを特徴抽出エンジン152に入力し、特徴抽出
エンジン152は、各問合せ画像A,BおよびCから所
定の特徴量を抽出する処理を実行する(S802)。そ
の後、特徴抽出エンジン152は、抽出した各問合せ画
像の特徴量をマッチング・エンジン153に渡す(図4
の特徴空間にそれぞれマップする)。
Then, when the user presses the search button 20 in FIG.
When 1 is specified, the U / I unit 151 makes the inquiry images A and B
And C are input to the feature extraction engine 152, and the feature extraction engine 152 executes a process of extracting a predetermined feature amount from each of the query images A, B, and C (S802). Thereafter, the feature extraction engine 152 passes the extracted feature amount of each query image to the matching engine 153 (FIG. 4).
Map to each feature space).

【0186】マッチング・エンジン153は、画像DB
108に登録されている検索対象の画像毎に、所定の特
徴量を用いて各問合せ画像A,BおよびCとの類似度を
求めると共に、求めた各問合せ画像A,BおよびCとの
類似度の中から最も高い類似性を示す類似度を選択して
検索対象の画像の総合類似度を求める処理を実行する
(S803)。
The matching engine 153 has an image DB
For each image to be searched registered in 108, the similarity with each of the query images A, B, and C is obtained using a predetermined feature amount, and the similarity with each of the obtained query images A, B, and C is obtained. Then, a process is performed to select a similarity having the highest similarity from among the similarities and obtain the overall similarity of the image to be searched (S803).

【0187】このステップS803における処理を検索
対象の一つの画像を例にとって具体的に説明する。マッ
チング・エンジン153は、検索対象の画像と問合せ画
像Aについて、所定の特徴量を用いて類似度を求める。
すなわち、マッチング・エンジン153は、所定の特徴
量に基づいて図4に示した特徴量空間中にプロットされ
た検索対象の画像と問合せ画像Aとの距離を例えばユー
クリッド距離などのベクトルの距離定義式を用いて求め
る。マッチング・エンジン153は、同様に、所定の特
徴量に基づいて検索対象の画像と問合せ画像Bとの距離
を求めると共に、検索対象の画像と問合せ画像Cとの距
離を求める。
The processing in step S803 will be specifically described with reference to one image to be searched. The matching engine 153 obtains a similarity between the search target image and the query image A using a predetermined feature amount.
That is, the matching engine 153 calculates the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. 4 based on the predetermined feature amount by using a distance definition expression of a vector such as a Euclidean distance. Is determined using Similarly, the matching engine 153 obtains the distance between the search target image and the query image B based on the predetermined feature amount, and calculates the distance between the search target image and the query image C.

【0188】その後、マッチング・エンジン153は、
検索対象の画像と各問合せ画像A,BおよびCとの距離
の中から最も短い距離を選択して総合類似度とする。換
言すれば、マッチング・エンジン153は、検索対象の
画像と各問合せ画像A,BおよびCとの類似度の中から
最も高い類似性を示す類似度を選択する。ここで、問合
せ画像の数をM、k番目の問合せ画像をQk、検索対象
の画像をIi、画像間の距離式をD()とすると、検索
対象の各画像毎の総合類似度Siは以下のように表わさ
れる。
Then, the matching engine 153
The shortest distance is selected from the distance between the image to be searched and each of the inquiry images A, B, and C, and is set as the overall similarity. In other words, the matching engine 153 selects the similarity having the highest similarity from the similarity between the image to be searched and each of the query images A, B, and C. Here, assuming that the number of query images is M, the k-th query image is Q k , the search target image is I i , and the distance formula between the images is D (), the overall similarity S for each search target image is i is represented as follows.

【0189】[0189]

【数8】 (Equation 8)

【0190】マッチング・エンジン153は、このよう
にして検索対象の画像毎に総合類似度を求め、検索対象
の画像毎の総合類似度をU/I部151に出力する。
The matching engine 153 obtains the overall similarity for each image to be searched in this way, and outputs the overall similarity for each image to be searched to the U / I unit 151.

【0191】なお、複数種類の特徴量を用いて検索を行
う場合は、各種類の特徴量毎に検索対象の画像および各
問合せ画像の類似度(距離)を求め、検索対象の画像毎
に、各種類の特徴量毎に求めた各問合せ画像との類似度
の中から最も高い類似性を示す類似度(最も短い距離)
を選択して総合類似度とすれば良い。
When a search is performed using a plurality of types of feature amounts, the similarity (distance) between the image to be searched and each query image is obtained for each type of feature amount, and for each image to be searched, Similarity (shortest distance) indicating the highest similarity among the similarities to each query image obtained for each type of feature amount
May be selected as the overall similarity.

【0192】続いて、U/I部151は、マッチング・
エンジン153によって検索対象の画像毎に求められた
総合類似度を参照し、例えば総合類似度の高い順に検索
対象の画像を図11の画像表示欄202に表示する(S
804)。ここでは総合類似度として検索対象の画像と
問合せ画像A,BおよびCのいずれか一つとの特徴量間
の距離を用いているため、実際には、総合類似度の値の
小さい順に検索対象の画像が画像表示欄202に表示さ
れることになる。すなわち、総合類似度は0以上の値を
持ち、総合類似度が0のときはいずれか一つの問合せ画
像の特徴量および検索対象の画像の特徴量が等しいとい
うことを意味する。
Subsequently, the U / I section 151 performs matching
The engine 153 refers to the overall similarity obtained for each image to be searched, and displays, for example, images to be searched in the image display column 202 of FIG. 11 in descending order of overall similarity (S
804). Here, since the distance between the feature amounts of the image to be searched and any one of the query images A, B, and C is used as the overall similarity, actually, the search target is sorted in ascending order of the value of the overall similarity. The image will be displayed in the image display column 202. That is, the overall similarity has a value of 0 or more, and when the overall similarity is 0, it means that the feature amount of any one of the inquiry images and the feature amount of the image to be searched are equal.

【0193】なお、実施の形態8においては、検索対象
の画像が問合せ画像A,BおよびCのいずれか一つと類
似していれば、高い類似性を示す総合類似度が得られ
る。したがって、OR検索が実現されることになる。
In the eighth embodiment, if the image to be searched is similar to any one of query images A, B, and C, an overall similarity indicating high similarity can be obtained. Therefore, an OR search is realized.

【0194】また、画像表示欄202に表示された検索
結果の画像を参照した結果、絞込み検索を行いたい場合
には、画像表示欄202に表示された画像を問合せ画像
として指定して同様の検索処理を行うこともできる。
If a narrow search is to be performed as a result of referring to the image of the search result displayed in the image display field 202, the image displayed in the image display field 202 is designated as a query image and a similar search is performed. Processing can also be performed.

【0195】このように、実施の形態8に係る画像検索
装置によれば、問合せ画像を複数指定し、検索対象の画
像毎に、指定された各問合せ画像との類似度を求めると
共に、求めた各問合せ画像との類似度の中から最も高い
類似性を示す類似度を選択し、選択した類似度に基づい
て検索結果を出力することにより、OR検索を行うこと
が可能となるため、ユーザの意図を検索条件として正確
に表現するための一つの手法を提供することができる。
As described above, according to the image search apparatus of the eighth embodiment, a plurality of query images are specified, and for each of the images to be searched, the degree of similarity to each of the specified query images is obtained and the search is performed. By selecting a similarity indicating the highest similarity from the similarities with each query image and outputting a search result based on the selected similarity, an OR search can be performed. It is possible to provide one method for accurately expressing an intention as a search condition.

【0196】なお、実施の形態8の説明において、問合
せ画像として3枚の画像を用いたが、問合せ画像の枚数
は3枚に限定されるものではない。また、特徴量の種類
を特に示さなかったが、色,構造およびテクスチャ等、
いかなる種類の特徴量であっても単独でまたは複数組み
合わせて用いることができる。
In the description of the eighth embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. In addition, although the types of the feature amounts are not specifically shown, the colors, structures, textures, etc.
Any type of feature can be used alone or in combination.

【0197】〔実施の形態9〕実施の形態9に係る画像
検索装置は、実施の形態8の画像検索装置において、検
索に対するユーザの意図をさらに正確に表現できるよう
にしたものである。実施の形態9に係る画像検索装置に
よる画像検索処理は、実施の形態5で説明に用いた図1
3の検索ウインドウ200eにおいて、AND指定ボタ
ン205ではなく、OR指定ボタン206が指定された
場合に実行される。
[Embodiment 9] The image search apparatus according to the ninth embodiment differs from the image search apparatus of the embodiment 8 in that the user's intention for the search can be expressed more accurately. The image search process performed by the image search device according to the ninth embodiment is similar to the image search process shown in FIG.
The third search window 200e is executed when the OR designation button 206 is designated instead of the AND designation button 205.

【0198】図19は、実施の形態9に係る画像検索処
理を示すフローチャートである。ユーザは、図13に示
した各画像指定欄に問合せ画像を複数指定すると共に、
指定した各問合せ画像毎に必要に応じて重要度を指定
し、さらにOR指定ボタン206を選択してOR条件に
よる画像検索処理を指定する(S901)。ユーザは、
図13に示したように問合せ画像A,BおよびCを指定
し、指定した各問合せ画像A,BおよびC毎に任意の重
要度を指定したものとする。
FIG. 19 is a flowchart showing an image search process according to the ninth embodiment. The user specifies a plurality of query images in each image specification column shown in FIG.
The importance is designated for each designated query image as required, and the OR designation button 206 is selected to designate an image search process based on the OR condition (S901). The user
As shown in FIG. 13, it is assumed that the inquiry images A, B, and C are designated, and arbitrary importance is designated for each of the designated inquiry images A, B, and C.

【0199】そして、ユーザが図13の検索ボタン20
1を指定すると、U/I部151は、問合せ画像A,B
およびCを特徴抽出エンジン152に入力し、特徴抽出
エンジン152は、各問合せ画像A,BおよびCから所
定の特徴量を抽出する処理を実行する(S902)。そ
の後、特徴抽出エンジン152は、抽出した各問合せ画
像の特徴量をマッチング・エンジン153に渡す(図4
の特徴空間にそれぞれマップする)。
Then, the user presses the search button 20 in FIG.
When 1 is specified, the U / I unit 151 makes the inquiry images A and B
And C are input to the feature extraction engine 152, and the feature extraction engine 152 executes a process of extracting a predetermined feature amount from each of the query images A, B, and C (S902). Thereafter, the feature extraction engine 152 passes the extracted feature amount of each query image to the matching engine 153 (FIG. 4).
Map to each feature space).

【0200】マッチング・エンジン153は、画像DB
108に登録されている検索対象の画像毎に、所定の特
徴量を用いて各問合せ画像A,BおよびCとの類似度を
求め、求めた各類似度に対して重要度に応じた重み付け
を行い、各問合せ画像A,BおよびCとの類似度の中か
ら最も高い類似性を示す類似度を選択して検索対象の画
像の総合類似度を求める処理を実行する(S903)。
The matching engine 153 has an image DB
For each of the images to be searched registered in 108, the similarity with each of the inquiry images A, B, and C is obtained using a predetermined feature amount, and the obtained similarities are weighted according to the importance. Then, a process of selecting the similarity having the highest similarity from among the similarities with the query images A, B, and C and calculating the overall similarity of the search target image is executed (S903).

【0201】このステップS903における処理を検索
対象の一つの画像を例にとって具体的に説明する。マッ
チング・エンジン153は、検索対象の画像と問合せ画
像Aについて、所定の特徴量を用いて類似度を求める。
すなわち、マッチング・エンジン153は、所定の特徴
量に基づいて図4に示した特徴量空間中にプロットされ
た検索対象の画像と問合せ画像Aとの距離を例えばユー
クリッド距離などのベクトルの距離定義式を用いて求め
る。続いて、マッチング・エンジン153は、求めた距
離に対し、検索ウインドウ200eで指定された問合せ
画像Aの重要度に応じて重み付けを行う。マッチング・
エンジン153は、同様に、検索対象の画像と問合せ画
像Bとの距離を求め、求めた距離に対して問合せ画像B
の重要度に応じた重み付けを行うと共に、検索対象の画
像と問合せ画像Cとの距離を求め、求めた距離に対して
問合せ画像Cの重要度に応じた重み付けを行う。
The processing in step S903 will be specifically described with reference to one image to be searched. The matching engine 153 obtains a similarity between the search target image and the query image A using a predetermined feature amount.
That is, the matching engine 153 calculates the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. 4 based on the predetermined feature amount by using a distance definition expression of a vector such as a Euclidean distance. Is determined using Subsequently, the matching engine 153 weights the obtained distance in accordance with the importance of the query image A specified in the search window 200e. matching·
The engine 153 similarly calculates the distance between the image to be searched and the query image B, and calculates the query image B
, The distance between the image to be searched and the inquiry image C is obtained, and the obtained distance is weighted according to the importance of the inquiry image C.

【0202】その後、マッチング・エンジン153は、
検索対象の画像と各問合せ画像A,BおよびCとの距離
の中から最も短い距離を選択して総合類似度とする。こ
こで、問合せ画像の数をM、k番目の問合せ画像を
k、検索対象の画像をIi、画像間の距離式をD()、
k番目の画像の重要度をwkとすると、検索対象の各画
像毎の総合類似度Siは以下のように表わされる。
Thereafter, the matching engine 153
The shortest distance is selected from the distance between the image to be searched and each of the inquiry images A, B, and C, and is set as the overall similarity. Here, the number of query images is M, the k-th query image is Q k , the search target image is I i , the distance formula between images is D (),
Assuming that the importance of the k-th image is w k , the overall similarity S i for each image to be searched is expressed as follows.

【0203】[0203]

【数9】 (Equation 9)

【0204】マッチング・エンジン153は、このよう
にして検索対象の画像毎に総合類似度を求め、検索対象
の画像毎の総合類似度をU/I部151に出力する。
The matching engine 153 obtains the overall similarity for each image to be searched in this way, and outputs the overall similarity for each image to be searched to the U / I unit 151.

【0205】続いて、U/I部151は、マッチング・
エンジン153によって検索対象の画像毎に求められた
総合類似度を参照し、例えば総合類似度の高い順に検索
対象の画像を図13の画像表示欄202に表示する(S
904)。ここでは総合類似度として検索対象の画像と
問合せ画像A,BおよびCのいずれか一つとの特徴量間
の距離を用いているため、実際には、総合類似度の値の
小さい順に検索対象の画像が画像表示欄202に表示さ
れることになる。すなわち、総合類似度は0以上の値を
持ち、総合類似度が0のときはいずれか一つの問合せ画
像の特徴量および検索対象の画像の特徴量が等しいとい
うことを意味する。
Subsequently, U / I section 151 performs matching
The engine 153 refers to the overall similarity obtained for each image to be searched, and displays, for example, images to be searched in the image display field 202 of FIG. 13 in descending order of the overall similarity (S
904). Here, since the distance between the feature amounts of the image to be searched and any one of the query images A, B, and C is used as the overall similarity, actually, the search target is sorted in ascending order of the value of the overall similarity. The image will be displayed in the image display column 202. That is, the overall similarity has a value of 0 or more, and when the overall similarity is 0, it means that the feature amount of any one of the inquiry images and the feature amount of the image to be searched are equal.

【0206】なお、画像表示欄202に表示された検索
結果の画像を参照した結果、絞込み検索を行いたい場合
には、画像表示欄202に表示された画像を問合せ画像
として指定して同様の検索処理を行うこともできる。
When a narrowing search is desired as a result of referring to the image of the search result displayed in the image display field 202, the image displayed in the image display field 202 is designated as a query image and a similar search is performed. Processing can also be performed.

【0207】このように、実施の形態9に係る画像検索
装置によれば、求めた類似度に対し、問合せ画像の種類
に応じて任意の重み付けを行うことができるように、各
問合せ画像毎に重要度を指定することが可能であり、検
索対象の画像毎に、各問合せ画像との類似度を求め、求
めた各問合せ画像との類似度に対し、指定された重要度
に応じた重み付けを行うことにより、ユーザの意図を検
索条件として正確に表現できるため、ユーザの意図を正
確に装置に伝えることが可能となると共に、重要度は類
似度に対する重み付けとして反映されるため、ユーザの
意図が反映された検索結果の画像を得ることが可能とな
る。
As described above, according to the image search apparatus of the ninth embodiment, the obtained similarity can be arbitrarily weighted in accordance with the type of the query image, so that It is possible to specify the degree of importance. For each image to be searched, the degree of similarity to each query image is obtained, and the similarity to each obtained query image is weighted according to the specified degree of importance. By doing so, since the user's intention can be accurately expressed as a search condition, it is possible to accurately convey the user's intention to the device, and the importance is reflected as a weight for the similarity, so that the user's intention is reflected. It is possible to obtain an image of the reflected search result.

【0208】なお、実施の形態9の説明において、問合
せ画像として3枚の画像を用いたが、問合せ画像の枚数
は3枚に限定されるものではない。また、特徴量の種類
を特に示さなかったが、色,構造およびテクスチャ等、
いかなる種類の特徴量であっても単独でまたは複数組み
合わせて用いることができる。
In the description of the ninth embodiment, three images are used as inquiry images, but the number of inquiry images is not limited to three. In addition, although the types of the feature amounts are not specifically shown, the colors, structures, textures, etc.
Any type of feature can be used alone or in combination.

【0209】〔実施の形態10〕実施の形態10に係る
画像検索装置は、実施の形態8の画像検索装置におい
て、検索に対するユーザの意図をさらに正確に表現でき
るようにしたものである。実施の形態10に係る画像検
索装置による画像検索処理は、実施の形態6で説明に用
いた図15の検索ウインドウ200fにおいて、AND
指定ボタン205ではなく、OR指定ボタン206が指
定された場合に実行される。
[Embodiment 10] An image retrieval apparatus according to Embodiment 10 is different from the image retrieval apparatus of Embodiment 8 in that a user's intention for retrieval can be expressed more accurately. The image search processing by the image search device according to the tenth embodiment is performed in the search window 200f of FIG.
This is executed when the OR designation button 206 is designated instead of the designation button 205.

【0210】図20は、実施の形態10に係る画像検索
処理を示すフローチャートである。ユーザは、図15に
示した各画像指定欄に問合せ画像を複数指定すると共
に、指定した各問合せ画像に特徴量の種類毎の重要度を
指定し、さらにOR指定ボタン206を選択してOR条
件による画像検索処理を指定する(S1001)。ユー
ザは、図15に示したように問合せ画像A,BおよびC
を指定し、各種類の特徴量毎の重要度を各問合せ画像
A,BおよびC毎に指定したものとする。
FIG. 20 is a flowchart showing an image retrieval process according to the tenth embodiment. The user specifies a plurality of query images in each image specification column shown in FIG. 15, specifies the importance of each feature type in each specified query image, and further selects the OR specification button 206 to select the OR condition. Image search processing is designated (S1001). The user selects the inquiry images A, B and C as shown in FIG.
, And the importance for each type of feature is specified for each of the query images A, B, and C.

【0211】そして、ユーザが図15の検索ボタン20
1を指定すると、U/I部151は、問合せ画像A,B
およびCを特徴抽出エンジン152に入力し、特徴抽出
エンジン152は、各問合せ画像A,BおよびCから
色,構造およびテクスチャの3種類の特徴量を抽出する
処理を実行する(S1002)。その後、特徴抽出エン
ジン152は、3種類の特徴量毎に抽出した各問合せ画
像の特徴量をマッチング・エンジン153に渡す(図4
の特徴空間にそれぞれマップする)。
Then, when the user presses the search button 20 in FIG.
When 1 is specified, the U / I unit 151 makes the inquiry images A and B
And C are input to the feature extraction engine 152, and the feature extraction engine 152 executes a process of extracting three types of feature amounts of color, structure, and texture from the query images A, B, and C (S1002). Thereafter, the feature extraction engine 152 passes the feature amount of each query image extracted for each of the three types of feature amounts to the matching engine 153 (FIG. 4).
Map to each feature space).

【0212】マッチング・エンジン153は、画像DB
108に登録されている検索対象の画像毎に、3種類の
特徴量を用いて各問合せ画像A,BおよびCとの類似度
を求め、求めた各類似度に対して重要度に応じた重み付
けを行い、各問合せ画像A,BおよびCとの類似度の中
から最も高い類似性を示す類似度を選択して検索対象の
画像の総合類似度を求める処理を実行する(S100
3)。
The matching engine 153 has an image DB
For each of the images to be searched registered in 108, the similarity to each of the query images A, B, and C is obtained using three types of feature amounts, and the obtained similarities are weighted according to the importance. Is performed to select the similarity having the highest similarity from among the similarities with the query images A, B, and C, and execute the process of obtaining the overall similarity of the image to be searched (S100).
3).

【0213】このステップS1003における処理を検
索対象の一つの画像を例にとって具体的に説明する。マ
ッチング・エンジン153は、検索対象の画像と問合せ
画像Aについて、色の特徴量を用いて類似度を求める。
すなわち、マッチング・エンジン153は、色の特徴量
に基づいて図4に示した特徴量空間中にプロットされた
検索対象の画像と問合せ画像Aとの距離を例えばユーク
リッド距離などのベクトルの距離定義式を用いて求め
る。続いて、マッチング・エンジン153は、求めた距
離に対し、検索ウインドウ200fにおいて問合せ画像
Aに対して指定された色の特徴量の重要度に応じて重み
付けを行う。さらに、マッチング・エンジン153は、
検索対象の画像と問合せ画像Aについて、構造の特徴量
およびテクスチャの特徴量を用いた距離をそれぞれ求
め、求めた各距離に対し、検索ウインドウ200fで問
合せ画像Aに対して指定された構造の特徴量の重要度お
よびテクスチャの特徴量の重要度に応じて重み付けを行
う。
[0213] The processing in step S1003 will be specifically described using one image to be searched as an example. The matching engine 153 obtains the similarity between the image to be searched and the query image A using the color feature amount.
That is, the matching engine 153 calculates the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. Is determined using Subsequently, the matching engine 153 weights the obtained distance in accordance with the importance of the feature amount of the color specified for the query image A in the search window 200f. Further, the matching engine 153
For the image to be searched and the query image A, the distances using the feature amount of the structure and the feature amount of the texture are obtained, and for each obtained distance, the feature of the structure specified for the query image A in the search window 200f. Weighting is performed according to the importance of the quantity and the importance of the feature quantity of the texture.

【0214】マッチング・エンジン153は、同様に、
検索対象の画像と問合せ画像Bとの距離を3種類の特徴
量毎に求め、求めた各距離に対し、問合せ画像Bに対し
て指定された各特徴量毎の重要度に応じた重み付けを行
う。また、検索対象の画像と問合せ画像Cとの距離を3
種類の特徴量毎に求め、求めた各距離に対し、問合せ画
像Cに対して指定された各特徴量毎の重要度に応じた重
み付けを行う。
[0214] Similarly, the matching engine 153
The distance between the image to be searched and the query image B is obtained for each of the three types of feature values, and the obtained distances are weighted according to the importance of each of the feature values specified for the query image B. . In addition, the distance between the search target image and the query image C is set to 3
For each type of feature amount, weighting is performed on each of the obtained distances in accordance with the importance of each feature amount specified for the inquiry image C.

【0215】その後、マッチング・エンジン153は、
3種類の特徴量毎に求めた検索対象の画像と各問合せ画
像A,BおよびCとの距離の中から最も短い距離を選択
して総合類似度とする。ここで、特徴量の数をN、問合
せ画像の数をM、k番目の問合せ画像をQk、検索対象
の画像をIi、特徴量jの画像間の距離式をDj()、k
番目の画像の特徴量jの重要度をwjkとすると、検索対
象の各画像毎の総合類似度Siは以下のように表わされ
る。
Thereafter, the matching engine 153
The shortest distance is selected from the distances between the search target image obtained for each of the three types of feature amounts and each of the query images A, B, and C, and the total similarity is determined. Here, the number of feature amounts is N, the number of query images is M, the k-th query image is Q k , the image to be searched is I i , and the distance formula between images of the feature value j is D j (), k
Assuming that the importance of the feature amount j of the second image is w jk , the overall similarity S i for each image to be searched is represented as follows.

【0216】[0216]

【数10】 (Equation 10)

【0217】マッチング・エンジン153は、このよう
にして検索対象の画像毎に総合類似度を求め、検索対象
の画像毎の総合類似度をU/I部151に出力する。
The matching engine 153 obtains the total similarity for each image to be searched in this way, and outputs the total similarity for each image to be searched to the U / I unit 151.

【0218】続いて、U/I部151は、マッチング・
エンジン153によって検索対象の画像毎に求められた
総合類似度を参照し、例えば総合類似度の高い順に検索
対象の画像を図15の画像表示欄202に表示する(S
1004)。ここでは総合類似度として検索対象の画像
と問合せ画像A,BおよびCのいずれか一つとの特徴量
間の距離を用いているため、実際には、総合類似度の値
の小さい順に検索対象の画像が画像表示欄202に表示
されることになる。すなわち、総合類似度は0以上の値
を持ち、総合類似度が0のときはいずれか一つの問合せ
画像の特徴量および検索対象の画像の特徴量が等しいと
いうことを意味する。
Subsequently, U / I section 151 performs matching
The engine 153 refers to the overall similarity obtained for each image to be searched, and displays, for example, images to be searched in the image display column 202 of FIG. 15 in descending order of the overall similarity (S
1004). Here, since the distance between the feature amounts of the image to be searched and any one of the query images A, B, and C is used as the overall similarity, actually, the search target is sorted in ascending order of the value of the overall similarity. The image will be displayed in the image display column 202. That is, the overall similarity has a value of 0 or more, and when the overall similarity is 0, it means that the feature amount of any one of the inquiry images and the feature amount of the image to be searched are equal.

【0219】なお、画像表示欄202に表示された検索
結果の画像を参照した結果、絞込み検索を行いたい場合
には、画像表示欄202に表示された画像を問合せ画像
として指定して同様の検索処理を行うこともできる。
[0219] When the user wants to perform a narrowing-down search as a result of referring to the image of the search result displayed in the image display field 202, the user specifies the image displayed in the image display field 202 as a query image and performs a similar search. Processing can also be performed.

【0220】このように、実施の形態10に係る画像検
索装置によれば、複数種類の特徴量を用いて問合せ画像
および検索対象の画像の類似度を求める場合に、求めた
類似度に対し、問合せ画像および特徴量の種類に応じて
任意の重み付けを行うことができるように、各種類の特
徴量毎の重要度を各問合せ画像毎に指定することが可能
であり、検索対象の画像それぞれについて、各種類の特
徴量毎に各問合せ画像との類似度を求め、各種類の特徴
量毎に求めた各問合せ画像との類似度に対し、指定され
た重要度に応じた重み付けを行うことにより、ユーザの
意図を検索条件として正確に表現できるため、ユーザの
意図を正確に装置に伝えることが可能となると共に、重
要度は類似度に対する重み付けとして反映されるため、
ユーザの意図が反映された検索結果の画像を得ることが
可能となる。
As described above, according to the image search apparatus of the tenth embodiment, when the similarity between the query image and the image to be searched is obtained using a plurality of types of feature amounts, It is possible to specify the importance of each type of feature amount for each query image so that any weight can be given according to the type of the query image and feature amount. By calculating the degree of similarity to each query image for each type of feature amount, and by weighting the similarity to each query image obtained for each type of feature amount in accordance with the specified importance, Since the user's intention can be accurately expressed as a search condition, the user's intention can be accurately conveyed to the device, and the importance is reflected as a weight for the similarity.
It is possible to obtain an image of the search result reflecting the intention of the user.

【0221】なお、実施の形態10の説明において、問
合せ画像として3枚の画像を用いたが、問合せ画像の枚
数は3枚に限定されるものではない。また、特徴量の種
類は、色,構造およびテクスチャの3種類に限定される
ものではなく、いかなる種類の特徴量の組み合わせであ
っても良い。
In the description of the tenth embodiment, three images are used as inquiry images, but the number of inquiry images is not limited to three. Further, the types of the feature amounts are not limited to the three types of color, structure, and texture, and may be any combination of the feature amounts.

【0222】〔実施の形態11〕実施の形態11に係る
画像検索装置は、実施の形態8の画像検索装置におい
て、検索に対するユーザの意図を装置側が汲み取ること
ができるようにしたものである。実施の形態11に係る
画像検索装置による画像検索処理は、実施の形態8(実
施の形態4)で説明に用いた図11の検索ウインドウ2
00dにおいて、AND指定ボタン205ではなく、O
R指定ボタン206が指定された場合に実行される。
[Embodiment 11] The image retrieval apparatus according to the eleventh embodiment is the same as the image retrieval apparatus according to the embodiment 8, except that the user can sample the intention of the user for the retrieval. The image search processing performed by the image search device according to the eleventh embodiment corresponds to the search window 2 shown in FIG. 11 used in the description of the eighth embodiment (the fourth embodiment).
00d, not the AND designation button 205
This is executed when the R designation button 206 is designated.

【0223】図21は、実施の形態11に係る画像検索
処理を示すフローチャートである。ユーザは、図11に
示した各画像指定欄に問合せ画像を複数指定すると共
に、OR指定ボタン206を選択してOR条件による画
像検索処理を指定する(S1101)。ユーザは、図1
1に示したように問合せ画像A,BおよびCを指定した
ものとする。
FIG. 21 is a flowchart showing an image retrieval process according to the eleventh embodiment. The user designates a plurality of query images in each image designation column shown in FIG. 11, and designates an image search process based on an OR condition by selecting an OR designation button 206 (S1101). The user sees FIG.
It is assumed that the inquiry images A, B, and C are designated as shown in FIG.

【0224】その後、ユーザが図11の検索ボタン20
1を指定すると、U/I部151は、問合せ画像A,B
およびCを特徴抽出エンジン152に入力し、特徴抽出
エンジン152は、各問合せ画像A,BおよびCから
色,構造およびテクスチャの3種類の特徴量を抽出する
処理を実行する(S1102)。
Thereafter, the user operates the search button 20 shown in FIG.
When 1 is specified, the U / I unit 151 makes the inquiry images A and B
And C are input to the feature extraction engine 152, and the feature extraction engine 152 executes a process of extracting three types of feature amounts of color, structure, and texture from each of the query images A, B, and C (S1102).

【0225】続いて、特徴抽出エンジン152は、抽出
した3種類の特徴量毎に、各問合せ画像A,BおよびC
同士の距離(類似度)を求め、求めた各特徴量毎の距離
に基づいて各問合せ画像A,BおよびC間における特徴
量毎の重要度を決定する(S1103)。
Subsequently, the feature extraction engine 152 sets each of the query images A, B and C for each of the three extracted feature amounts.
The distance (similarity) between them is determined, and the importance of each of the query images A, B, and C for each of the feature amounts is determined based on the obtained distance of each of the feature amounts (S1103).

【0226】具体的に、特徴抽出エンジン152は、3
種類の特徴量毎に、ユーザが指定した複数の問合せ画像
同士の特徴間距離を求める。各特徴量毎に求めた距離の
分散が大きい場合にはその特徴量についてはユーザは関
知していないことを意味し、分散が小さい場合にはユー
ザはその特徴量を重視していると判断できる。したがっ
て、分散が大きい特徴量の場合には重要度を小さくし、
分散が小さい場合には重要度を大きくするように設定す
る。例えば、各特徴量の重要度は、実施の形態7で示し
た数7を用いて決定することができる。
Specifically, the feature extraction engine 152
The feature-to-feature distance between a plurality of query images specified by the user is obtained for each type of feature amount. If the variance of the distance obtained for each feature amount is large, it means that the user is not aware of the feature amount, and if the variance is small, it can be determined that the user values the feature amount. . Therefore, for features with large variance, the importance is reduced,
When the variance is small, the importance is set to be large. For example, the importance of each feature can be determined using Equation 7 shown in the seventh embodiment.

【0227】その後、特徴抽出エンジン152は、3種
類の特徴量毎に抽出した各問合せ画像の特徴量および対
応する重要度をマッチング・エンジン153に渡す。
Thereafter, the feature extraction engine 152 passes the feature amount of each query image extracted for each of the three types of feature amounts and the corresponding importance to the matching engine 153.

【0228】マッチング・エンジン153は、画像DB
108に登録されている検索対象の画像毎に、3種類の
特徴量を用いて各問合せ画像A,BおよびCとの類似度
を求め、求めた各類似度に対して重要度に応じた重み付
けを行い、各問合せ画像A,BおよびCとの類似度の中
から最も高い類似性を示す類似度を選択して検索対象の
画像の総合類似度を求める処理を実行する(S110
4)。
The matching engine 153 has an image DB
For each of the images to be searched registered in 108, the similarity to each of the query images A, B, and C is obtained using three types of feature amounts, and the obtained similarities are weighted according to the importance. Is performed to select the similarity having the highest similarity from the similarities with the query images A, B, and C, and to perform the process of obtaining the overall similarity of the search target image (S110).
4).

【0229】このステップS1104における処理を検
索対象の一つの画像を例にとって具体的に説明する。マ
ッチング・エンジン153は、検索対象の画像と問合せ
画像Aについて、色の特徴量を用いて類似度を求める。
すなわち、マッチング・エンジン153は、色の特徴量
に基づいて図4に示した特徴量空間中にプロットされた
検索対象の画像と問合せ画像Aとの距離を例えばユーク
リッド距離などのベクトルの距離定義式を用いて求め
る。続いて、マッチング・エンジン153は、求めた距
離に対し、特徴抽出エンジン152で色の特徴量につい
て決定した重要度に応じて重み付けを行う。さらに、マ
ッチング・エンジン153は、検索対象の画像と問合せ
画像Aについて、構造の特徴量およびテクスチャの特徴
量を用いた距離をそれぞれ求め、求めた各距離に対し、
特徴抽出エンジン152で決定した構造の特徴量の重要
度およびテクスチャの特徴量の重要度に応じて重み付け
を行う。
The processing in step S1104 will be specifically described with reference to one image to be searched. The matching engine 153 obtains the similarity between the image to be searched and the query image A using the color feature amount.
That is, the matching engine 153 calculates the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. Is determined using Subsequently, the matching engine 153 weights the obtained distance according to the importance determined for the color feature by the feature extraction engine 152. Further, the matching engine 153 obtains distances using the feature amount of the structure and the feature amount of the texture for the image to be searched and the query image A, and for each of the obtained distances,
Weighting is performed according to the importance of the feature of the structure and the importance of the feature of the texture determined by the feature extraction engine 152.

【0230】マッチング・エンジン153は、同様に、
検索対象の画像と問合せ画像Bとの距離を3種類の特徴
量毎に求め、求めた各距離に対し、各種類の特徴量毎に
決定された重要度に応じた重み付けを行う。また、検索
対象の画像と問合せ画像Cとの距離を3種類の特徴量毎
に求め、求めた各距離に対し、各種類の特徴量毎に決定
された重要度に応じた重み付けを行う。
The matching engine 153 also performs
The distance between the image to be searched and the query image B is obtained for each of the three types of feature amounts, and the obtained distances are weighted in accordance with the degrees of importance determined for each of the types of feature amounts. Further, the distance between the image to be searched and the query image C is obtained for each of the three types of feature amounts, and the obtained distances are weighted in accordance with the degrees of importance determined for each of the types of feature amounts.

【0231】その後、マッチング・エンジン153は、
3種類の特徴量毎に求めた検索対象の画像と各問合せ画
像A,BおよびCとの距離の中から最も短い距離を選択
して総合類似度とする。マッチング・エンジン153
は、このようにして検索対象の画像毎に総合類似度を求
め、検索対象の画像毎の総合類似度をU/I部151に
出力する。
Then, the matching engine 153
The shortest distance is selected from the distances between the search target image obtained for each of the three types of feature amounts and each of the inquiry images A, B, and C, and is set as the overall similarity. Matching engine 153
Calculates the total similarity for each image to be searched in this way, and outputs the total similarity for each image to be searched to the U / I unit 151.

【0232】U/I部151は、マッチング・エンジン
153によって検索対象の画像毎の総合類似度を参照
し、例えば総合類似度の高い順に検索対象の画像を図1
1の画像表示欄202に表示する(S1105)。ここ
では総合類似度として検索対象の画像と問合せ画像A,
BおよびCのいずれか一つとの特徴量間の距離を用いて
いるため、実際には、総合類似度の値の小さい順に検索
対象の画像が画像表示欄202に表示されることにな
る。すなわち、総合類似度は0以上の値を持ち、総合類
似度が0のときはいずれか一つの問合せ画像の特徴量お
よび検索対象の画像の特徴量が等しいということを意味
する。
The U / I unit 151 refers to the overall similarity of each image to be searched by the matching engine 153 and, for example, sorts the images to be searched in descending order of the overall similarity in FIG.
The image is displayed in the first image display column 202 (S1105). Here, the image to be searched and the query image A,
Since the distance between the feature amounts with either one of B and C is used, the images to be searched are actually displayed in the image display column 202 in ascending order of the value of the overall similarity. That is, the overall similarity has a value of 0 or more, and when the overall similarity is 0, it means that the feature amount of any one of the inquiry images and the feature amount of the image to be searched are equal.

【0233】なお、画像表示欄202に表示された検索
結果の画像を参照した結果、絞込み検索を行いたい場合
には、画像表示欄202に表示された画像を問合せ画像
として指定して同様の検索処理を行うこともできる。
If the user wants to perform a narrowing-down search as a result of referring to the image of the search result displayed in the image display field 202, the user designates the image displayed in the image display field 202 as a query image and performs a similar search. Processing can also be performed.

【0234】このように、実施の形態11に係る画像検
索装置によれば、複数種類の特徴量を用いて問合せ画像
および検索対象の画像の類似度を求める場合に、求めた
類似度に対し、特徴量の種類に応じて任意の重み付けを
行うことができるように、各種類の特徴量毎に各問合せ
画像間の類似度を求め、求めた各種類の特徴量毎の類似
度に基づいて各問合せ画像間における各種類の特徴量毎
の重要度を決定し、検索対象の画像それぞれについて、
各種類の特徴量毎に各問合せ画像との類似度を求め、各
種類の特徴量毎に求めた各問合せ画像との類似度に対
し、決定した各種類の特徴量毎の重要度に応じた重み付
けを行うことにより、装置側でユーザが指定した問合せ
画像間における各種類の特徴量の重要度を判断し、判断
した重要度を画像間の類似度に反映させるため、ユーザ
の意図に合った検索結果を返すことが可能となる。した
がって、ユーザが望む通りの検索処理を実現することが
でき、ユーザが望む検索結果を得ることができる。
As described above, according to the image search apparatus of the eleventh embodiment, when the similarity between the query image and the image to be searched is obtained using a plurality of types of feature amounts, The similarity between the query images is obtained for each type of feature amount so that arbitrary weighting can be performed according to the type of the feature amount, and each similarity is determined based on the obtained similarity degree for each type of feature amount. The importance of each type of feature amount between query images is determined, and for each image to be searched,
The degree of similarity with each query image is obtained for each type of feature, and the similarity with each query image obtained for each type of feature is determined according to the importance of each type of feature determined. By performing weighting, the apparatus determines the importance of each type of feature amount between query images specified by the user, and reflects the determined importance on the similarity between the images. It is possible to return search results. Therefore, search processing desired by the user can be realized, and search results desired by the user can be obtained.

【0235】なお、実施の形態11の説明において、問
合せ画像として3枚の画像を用いたが、問合せ画像の枚
数は3枚に限定されるものではない。また、特徴量の種
類は、色,構造およびテクスチャの3種類に限定される
ものではなく、いかなる種類の特徴量の組み合わせであ
っても良い。
In the description of the eleventh embodiment, three images are used as inquiry images, but the number of inquiry images is not limited to three. Further, the types of the feature amounts are not limited to the three types of color, structure, and texture, and may be any combination of the feature amounts.

【0236】〔実施の形態12〕実施の形態12に係る
画像検索装置は、前述した実施の形態1〜11と異なる
視点で画像検索を行うことを可能にするものである。な
お、実施の形態12に係る画像検索装置において、実施
の形態1で既に説明した構成については同一の符号を使
用して詳細な説明を省略し、画像検索処理についても共
通する点については適宜説明を省略する。
[Twelfth Embodiment] An image retrieval apparatus according to the twelfth embodiment enables an image retrieval from a different viewpoint from the first to eleventh embodiments. In the image search device according to the twelfth embodiment, the same components as those described in the first embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted. Is omitted.

【0237】実施の形態12に係る画像検索装置は、検
索時に使用する特徴量の粗さのレベル(視点の細かさ)
をユーザが指定できるようにし、ユーザによって指定さ
れた粗さのレベルに対応する特徴量を利用して、問合せ
画像および検索対象の画像の類似度を求めるというもの
である。ここで、特徴量の粗さとは、画像から抽出され
た特徴量が、抽出対象の画像の所定の特徴をどの程度忠
実に表現しているかの度合いを示すものであると定義す
ることにする。そこで、以下では、 1.特徴量抽出処理 2.画像検索処理 の順で実施の形態12に係る画像検索装置によって実行
される処理について説明する。
The image retrieval device according to the twelfth embodiment provides a feature level roughness (fineness of viewpoint) used at the time of retrieval.
Can be specified by the user, and the similarity between the query image and the image to be searched is obtained using the feature amount corresponding to the roughness level specified by the user. Here, the roughness of the feature is defined as a degree indicating how faithfully the feature extracted from the image expresses a predetermined feature of the image to be extracted. Therefore, in the following, 1. Feature extraction processing Processing executed by the image search device according to Embodiment 12 will be described in the order of image search processing.

【0238】1.特徴量抽出処理 ここでは、検索対象の画像については粗さの異なる複数
の特徴量を予め抽出しておくことにし、問合せ画像のう
ち、特徴量が抽出されていない問合せ画像については検
索実行時に特徴量を抽出することにする。検索対象の画
像から特徴量を抽出するタイミングは、実施の形態1で
説明したように、検索対象の画像を画像DB108に登
録するときとする。そこで、図3を参照しつつ各画像か
ら特徴量を抽出する処理について説明する。
[0238] 1. Feature amount extraction processing Here, a plurality of feature amounts having different roughnesses are extracted in advance for the image to be searched. We will extract the quantity. As described in the first embodiment, the timing at which the feature amount is extracted from the image to be searched is when the image to be searched is registered in the image DB 108. Therefore, a process of extracting a feature amount from each image will be described with reference to FIG.

【0239】図2の特徴抽出エンジン152は、U/I
部151を介して登録対象となる画像を入力し(S1
1)、入力した画像から特徴量を抽出する処理を実行す
る(S12)。
The feature extraction engine 152 shown in FIG.
An image to be registered is input via the unit 151 (S1).
1) A process of extracting a feature amount from the input image is executed (S12).

【0240】実施の形態12においては、例えば、少な
くとも画像を何分割するかを表す分割数を特徴量の粗さ
のレベルとして段階的に定義した抽出基準に基づいて、
特徴抽出エンジン152が画像から粗さの異なる特徴量
を抽出できるようにしている。具体的に、抽出基準とし
て例えば以下のような特徴量の粗さのレベルが定義され
ており、特徴抽出エンジン152は、ステップS11で
入力した画像から同一の特徴(色,構造等)について異
なる粗さのレベルの特徴量を抽出する。なお、抽出され
る特徴量は粗さが異なるのみであって、特徴量の種類
(例えば、色,構造等)は同一である
In the twelfth embodiment, for example, based on an extraction criterion in which at least the number of divisions indicating the number of divisions of an image is defined in steps as the level of the roughness of the feature,
The feature extraction engine 152 can extract feature amounts having different roughness from the image. Specifically, for example, the following feature level roughness levels are defined as the extraction criterion, and the feature extraction engine 152 uses the image input in step S <b> 11 to obtain different roughness values for the same feature (color, structure, etc.). The feature level is extracted. Note that the extracted feature amounts differ only in roughness, and the types of the feature amounts (eg, color, structure, etc.) are the same.

【0241】・レベル1:図22(a)に示すように、
画像全体から特徴量1を抽出する。 ・レベル2:図22(b)に示すように、画像を4分割
して分割画像A〜Dを生成し、各分割画像A〜Dからそ
れぞれ特徴量A〜Dを抽出することにより、一つの画像
から特徴量A〜Dからなる特徴量2(特徴量群)を抽出
する。 ・レベル3:図22(c)に示すように、画像を8分割
して分割画像A〜Hを生成し、各分割画像A〜Hからそ
れぞれ特徴量A〜Hを抽出することにより、一つの画像
から特徴量A〜Hからなる特徴量3(特徴量群)を抽出
する。 ・レベル4:図22(d)に示すように、画像を16分
割して分割画像A〜Pを生成し、各分割画像A〜Pから
それぞれ特徴量A〜Pを抽出することにより、一つの画
像から特徴量A〜Pからなる特徴量4(特徴量群)を抽
出する。
Level 1: As shown in FIG.
The feature amount 1 is extracted from the entire image. Level 2: As shown in FIG. 22 (b), the image is divided into four parts to generate divided images A to D, and the feature amounts A to D are extracted from each of the divided images A to D, so that one A feature value 2 (feature value group) including feature values A to D is extracted from the image. Level 3: As shown in FIG. 22 (c), the image is divided into eight to generate divided images A to H, and feature amounts A to H are extracted from each of the divided images A to H, thereby forming one image. A feature amount 3 (feature amount group) including feature amounts A to H is extracted from the image. Level 4: As shown in FIG. 22D, the image is divided into 16 to generate divided images A to P, and by extracting the feature amounts A to P from each of the divided images A to P, one level is obtained. A feature amount 4 (feature amount group) including feature amounts A to P is extracted from the image.

【0242】ここで、画像の構造(エッジ)および色
(色ヒストグラム)を特徴量として抽出する処理を例に
とって、画像からレベル1〜4の特徴量を抽出する処理
を具体的に説明する。
Here, the process of extracting the feature values of levels 1 to 4 from the image will be specifically described by taking the process of extracting the structure (edge) and color (color histogram) of the image as the feature value as an example.

【0243】(1)構造 レベル1 例えばsobelのようなエッジ抽出フィルタを用い
て、ステップS11で入力した画像からエッジ情報を抽
出する。抽出したエッジ情報から、エッジの位置,エッ
ジの強度および方向を得ることができる。エッジの強度
については適当な閾値で2値化し、上下左右斜め方向の
エッジ成分のエッジ画像データを得る。一例として、図
23に示す画像から得た上下左右斜め方向のエッジ成分
のエッジ画像データを図24(a)〜図24(d)に示
す。
(1) Structure Level 1 Edge information is extracted from the image input in step S11 using an edge extraction filter such as sobel. From the extracted edge information, the position of the edge, the strength and direction of the edge can be obtained. The edge strength is binarized with an appropriate threshold value to obtain edge image data of edge components in up, down, left, and right directions. As an example, FIGS. 24A to 24D show edge image data of edge components in the up, down, left, and right directions obtained from the image shown in FIG.

【0244】図24(a)〜図24(d)のエッジ画像
データについて、エッジ部分を黒画素、その他を白画素
と仮定し、 ・画像全体に対する黒画素の割合 ・黒画素の重心 ・黒画素の分散 ・黒画素の連結矩形のサイズの平均 ・黒画素の連結矩形のサイズの分散 というようなエッジ情報を各エッジ画像データから抽出
し、これを画像全体の構造の特徴量1とする。
With respect to the edge image data of FIGS. 24A to 24D, it is assumed that the edge portion is a black pixel and the others are white pixels. Edge information such as the average of the sizes of the connected rectangles of the black pixels and the dispersion of the size of the connected rectangles of the black pixels is extracted from each edge image data, and this is set as the feature amount 1 of the structure of the entire image.

【0245】 レベル2 図24(a)〜図24(d)のエッジ画像データをそれ
ぞれ図22(b)に示すように分割画像A〜Dに分割し
(4分割)、各分割画像A〜Dからで説明したエッジ
情報を抽出して分割画像単位の構造の特徴量A〜Dを得
る。その結果、特徴量A〜Dからなる特徴量2を画像か
ら抽出することができる。
Level 2 The edge image data shown in FIGS. 24A to 24D are respectively divided into divided images A to D (four divisions) as shown in FIG. The edge information described in (1) to (4) is extracted to obtain feature amounts A to D of the structure in units of divided images. As a result, the feature amount 2 including the feature amounts A to D can be extracted from the image.

【0246】 レベル3および4 また、レベル3については図24(a)〜図24(d)
のエッジ画像データをそれぞれ図22(c)に示したよ
うに分割画像A〜Hに分割し(8分割)、レベル4につ
いては図22(d)に示したように分割画像A〜Pに分
割し(16分割)、レベル2の場合と同様の方法でそれ
ぞれ特徴量A〜Hからなる特徴量3および特徴量A〜P
からなる特徴量4を画像から抽出することができる。
Levels 3 and 4 Level 3 is shown in FIGS. 24 (a) to 24 (d).
Is divided into divided images A to H as shown in FIG. 22C (8 divisions), and the level 4 is divided into divided images A to P as shown in FIG. 22D. (16 divisions), and in the same manner as in the case of level 2, the feature amounts 3 and A to P
Can be extracted from the image.

【0247】(2)色 つぎに、画像の色(色ヒストグラム)を特徴量として抽
出する処理を説明する。
(2) Color Next, the process of extracting the color (color histogram) of an image as a feature will be described.

【0248】 レベル1 適当な色空間(例えばLab,Luv,HSV等)を選
択して複数の領域に分割し、ステップS11で入力した
画像の各ピクセルが色空間中のどの領域に対応するかを
調べ、領域毎のピクセル数を画像全体のピクセル数で正
規化することによって図22(a)に示した画像全体を
対象とした特徴量1を抽出する。
Level 1 An appropriate color space (for example, Lab, Luv, HSV, etc.) is selected and divided into a plurality of regions, and it is determined to which region in the color space each pixel of the image input in step S11 corresponds. By investigating and normalizing the number of pixels for each region with the number of pixels of the entire image, the feature amount 1 for the entire image shown in FIG. 22A is extracted.

【0249】 レベル2 適当な色空間(例えばLab,Luv,HSV等)を選
択して複数の領域に分割すると共に、ステップS11で
入力した画像を図22(b)に示したように分割画像A
〜Dに分割する(4分割)。そして、分割画像Aの各ピ
クセルが色空間中のどの領域に対応するかを調べ、領域
毎のピクセル数を分割画像A全体のピクセル数で正規化
することによって特徴量Aを抽出することができる。他
の分割画像B〜Dについても同様な処理を行ってそれぞ
れ特徴量B〜Dを抽出し、特徴量A〜Dからなる特徴量
2をステップS11で入力した画像から抽出する。
Level 2 An appropriate color space (for example, Lab, Luv, HSV, etc.) is selected and divided into a plurality of regions, and the image input in step S11 is divided into divided images A as shown in FIG.
To D (four divisions). Then, a feature amount A can be extracted by checking which region in the color space each pixel of the divided image A corresponds to, and normalizing the number of pixels for each region with the number of pixels of the entire divided image A. . The same processing is performed on the other divided images B to D to extract the characteristic amounts B to D, respectively, and the characteristic amount 2 including the characteristic amounts A to D is extracted from the image input in step S11.

【0250】 レベル3およびレベル4 レベル3についてはステップS11で入力した画像を図
22(c)に示したように分割画像A〜Hに分割し(8
分割)、レベル4については図22(d)に示したよう
に分割画像A〜Pに分割し(16分割)、レベル2の場
合と同様の方法でそれぞれ特徴量A〜Hからなる特徴量
3および特徴量A〜Pからなる特徴量4を画像から抽出
する。
Level 3 and Level 4 For Level 3, the image input in step S11 is divided into divided images A to H as shown in FIG.
22), the level 4 is divided into divided images A to P (16 divisions) as shown in FIG. 22D, and the feature amount 3 including the feature amounts A to H in the same manner as in the case of level 2. Then, a feature amount 4 including feature amounts A to P is extracted from the image.

【0251】このように、分割数を変化させて同一の画
像から特徴量を抽出することにより、例えば、ある画像
は全体的には青であるが、詳細に見ると青と少しの赤が
混じっているといったような、視点の細かさに依存した
特徴量を抽出することができる。例えば、青を中心とす
る画像中のいずれの位置に赤が分散しているかという情
報を含む特徴量を抽出することができる。
As described above, by extracting the feature amount from the same image by changing the number of divisions, for example, a certain image is entirely blue, but when viewed in detail, blue and a little red are mixed. It is possible to extract a feature amount that depends on the fineness of the viewpoint such as For example, it is possible to extract a feature amount including information indicating where red is dispersed in an image centered on blue.

【0252】このようにして、ステップS11で入力し
た画像から各レベルの特徴量を抽出した後、図3のフロ
ーチャートに示すように、特徴抽出エンジン152は、
画像DB108に登録する元の画像に関連付けて、抽出
した特徴量を画像特徴DB109に登録する(S1
3)。
In this way, after extracting the feature amount of each level from the image input in step S11, as shown in the flowchart of FIG.
The extracted feature amount is registered in the image feature DB 109 in association with the original image registered in the image DB 108 (S1).
3).

【0253】なお、ここでは、画像の構造および色の特
徴を特徴量として抽出することを例にとって説明した
が、他の種類の特徴を特徴量として抽出することにして
も良い。また、例えば画像を4分割するといった場合で
あっても、図22(b)に示した分割方法以外にも様々
な方法が考えられる(例えば、画像を縦長または横長に
4分割する等)。したがって、分割方法は任意に設定す
ることが可能である。
Although the description has been given of the case where the features of the structure and color of the image are extracted as the feature amounts, other types of features may be extracted as the feature amounts. Further, for example, even when the image is divided into four parts, various methods other than the division method shown in FIG. 22B can be considered (for example, the image is divided into four parts vertically or horizontally). Therefore, the division method can be set arbitrarily.

【0254】2.画像検索処理 図25は、実施の形態12に係る画像検索装置で使用さ
れる検索ウインドウ200gの一例を示す説明図であ
る。検索ウインドウ200gは、画像指定欄A〜C,検
索ボタン201および画像表示欄202に加え、検索に
使用する特徴量の種類を指定する特徴指定欄209と、
特徴指定欄209で指定された種類の特徴量のうち、い
ずれのレベル(粗さ)の特徴量を用いるかを指定する粗
さレベル指定欄210と、を備えている。特徴指定欄2
09では、例えば構造の特徴量および色の特徴量のいず
れか一方または両方を指定することができ、粗さレベル
指定欄210では、例えばレベル1〜4の少なくとも一
つを指定することができるものとする。粗さレベル指定
欄210で指定可能なレベルは、前述した特徴量の抽出
基準の各レベルに対応している。
[0254] 2. Image Search Processing FIG. 25 is an explanatory diagram illustrating an example of a search window 200g used in the image search device according to Embodiment 12. The search window 200g includes, in addition to the image specification columns A to C, the search button 201, and the image display column 202, a feature specification column 209 for specifying the type of a feature amount used for the search.
There is provided a roughness level specification column 210 for specifying which level (roughness) of the types of characteristic amounts specified in the characteristic specification column 209 is to be used. Feature specification column 2
09, for example, one or both of the structural characteristic amount and the color characteristic amount can be designated, and the roughness level designation column 210 can designate, for example, at least one of levels 1-4. And The levels that can be specified in the roughness level specification column 210 correspond to the respective levels of the feature amount extraction criterion described above.

【0255】なお、特徴指定欄209において、いずれ
の特徴量も指定されなかった場合には、構造および色の
両方の特徴量を用いて検索処理が行われるものとし、粗
さレベル指定欄210においていずれのレベルも指定さ
れなかった場合には、全てのレベルの特徴量を用いて検
索処理が行われるものとする。また、使用可能な種類の
特徴量を全て指定できるようにするため、特徴指定欄2
09に「全て」というボタンを用意することにしても良
い。同様に、レベルを全て指定できるようにするため、
粗さレベル指定欄210に「全て」というボタンを用意
することにしても良い。
If no feature value is specified in the feature specification field 209, it is assumed that search processing is performed using both the structure and color feature quantities, and the roughness level specification field 210 is used. If no level is specified, it is assumed that search processing is performed using the feature amounts of all levels. Also, in order to be able to specify all usable types of feature amounts, a feature specification column 2
A button “all” may be prepared in 09. Similarly, to be able to specify all levels,
A button “all” may be provided in the roughness level designation field 210.

【0256】続いて、実施の形態12に係る画像検索処
理について説明する。なお、ここでは、検索ウインドウ
200gにおける検索条件の指定の仕方に応じて異なる
処理が行われることになることから、最初に図26のフ
ローチャートを参照しつつ画像検索処理の概略を説明し
た後、異なる検索条件毎に場合分けして個別に説明する
ことにする。
Next, an image search process according to the twelfth embodiment will be described. Here, since different processing is performed depending on how to specify the search condition in the search window 200g, the outline of the image search processing will be described first with reference to the flowchart of FIG. The description will be made separately for each search condition.

【0257】(1)画像検索処理の概略 まず、実施の形態12に係る画像検索処理の概略を説明
する。ユーザは、図25に示した画像指定欄に問合せ画
像を少なくとも一つ指定すると共に、特徴指定欄209
および粗さレベル指定欄210において、検索時に使用
する特徴量の種類および使用する特徴量の粗さのレベル
を指定する(S1201)。
(1) Outline of Image Retrieval Processing First, the outline of the image retrieval processing according to the twelfth embodiment will be described. The user designates at least one query image in the image designation field shown in FIG.
Then, in the roughness level designation field 210, the type of feature quantity used at the time of retrieval and the roughness level of the feature quantity used are designated (S1201).

【0258】続いて、ユーザが図25の検索ボタン20
1を指定すると、U/I部151は、問合せ画像,特徴
量の種類および粗さのレベルの種類を特徴抽出エンジン
152に入力し、特徴抽出エンジン152は、指定され
た特徴量の種類および粗さのレベルに応じて問合せ画像
から特徴量を抽出する(S1202)。ただし、ユーザ
によって指定された問合せ画像から既に特徴量が抽出さ
れている場合には、このステップS1202の処理をス
キップすることができる。また、検索対象の画像につい
て特徴量を抽出していない場合は、この時点で特徴量を
抽出することにしても良い。その後、特徴抽出エンジン
152は、抽出した問合せ画像の特徴量をマッチング・
エンジン153に渡す(図4の特徴空間にそれぞれマッ
プする)。
Subsequently, when the user presses the search button 20 in FIG.
When 1 is specified, the U / I unit 151 inputs the query image, the type of feature amount and the type of roughness level to the feature extraction engine 152, and the feature extraction engine 152 The feature amount is extracted from the query image according to the level of the degree (S1202). However, if the feature amount has already been extracted from the query image specified by the user, the process of step S1202 can be skipped. If no feature has been extracted from the image to be searched, the feature may be extracted at this point. After that, the feature extraction engine 152 matches and extracts the feature amount of the extracted query image.
It is passed to the engine 153 (mapped to the feature space in FIG. 4).

【0259】マッチング・エンジン153は、画像DB
108に登録されている検索対象の画像毎に、検索ウイ
ンドウ200gにおいて指定されたレベルの特徴量を用
いて問合せ画像との類似度を求める処理を実行する(S
1203)。すなわち、マッチング・エンジン153
は、該当するレベルの特徴量に基づいて図4に示した特
徴量空間中にプロットされた検索対象の画像と問合せ画
像との距離を各特徴毎に定義された距離定義式を用いて
求める。
The matching engine 153 has an image DB
For each of the search target images registered in the search window 108, a process of calculating the similarity with the query image using the feature amount of the level specified in the search window 200g is executed (S
1203). That is, the matching engine 153
Calculates the distance between the image to be searched and the query image plotted in the feature amount space shown in FIG. 4 based on the feature amount of the corresponding level using a distance definition formula defined for each feature.

【0260】特徴量Fは通常、ベクトルとしてF={f
1,f2,f3,・・・,fn}であらわされ、画像
a、bから抽出した特徴量をそれぞれFa、Fbとする
と、以下の数11で示す差分距離式D(Fa,Fb)が
一般に距離定義式として用いられる。
The feature value F is usually expressed as a vector F = {f
1, f2, f3,..., Fn}, and assuming that the feature amounts extracted from the images a and b are Fa and Fb, respectively, a difference distance formula D (Fa, Fb) represented by the following Expression 11 is generally obtained. Used as a distance definition formula.

【0261】[0261]

【数11】 [Equation 11]

【0262】「構造」、「色」の特徴量の場合にもこの
距離式が利用できるが、「構造」での「画像全体に対す
る黒画素の割合」をヒストグラムとして特徴量とした場
合には、画像中のエッジが十分にある場合には適切な類
似度を得ることが可能であるが、画像中のエッジが少な
い場合には適切な類似度を得られない。
This distance formula can be used in the case of the feature amounts of “structure” and “color”. If the “ratio of black pixels to the entire image” in “structure” is used as a feature amount as a histogram, An appropriate similarity can be obtained when there are enough edges in the image, but an appropriate similarity cannot be obtained when there are few edges in the image.

【0263】人間のエッジに対する類似感覚では、たと
えば画像中にエッジがない画像と少しでもある画像の場
合には大きな違いを感じるが、画像が十分にエッジを持
っている場合には、その量が多少異なっていてもその違
いには鈍感である。そこで、差分距離式よりも距離の精
度を高めるためにヒストグラムを全エッジ画素数で正規
化する(正規化距離式)ことによって、この問題を解決
することが可能である。
In the sense of similarity to a human edge, for example, an image having no edges in an image is slightly different from an image having some edges, but if the image has sufficient edges, the amount is small. Even if they are slightly different, they are insensitive. Therefore, this problem can be solved by normalizing the histogram with the number of all edge pixels (normalized distance formula) in order to increase the accuracy of the distance more than the difference distance formula.

【0264】つまり、ヒストグラムの要素は以下の式で
与えられる。 foi=fi/N なお、foiは正規化されたヒストグラムの要素であ
る。また、全画素数Nは、数12の式で与えられる。
That is, the elements of the histogram are given by the following equations. foi = fi / N where foi is a normalized histogram element. Further, the total number of pixels N is given by Expression 12.

【0265】[0265]

【数12】 (Equation 12)

【0266】なお、ベクトル要素がすべて0でS=0の
時は正規化はおこなわない。つまり、正規化距離式は数
13の式で与えられる。
When the vector elements are all 0 and S = 0, normalization is not performed. That is, the normalized distance formula is given by the formula (13).

【0267】[0267]

【数13】 (Equation 13)

【0268】画像中のエッジが少ない場合には上記式が
有効であるが、多い場合には従来のヒストグラムの方が
適切な類似度を得ることができる。そこで、エッジが多
い場合には従来式に近い計算式になり、少ない場合には
上記式に近い計算式になるような数14の式を考案し
た。
When the number of edges in an image is small, the above formula is effective. However, when the number of edges is large, the conventional histogram can obtain a more appropriate similarity. Therefore, the following formula 14 has been devised so that when the number of edges is large, the calculation formula is close to the conventional formula, and when the number of edges is small, the calculation formula is close to the above formula.

【0269】[0269]

【数14】 [Equation 14]

【0270】なお、正規化のための値を全画素数により
以下の数15のように変動させる。
It should be noted that the value for normalization is varied as in the following Expression 15 according to the total number of pixels.

【0271】[0271]

【数15】 kは定数であり、対象とする画像集合によって適宜指定
する。
(Equation 15) k is a constant, and is appropriately specified depending on the target image set.

【0272】以上のような計算を検索時に行うだけでな
く、予め特徴量の抽出時に正規化や半正規化で得られる
ベクトルに変換してデータベースに登録することで、検
索時には単純な差分式を用いて距離を求めることがで
き、高速な検索をおこなうことも可能である。
In addition to performing the above calculations at the time of retrieval, by converting the vectors into vectors obtained by normalization or semi-normalization at the time of extracting feature amounts and registering them in the database, a simple difference expression can be obtained at the time of retrieval. Can be used to determine the distance, and a high-speed search can be performed.

【0273】上記半正規化式により画像中のエッジの多
い少ないに関わらず適切な類似度を算出することができ
るが、検索時に計算する場合には式が複雑な分、時間が
かかるという問題がある。そこで、エッジ数および要求
される検索速度に従い従来の差分距離式と正規化距離式
を選択し算出する。
Although the above-described semi-normalization formula can calculate an appropriate similarity irrespective of whether there are many or few edges in an image, when calculating at the time of retrieval, there is a problem that it takes time because of the complexity of the formula. is there. Therefore, the conventional difference distance formula and the normalized distance formula are selected and calculated according to the number of edges and the required search speed.

【0274】たとえば、以下のように場合分けが可能で
ある。 1)両方の画像のエッジ割合がある閾値A以上の場合 差分距離式を選択 2)どちらか一方が閾値Aより下の場合 a)高速性が要求される場合 差分距離式を選択 b)高速性が要求されない場合 正規化距離式を利用
For example, the following cases can be classified. 1) When the edge ratio of both images is equal to or more than a certain threshold A, select the difference distance formula. 2) When either one is below the threshold A. a) When high speed is required. Select the difference distance formula. B) High speed. When is not required Use the normalized distance formula

【0275】ただし、この方式では場合分けにより、異
なる式を選択するので結果として得られる距離空間は距
離の公理を満たさない。距離の公理を満たす必要がある
場合には半正規化式が望ましい。
However, in this method, a different equation is selected depending on the case, and the resulting metric space does not satisfy the axiom of distance. When it is necessary to satisfy the distance axiom, a semi-normalized expression is preferable.

【0276】続いて、U/I部151は、マッチング・
エンジン153によって検索対象の画像毎に求められた
問合せ画像との類似度を参照し、例えば類似度の高い順
に検索対象の画像を図25の画像表示欄202に表示す
る(S1204)。ただし、ここでは類似度として検索
対象の画像と問合せ画像との特徴量間の距離を用いてい
るため、実際には、類似度の値の小さい順に検索対象の
画像が画像表示欄202に表示されることになる。すな
わち、類似度は0以上の値を持ち、類似度が0のときは
各問合せ画像の特徴量および検索対象の画像の特徴量が
等しいということを意味する。
Subsequently, U / I section 151 performs matching
The engine 153 refers to the degree of similarity to the query image obtained for each image to be searched, and displays, for example, images to be searched in the image display column 202 of FIG. 25 in descending order of similarity (S1204). However, since the distance between the feature amounts of the image to be searched and the query image is used as the similarity here, the images to be searched are actually displayed in the image display column 202 in ascending order of the value of the similarity. Will be. That is, the similarity has a value of 0 or more, and when the similarity is 0, it means that the feature amount of each query image and the feature amount of the image to be searched are equal.

【0277】(2)画像検索処理の具体例 つぎに、前述した図26のフローチャートに対応させつ
つ、 一つの問合せ画像,特徴量として「色」および粗さ
レベルとして「レベル1」が指定された場合 一つの問合せ画像,特徴量として「色」および粗さ
レベルとして「レベル2」が指定された場合 一つの問合せ画像,特徴量として「色」および粗さ
レベルとして二つ以上のレベルが指定された場合 複数種類の特徴量が指定された場合 複数の問合せ画像が指定された場合 の順で具体的に実施の形態12に係る画像検索処理を説
明する。
(2) Specific Example of Image Retrieval Processing Next, while associating with the flowchart of FIG. 26 described above, one query image, “color” as a feature amount, and “level 1” as a roughness level were designated. When one query image, "color" as feature value and "level 2" are specified as roughness level One query image, "color" as feature value and two or more levels as roughness level are specified The case where a plurality of types of feature amounts are specified The case where a plurality of query images are specified The image search process according to the twelfth embodiment will be specifically described in this order.

【0278】 一つの問合せ画像,特徴量として
「色」および粗さレベルとして「レベル1」が指定され
た場合 図25に示した検索ウインドウ200gにおいて、ユー
ザが、一つの問合せ画像,特徴量として「色」および粗
さレベルとして「レベル1」を指定したものとする(S
1201)。
When “Color” is specified as one query image and the feature amount and “Level 1” is specified as the roughness level In the search window 200g shown in FIG. It is assumed that “level 1” is designated as the “color” and the roughness level (S
1201).

【0279】特徴抽出エンジン152は、図22(a)
に示すように、問合せ画像全体を対象として、特徴量
「色」について「レベル1」に該当する特徴量である
「特徴量1」を抽出する(S1202)。
The feature extraction engine 152 operates as shown in FIG.
As shown in (1), for the entire query image, “feature amount 1”, which is a feature amount corresponding to “level 1”, for the feature amount “color” is extracted (S1202).

【0280】そして、マッチング・エンジン153は、
特徴抽出エンジン152において抽出された問合せ画像
および検索対象の画像の特徴量1に基づいて、検索対象
の画像毎に問合せ画像との類似度を求める(S120
3)。具体的には、該当する特徴量1に基づいて図4に
示した特徴量空間中にプロットされた検索対象の画像と
問合せ画像との距離を各特徴毎に定義された距離定義式
を用いて求める。
Then, the matching engine 153
Based on the query image extracted by the feature extraction engine 152 and the feature amount 1 of the search target image, the similarity to the query image is obtained for each search target image (S120).
3). Specifically, the distance between the image to be searched and the query image plotted in the feature amount space shown in FIG. 4 based on the corresponding feature amount 1 is determined using a distance definition formula defined for each feature. Ask.

【0281】その後、U/I部151は、マッチング・
エンジン153によって検索対象の画像毎に求められた
問合せ画像との類似度を参照し、例えば類似度の高い
(値の小さい)順に検索対象の画像を図25の画像表示
欄202に表示する(S1204)。
After that, the U / I section 151
The engine 153 refers to the similarity with the query image obtained for each image to be searched, and displays the images to be searched in the image display column 202 of FIG. 25 in the order of, for example, the highest similarity (smallest value) (S1204). ).

【0282】このように、レベル1のような粗さの特徴
量を選択して画像検索処理を実行することができるよう
にすることにより、例えば、色の特徴量を用いて検索を
場合にあっては、全体的に青い画像を検索するというよ
うな検索処理を実行することが可能となる。
As described above, by making it possible to execute the image search process by selecting a feature amount having a roughness such as level 1, for example, a search can be performed using a color feature amount. Thus, it is possible to execute a search process such as searching for a blue image as a whole.

【0283】なお、詳細な説明については省略するが、
特徴量として「構造」や他の種類の特徴量が指定された
場合であっても、同様な処理で検索処理を行うことがで
きる。
Although a detailed description will be omitted,
Even when “structure” or another type of feature is designated as the feature, search processing can be performed by the same processing.

【0284】 一つの問合せ画像,特徴量として
「色」および粗さレベルとして「レベル2」が指定され
た場合 図25に示した検索ウインドウ200gにおいて、ユー
ザが、一つの問合せ画像,特徴量として「色」および粗
さレベルとして「レベル2」を指定したものとする(S
1201)。
When “Color” is specified as one query image and feature level and “Level 2” is specified as the roughness level In the search window 200g shown in FIG. 25, the user inputs one query image and feature level as “ It is assumed that “level 2” is designated as the “color” and the roughness level (S
1201).

【0285】特徴抽出エンジン152は、図22(b)
に示すように、問合せ画像を分割画像A〜Dに分割し、
各分割画像A〜Dからそれぞれ「色」の特徴量A〜Dを
抽出する(S1202)。その結果、特徴量「色」につ
いて「レベル2」に該当する特徴量であって、特徴量A
〜Dからなる「特徴量2」が問合せ画像から抽出される
ことになる。
The feature extraction engine 152 operates as shown in FIG.
, The query image is divided into divided images A to D,
The feature values A to D of “color” are extracted from each of the divided images A to D (S1202). As a result, the feature amount “color” is a feature amount corresponding to “level 2”, and the feature amount A
The "feature amount 2" consisting of .about.D is extracted from the query image.

【0286】そして、マッチング・エンジン153は、
特徴抽出エンジン152において抽出された問合せ画像
および検索対象の画像の特徴量2に基づいて、検索対象
の画像毎に問合せ画像との類似度を求める(S120
3)。具体的には、検索対象の画像および問合せ画像の
分割画像A同士,分割画像B同士,分割画像C同士およ
び分割画像D同士の類似度を求める。より詳細には、特
徴抽出エンジン152において抽出された特徴量2に基
づいて、図4に示した特徴量空間中にプロットされた分
割画像A同士,分割画像B同士,分割画像C同士および
分割画像D同士の距離を各特徴毎に定義された距離定義
式を用いて求める。ここでは分割画像A〜Dのそれぞれ
について類似度を求めることになるため、4つの類似度
を得ることになる。
Then, the matching engine 153
Based on the query image extracted by the feature extraction engine 152 and the feature amount 2 of the search target image, the similarity to the query image is obtained for each search target image (S120).
3). Specifically, the similarity between the divided images A, the divided images B, the divided images C, and the divided images D of the image to be searched and the query image is obtained. More specifically, based on the feature amount 2 extracted by the feature extraction engine 152, the divided images A, B, C, and C plotted in the feature space shown in FIG. The distance between D is determined using a distance definition formula defined for each feature. Here, the similarity is obtained for each of the divided images A to D, so that four similarities are obtained.

【0287】続いて、マッチング・エンジン153は、
求めた4つの類似度を用いて、検索対象の画像および問
合せ画像の類似度を決定する。類似度の決定方法として
は、例えば以下のような方法が考えられる。 −1 4つの類似度の二乗和により検索対象の画像お
よび問合せ画像の類似度を決定する。 −2 4つの類似度を合計することにより、検索対象
の画像および問合せ画像の類似度を決定する(AND検
索参照)。 −3 4つの類似度の中から最も高い(値の小さい)
類似度を選択することにより、検索対象の画像および問
合せ画像の類似度を決定する(OR検索参照)。 なお、−1〜−3のいずれの方法を利用するかを検
索ウインドウ200gで指定することができるようにし
ても良い。
Subsequently, the matching engine 153
The similarity between the search target image and the query image is determined using the obtained four similarities. As a method of determining the similarity, for example, the following method can be considered. -1 The similarity between the image to be searched and the query image is determined by the sum of squares of the four similarities. -2 Determine the similarity between the image to be searched and the query image by summing the four similarities (see AND search). -3 Highest (smallest value) among the four similarities
By selecting the similarity, the similarity between the image to be searched and the query image is determined (see OR search). It should be noted that any one of the methods -1 to -3 may be designated in the search window 200g.

【0288】その後、U/I部151は、マッチング・
エンジン153によって検索対象の画像毎に求められた
問合せ画像との類似度を参照し、例えば類似度の高い
(値の小さい)順に検索対象の画像を図25の画像表示
欄202に表示する(S1204)。
After that, the U / I section 151 sets the matching
The engine 153 refers to the similarity with the query image obtained for each image to be searched, and displays the images to be searched in the image display column 202 of FIG. 25 in the order of, for example, the highest similarity (smallest value) (S1204). ).

【0289】このように、レベル2のような粗さの特徴
量を選択して画像検索処理を実行することができるよう
にすることにより、例えば、色の特徴量を用いて検索を
行う場合にあっては、全体的に青いがある部分には赤が
混じっている画像を検索するというような検索処理を実
行することが可能となる。すなわち、どの色が画像のど
の位置に存在するかを踏まえた検索処理が可能となり、
画像全体を対象として抽出した特徴量(レベル1)を用
いた検索では行うことができない細かい視点で検索処理
を行うことができる。
As described above, by making it possible to execute the image search processing by selecting a roughness feature amount such as level 2, for example, when performing a search using a color feature amount Therefore, it is possible to execute a search process such as searching for an image in which red is mixed in a part where blue is present as a whole. In other words, search processing can be performed based on which color exists at which position in the image,
The search process can be performed from a fine viewpoint that cannot be performed by a search using the feature amount (level 1) extracted for the entire image.

【0290】なお、詳細な説明については省略するが、
特徴量として「構造」や他の種類の特徴量が指定された
場合にあっても、同様な処理で検索処理を行うことがで
きる。また、粗さレベルのレベル3および4が指定され
た場合であっても、前述したレベル2の処理と同様な処
理で検索処理を行うことが可能であるため、ここでは説
明を省略する。
Although detailed description is omitted,
Even when “structure” or another type of feature is specified as the feature, the search process can be performed by the same process. Further, even when the roughness levels 3 and 4 are specified, the search processing can be performed by the same processing as the processing of the level 2 described above, and thus the description is omitted here.

【0291】 一つの問合せ画像,特徴量として
「色」および粗さレベルとして二つ以上のレベルが指定
された場合 ここでは、粗さレベルとして二つ以上のレベルが指定さ
れた場合の一例として、粗さレベルが全て指定された場
合に基づいて画像検索処理を説明する。そこで、図25
に示した検索ウインドウ200gにおいて、ユーザが、
一つの問合せ画像,特徴量として「色」および全ての粗
さレベルを指定したものとする(S1201)。前述し
たように、粗さレベル指定欄210においていずれのレ
ベルも指定しない場合または全てのレベルを指定した場
合に、粗さレベルを全て指定したことになる。
[0291] When one query image, "color" is specified as the feature amount, and two or more levels are specified as the roughness level. Here, as an example of the case where two or more levels are specified as the roughness level, The image search processing will be described based on the case where all the roughness levels are specified. Therefore, FIG.
In the search window 200g shown in FIG.
It is assumed that one query image, “color” and all roughness levels are designated as the feature amounts (S1201). As described above, when no level is specified in the roughness level specification field 210 or when all levels are specified, all roughness levels are specified.

【0292】特徴抽出エンジン152は、図22(a)
〜図22(d)に示すように、検索ウインドウ200g
において指定された問合せ画像から、レベル1〜4に応
じて特徴量1〜4を抽出する(S1202)。なお、レ
ベル1に対応する特徴量1はの項で説明した方法で、
レベル2〜4に対応する特徴量2〜4はの項で説明し
た方法で抽出することができる。
The feature extraction engine 152 operates as shown in FIG.
~ As shown in FIG.
The feature values 1 to 4 are extracted from the query image specified in the above according to the levels 1 to 4 (S1202). In addition, the feature amount 1 corresponding to the level 1 is obtained by the method described in the section.
The feature quantities 2 to 4 corresponding to the levels 2 to 4 can be extracted by the method described in the section.

【0293】そして、マッチング・エンジン153は、
特徴抽出エンジン152において抽出された問合せ画像
および検索対象の画像の特徴量1〜4を用いて、検索対
象の画像毎に問合せ画像との類似度を求める(S120
3)。ここでは、各特徴量(レベル)毎に検索対象の画
像および問合せ画像の類似度を求めることになり、その
結果、検索対象の画像毎に問合せ画像に対する4つの類
似度が得られることになる。なお、特徴量1(レベル
1)を用いて検索対象の画像および問合せ画像の類似度
を求める処理は、の項で説明した処理と同様である。
また、特徴量2〜4(レベル2〜4)を用いて検索対象
の画像および問合せ画像の類似度を求める処理は、それ
ぞれの項で説明した処理と同様である。
Then, the matching engine 153
Using the query image extracted by the feature extraction engine 152 and the feature amounts 1 to 4 of the search target image, the similarity to the query image is obtained for each search target image (S120).
3). Here, the similarity between the search target image and the query image is determined for each feature amount (level), and as a result, four similarities to the query image are obtained for each search target image. The process of calculating the similarity between the image to be searched and the query image using the feature amount 1 (level 1) is the same as the process described in the section.
The process of obtaining the similarity between the image to be searched and the query image using the feature amounts 2 to 4 (levels 2 to 4) is the same as the process described in each section.

【0294】続いて、マッチング・エンジン153は、
検索対象の画像毎に各レベルに応じて求めた問合せ画像
との4つの類似度を用いて、問合せ画像との最終的な類
似度を決定する。最終的な類似度の決定方法としては、
例えば以下のような方法が考えられる。 −1 4つの類似度の二乗和により、問合せ画像との
最終的な類似度を決定する(AND検索の変形)。 −2 4つの類似度を合計することにより、問合せ画
像との最終的な類似度を決定する(AND検索を参
照)。 −3 4つの類似度の中から最も高い(値の小さい)
類似度を選択することにより、問合せ画像との最終的な
類似度を決定する(OR検索を参照)。
Subsequently, the matching engine 153
The final similarity with the query image is determined using the four similarities with the query image obtained for each level for each image to be searched. To determine the final similarity,
For example, the following method can be considered. -1 The final similarity with the query image is determined by the sum of squares of the four similarities (a modification of the AND search). -2 Determine the final similarity with the query image by summing the four similarities (see AND search). -3 Highest (smallest value) among the four similarities
By selecting the similarity, the final similarity with the query image is determined (see OR search).

【0295】−1および−2の方法で問合せ画像と
の最終的な類似度を決定することにする場合にあって
は、例えば、全体的に青く、かつ、ある部分に赤が混じ
っている画像を検索するというような検索処理(AND
検索)を実行することが可能となる。すなわち、全ての
(二つ以上の)粗さのレベルの特徴量を用いるため、特
定のレベルの特徴量のみを用いて検索を行う場合に比べ
て、高い精度で希望する画像を検索することができる。
また、−3の方法で問合せ画像との最終的な類似度を
決定することにする場合にあっては、例えば、全体的に
青い画像および全体的に青くある部分に赤が混じってい
る画像のいずれかを検索するというような検索処理(O
R検索)を実行することが可能となる。
When the final similarity to the query image is to be determined by the methods -1 and -2, for example, an image which is entirely blue and a certain portion is mixed with red Search processing (AND search)
Search). That is, since all (two or more) features of the roughness level are used, it is possible to search for a desired image with higher accuracy than in a case where a search is performed using only the features of a specific level. it can.
In the case where the final similarity with the query image is determined by the method of -3, for example, an image having an overall blue image and an image having an overall blue portion mixed with red are used. Search processing such as searching for one (O
R search).

【0296】なお、−1〜−3のいずれの方法を利
用するかを検索ウインドウ200gで指定することがで
きるようにしても良い。
It should be noted that any one of the methods -1 to -3 may be specified in the search window 200g.

【0297】その後、U/I部151は、マッチング・
エンジン153によって検索対象の画像毎に求められた
問合せ画像との類似度を参照し、例えば類似度の高い
(値の小さい)順に検索対象の画像を図25の画像表示
欄202に表示する(S1204)。
After that, the U / I unit 151
The engine 153 refers to the similarity with the query image obtained for each image to be searched, and displays the images to be searched in the image display column 202 of FIG. 25 in the order of, for example, the highest similarity (smallest value) (S1204). ).

【0298】このように、粗さの異なる特徴量を複数選
択して画像検索処理を実行することができるようにする
ことにより、特定の粗さの特徴量を一つ用いる場合に比
べて、検索に対する視点が異なる様々な方法で検索処理
を実行することが可能となる。なお、詳細な説明につい
ては省略するが、特徴量として「構造」や他の種類の特
徴量が指定された場合にあっても、同様な処理で検索処
理を行うことができる。
As described above, by making it possible to select a plurality of feature amounts having different roughnesses and execute the image search processing, the retrieval amount can be reduced as compared with the case where one feature amount having a specific roughness is used. It is possible to execute the search processing by various methods having different viewpoints for. Although detailed description is omitted, even when “structure” or another type of feature is designated as the feature, the search process can be performed by the same process.

【0299】 複数種類の特徴量が指定された場合 特徴指定欄209において複数種類の特徴量が指定され
た場合、特徴抽出エンジン152は、検索ウインドウ2
00gで指定された種類およびレベルの特徴量を問合せ
画像からそれぞれ抽出する(S1202)。例えば、構
造および色の特徴量が指定された場合、特徴抽出エンジ
ン152は、問合せ画像から、構造の特徴量について該
当する粗さレベルの特徴量を抽出すると共に、色の特徴
量について該当するレベルの特徴量を抽出する(図22
参照)。
When a plurality of types of feature values are specified When a plurality of types of feature values are specified in the feature specification field 209, the feature extraction engine 152 sets the search window 2
The feature amount of the type and level designated by 00g is extracted from the query image (S1202). For example, when a structure and a color feature amount are specified, the feature extraction engine 152 extracts a feature amount of a corresponding roughness level for the structure feature amount from the query image, and extracts a corresponding level of the color feature amount. 22 is extracted (FIG. 22).
reference).

【0300】そして、マッチング・エンジン153は、
検索対象の画像毎に、問合せ画像との類似度を特徴量の
種類毎に求め、求めた特徴量の種類毎の類似度を用い
て、問合せ画像との最終的な類似度を決定する(S12
03)。
Then, the matching engine 153
For each image to be searched, the similarity to the query image is obtained for each type of feature quantity, and the final similarity to the query image is determined using the obtained similarity for each type of feature quantity (S12).
03).

【0301】最終的な類似度の決定方法としては、例え
ば以下のような方法が考えられる。 −1 特徴量の種類毎に求めた類似度の二乗和によ
り、問合せ画像との最終的な類似度を決定する(AND
検索の変形)。 −2 特徴量の種類毎に求めた類似度を合計すること
により、問合せ画像との最終的な類似度を決定する(A
ND検索を参照)。この方法を用いる場合は、複数種類
の特徴量に応じたAND検索を実行することが可能とな
る。 −3 特徴量の種類毎に求めた類似度の中から最も高
い(値の小さい)類似度を選択することにより、問合せ
画像との最終的な類似度を決定する(OR検索を参
照)。この方法を用いる場合は、複数種類の特徴量に応
じたOR検索を実行することが可能となる。 なお、−1〜−3のいずれの方法を利用するかを検
索ウインドウ200gで指定することができるようにし
ても良い。
As a final similarity determination method, for example, the following method can be considered. -1 The final similarity with the query image is determined by the sum of squares of the similarity obtained for each type of feature amount (AND
Search variant). -2 The final similarity with the query image is determined by summing the similarities obtained for each type of feature amount (A
See ND search). When this method is used, it is possible to execute an AND search corresponding to a plurality of types of feature amounts. -3 Determine the final similarity with the query image by selecting the highest (smallest) similarity from among the similarities obtained for each type of feature amount (see OR search). When this method is used, it is possible to execute an OR search according to a plurality of types of feature amounts. It should be noted that any one of the methods -1 to -3 may be designated in the search window 200g.

【0302】また、例えば、問合せ画像が一つ、構造お
よび色の特徴量ならびに粗さレベル1および2が指定さ
れた場合には、検索対象の画像毎に、レベル1の構造の
特徴量を用いて得た類似度,レベル2の構造の特徴量を
用いて得た類似度,レベル1の色の特徴量を用いて得た
類似度およびレベル2の色の特徴量を用いて得た類似度
が得られることになる。このような場合、得られた全て
の類似度を合計して問合せ画像との最終的な類似度を決
定することにしても良いし(−2(−1)の方法を
参照)、得られた類似度の中から最も高い(値の小さ
い)類似度を選択して問合せ画像との最終的な類似度を
決定することにしても良い(−3の方法を参照)。ま
た、これに代えて、特徴量の種類毎に各レベルの類似度
を合計し、または各レベルの類似度の中から最も高い
(値の小さい)類似度を選択して、特徴量の種類毎の問
合せ画像に対する類似度を求めた後、前述した−1〜
−3のいずれかの方法を用いて問合せ画像との最終的
な類似度を決定することにしても良い。
For example, when one query image is specified, and the feature amounts of the structure and color and the roughness levels 1 and 2 are specified, the feature amount of the level 1 structure is used for each image to be searched. Similarity obtained using the level 2 structure feature, similarity obtained using the level 1 color feature, and similarity obtained using the level 2 color feature Is obtained. In such a case, all the obtained similarities may be summed to determine the final similarity with the query image (see the method of -2 (-1)), or the obtained similarity may be obtained. The highest (smallest) similarity may be selected from among the similarities to determine the final similarity with the query image (see method -3). Alternatively, the similarity of each level is totaled for each type of feature amount, or the highest (smallest) similarity is selected from the similarities of each level, and the similarity is selected for each type of feature amount. After calculating the degree of similarity to the query image,
-3 may be used to determine the final similarity to the query image.

【0303】その後、U/I部151は、マッチング・
エンジン153によって検索対象の画像毎に求められた
総合類似度を参照し、例えば総合類似度の高い(値の小
さい)順に検索対象の画像を図25の画像表示欄202
に表示する(S1204)。
After that, the U / I section 151
The engine 153 refers to the overall similarity obtained for each image to be searched, and sorts the images to be searched in the order of, for example, the highest overall similarity (smallest value) in the image display column 202 of FIG.
(S1204).

【0304】 複数の問合せ画像が指定された場合 複数の問合せ画像が指定された場合、特徴抽出エンジン
152は、検索ウインドウ200gで指定された種類お
よびレベルの特徴量を各問合せ画像からそれぞれ抽出す
る(S1202)。そして、マッチング・エンジン15
3は、〜のいずれかの項で説明したようにして検索
対象の画像毎に各問合せ画像との類似度を求めた後、検
索対象の画像の総合類似度を求める(S1203)。
When a plurality of query images are specified When a plurality of query images are specified, the feature extraction engine 152 extracts the feature amount of the type and level specified in the search window 200g from each query image ( S1202). And the matching engine 15
3 obtains the similarity with each query image for each image to be searched as described in any of the above items, and then obtains the overall similarity of the images to be searched (S1203).

【0305】総合類似度を求める方法としては、例えば
以下のような方法がある。 −1 各検索対象の画像毎に、各問合せ画像との類似
度の二乗和を総合類似度とする(AND検索の変形)。 −2 各検索対象の画像毎に、各問合せ画像との類似
度を合計して総合類似度とする(AND検索を参照)。
この方法を用いる場合は、AND検索を実行することが
可能となる。 −3 各検索対象の画像毎に、各問合せ画像との類似
度の中から最も高い(値の小さい)類似度を選択して総
合類似度とする(OR検索を参照)。この方法を用いる
場合は、OR検索を実行することが可能となる。
As a method for obtaining the overall similarity, for example, there is the following method. -1 For each image to be searched, the sum of squares of the similarity with each query image is set as the overall similarity (a modification of the AND search). -2 For each image to be searched, the similarity with each query image is summed to obtain a total similarity (see AND search).
When this method is used, an AND search can be executed. -3 For each image to be searched, the highest (smallest) similarity is selected from among the similarities to each query image, and is set as the overall similarity (see OR search). When this method is used, an OR search can be performed.

【0306】なお、−1〜−3のいずれの方法を利
用するかを検索ウインドウ200gで指定することがで
きるようにしても良い。場合
It should be noted that any one of the methods -1 to -3 may be specified in the search window 200g. If

【0307】その後、U/I部151は、マッチング・
エンジン153によって検索対象の画像毎に求められた
総合類似度を参照し、例えば総合類似度の高い(値の小
さい)順に検索対象の画像を図25の画像表示欄202
に表示する(S1204)。
After that, the U / I section 151
The engine 153 refers to the overall similarity obtained for each image to be searched, and sorts the images to be searched in the order of, for example, the highest overall similarity (smallest value) in the image display column 202 of FIG.
(S1204).

【0308】以上説明したように、実施の形態12に係
る画像検索装置によれば、問合せ画像を少なくとも一つ
指定すると共に、画像から抽出する特徴量の粗さのレベ
ルを粗から細に向かって段階的に定義した抽出基準に基
づいて、検索に利用する特徴量の粗さのレベルを少なく
とも一つ指定し、抽出基準に基づいて、問合せ画像およ
び複数の検索対象の画像から少なくとも指定された粗さ
のレベルに該当する特徴量を所定のタイミングで抽出
し、検索対象の画像毎に、指定された粗さのレベルに応
じた特徴量を用いて問合せ画像との類似度を求め、検索
対象の画像毎に求めた類似度に基づいて検索結果を出力
するため、検索精度の異なる複数種類の検索処理を実行
することが可能となる。すなわち、ユーザが検索に使用
する特徴量の粗さのレベルを少なくとも一つ指定するこ
とができるため、検索に対するユーザの視点の細かさを
検索条件として表現でき、ユーザの意図を検索条件とし
て正確に表現することができる。したがって、ユーザが
望む通りの画像検索処理を行うことが可能となる。
As described above, according to the image retrieval apparatus of the twelfth embodiment, at least one query image is specified, and the level of the feature amount extracted from the image is changed from coarse to fine. Based on the extraction criteria defined stepwise, at least one level of roughness of the feature amount used for the search is specified, and based on the extraction criteria, at least the coarse level specified from the query image and the plurality of search target images. The feature amount corresponding to the search level is extracted at a predetermined timing, and for each image to be searched, the similarity with the query image is obtained using the feature amount corresponding to the specified roughness level, Since the search result is output based on the similarity obtained for each image, it is possible to execute a plurality of types of search processes having different search accuracy. That is, since the user can specify at least one level of roughness of the feature amount used for the search, the fineness of the user's viewpoint for the search can be expressed as the search condition, and the user's intention can be accurately determined as the search condition. Can be expressed. Therefore, it is possible to perform an image search process as desired by the user.

【0309】なお、画像表示欄202に表示された検索
結果の画像を参照した結果、絞込み検索を行いたい場合
には、画像表示欄202に表示された画像を問合せ画像
として指定して同様の検索処理を行うこともできる。ま
た、特徴量の種類を構造および色としたが、構造のみ、
または色のみを用いることにしても良いし、他の種類の
特徴量を用いることにしても良い。また、複数の問合せ
画像や複数種類の特徴量を指定する場合に、他の実施の
形態で説明したように重要度を指定することができるよ
うにしても良い。
[0309] If it is desired to perform a refined search as a result of referring to the image of the search result displayed in the image display field 202, the image displayed in the image display field 202 is designated as a query image and a similar search is performed. Processing can also be performed. In addition, although the types of the feature amounts are the structure and the color, only the structure is
Alternatively, only the color may be used, or another type of feature amount may be used. When a plurality of inquiry images and a plurality of types of feature amounts are specified, the importance may be specified as described in the other embodiments.

【0310】また、実施の形態12においては、画像を
何分割するかによって特徴量の粗さを定義することにし
たが、画像のみではなく、画像中に存在するオブジェク
トも特徴量の抽出対象とし、オブジェクトを何分割する
かによってオブジェクト単位の特徴量の粗さを定義する
ことにしても良い。画像中に存在するオブジェクトも特
徴量の抽出対象とする場合の検索処理は、前述した検索
処理と同様であるため、ここでは詳細な説明を省略す
る。
Further, in the twelfth embodiment, the roughness of the feature is defined by the number of divisions of the image. However, not only the image but also the objects existing in the image are to be extracted. Alternatively, the roughness of the feature amount for each object may be defined according to the number of divisions of the object. The search processing in the case where the object existing in the image is also targeted for extracting the feature amount is the same as the above-described search processing, and thus the detailed description is omitted here.

【0311】さらに、前述したように、画像を分割して
得た分割画像毎に特徴量を抽出することを利用して、以
下のような画像検索処理を実現することも可能である。
ここでは、説明の便宜上、画像を4分割する場合を例と
して、実施の形態12に係る画像検索装置の変形例を説
明する。
Further, as described above, it is also possible to realize the following image retrieval processing by utilizing the feature amount extracted for each divided image obtained by dividing the image.
Here, for convenience of explanation, a modified example of the image search device according to Embodiment 12 will be described with an example in which an image is divided into four parts.

【0312】(変形例1)前述した実施の形態12にお
いては、問合せ画像および検索対象の画像の分割画像を
それぞれ一対一対応で比較して類似度を求めることによ
り、問合せ画像および検索対象の画像の類似度を求めて
いた。これに対し、変形例1は、例えば、図27に示す
ように問合せ画像の分割画像の一つを指定し、指定した
分割画像と検索対象の画像の各分割画像との類似度を求
めることにより、検索対象の画像の中から、問合せ画像
の特定の分割画像と類似する分割画像を有する画像を探
し出すことができるようにするものである。
(Modification 1) In the twelfth embodiment, the query image and the search target image are obtained by comparing the divided images of the query image and the search target image on a one-to-one basis to determine the similarity. Was determined for the similarity. On the other hand, in the first modification, for example, as shown in FIG. 27, one of the divided images of the query image is designated, and the similarity between the designated divided image and each divided image of the search target image is obtained. And an image having a divided image similar to a specific divided image of an inquiry image can be searched for from images to be searched.

【0313】(変形例2)変形例2は、例えば、図28
に示すように、問合せ画像全体と検索対象の画像の各分
割画像との類似度を求めることにより、検索対象の画像
の中から、問合せ画像を含む画像を探し出すことができ
るようにするものである。
(Modification 2) Modification 2 is, for example, shown in FIG.
As shown in (1), by obtaining the similarity between the entire query image and each divided image of the search target image, an image including the query image can be searched for from the search target images. .

【0314】詳細な説明については省略するが、このよ
うな変形例1および変形例2のような検索処理を可能と
することにより、様々な方法で画像の検索を行うことが
可能となる。
Although a detailed description will be omitted, by enabling such a search process as in Modification 1 and Modification 2, it is possible to search for an image by various methods.

【0315】〔実施の形態13〕実施の形態13に係る
画像検索装置は、検索対象の画像の中から、問合せ画像
を含む画像を探し出すことができるようにすることによ
り、前述した実施の形態1〜12と異なる視点で画像検
索を行うことを可能にするものである。なお、実施の形
態13に係る画像検索装置において、実施の形態1で既
に説明した構成については同一の符号を使用して詳細な
説明を省略し、画像検索処理についても共通する点につ
いては適宜説明を省略する。
[Thirteenth Embodiment] The image retrieval apparatus according to the thirteenth embodiment is capable of searching for an image including a query image from among images to be searched, thereby obtaining the first embodiment described above. This makes it possible to perform an image search from a viewpoint different from that of 〜12. In the image search device according to the thirteenth embodiment, the same components as those described in the first embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted. Is omitted.

【0316】具体的に、実施の形態13に係る画像検索
装置は、問合せ画像を少なくとも一つ指定し、検索対象
の画像毎に、検索対象の画像中の所定のサイズの領域と
問合せ画像との類似度を予め抽出した所定の特徴量を用
いて求める処理を検索対象の画像全体にわたって繰り返
し実行することにより、検索対象の画像の中から、問合
せ画像を含む画像を探し出すことができるようにするも
のである。
Specifically, the image search device according to the thirteenth embodiment specifies at least one query image, and determines, for each search target image, a region of a predetermined size in the search target image and the query image. By repeatedly executing processing for obtaining a similarity using a predetermined feature amount extracted in advance over the entire search target image, an image including the query image can be searched for from the search target images. It is.

【0317】実施の形態13に係る画像検索装置におい
て、検索対象の画像中の所定のサイズの領域と問合せ画
像との類似度を予め抽出した所定の特徴量を用いて求め
る処理については様々な手法を用いることが可能である
が、ここでは図29および図30に示すような手法を用
いることにする。例えば、図29に示すように、問合せ
画像を4分割して分割画像a〜dを生成し、各分割画像
から所定の種類の特徴量を抽出し、また、検索対象の画
像を16分割して分割画像A〜Pを生成し、各分割画像
から問合せ画像の場合と同様の種類の特徴量を抽出す
る。ただし、問合せ画像および検索対象の画像の分割数
を、それぞれ8および16に限定するものではなく、問
合せ画像の分割数<検索対象の画像の分割数という関係
にあれば良い。そして、各分割画像から抽出した特徴量
を用いて、図30(a)〜図30(i)に示すように、
問合せ画像と検索対象の画像の一部との類似度を順次求
める。図30は、それぞれ図29に示した検索対象の画
像を示し、検索対象の画像中の斜線部分は問合せ画像と
比較されている領域に該当する。なお、問合せ画像およ
び検索対象の画像の分割数を逆にすれば(例えば、問合
せ画像を16分割し、検索対象の画像を8分割する。す
なわち、問合せ画像の分割数>検索対象の画像の分割
数)、問合せ画像中に含まれている画像を検索すること
が可能となる。
In the image search apparatus according to the thirteenth embodiment, there are various methods for obtaining the similarity between a region of a predetermined size in an image to be searched and a query image using a predetermined feature amount extracted in advance. Can be used, but here, a method as shown in FIGS. 29 and 30 will be used. For example, as shown in FIG. 29, the query image is divided into four to generate divided images a to d, a predetermined type of feature is extracted from each divided image, and the image to be searched is divided into 16 parts. The divided images A to P are generated, and the same kind of feature amount as in the case of the inquiry image is extracted from each divided image. However, the number of divisions of the query image and the image to be searched is not limited to 8 and 16, respectively, and it is sufficient that the relationship is such that the number of divisions of the query image <the number of divisions of the image to be searched. Then, using the feature amount extracted from each divided image, as shown in FIGS. 30 (a) to 30 (i),
The similarity between the query image and a part of the search target image is sequentially obtained. FIG. 30 shows the images to be searched shown in FIG. 29, respectively, and the hatched portions in the images to be searched correspond to the area compared with the query image. If the number of divisions of the query image and the image to be searched is reversed (for example, the query image is divided into 16 and the image to be searched is divided into 8. That is, the number of divisions of the query image> the division of the image to be searched) Number), and images included in the query image can be searched.

【0318】以下、実施の形態13に係る画像検索装置
による画像検索処理について具体的に説明する。なお、
前提として、少なくとも検索対象の画像については、図
29に示したように各分割画像からそれぞれ特徴量が抽
出されているものとする。特徴量を抽出する具体的な処
理については、実施の形態12で説明した通りであるた
め、ここでは詳細な説明を省略する。また、抽出する特
徴量の種類は、色,構造等いかなるものであっても良
い。
Hereinafter, the image search processing by the image search apparatus according to the thirteenth embodiment will be specifically described. In addition,
As a premise, it is assumed that at least with respect to an image to be searched, a feature amount has been extracted from each divided image as shown in FIG. The specific process of extracting the feature amount is as described in the twelfth embodiment, and a detailed description thereof will not be repeated. Further, the type of the feature amount to be extracted may be any type such as a color and a structure.

【0319】図31は、実施の形態13に係る画像検索
処理のフローチャートであり、図32は、検索ウインド
ウ200hの一例を示す説明図である。ユーザは、図3
2に示す画像指定欄A〜Cのいずれかに問合せ画像を少
なくとも一つ指定する(S1301)。ここでは、説明
を単純にするために、問合せ画像が一つ指定されたもの
とする。
FIG. 31 is a flowchart of an image search process according to Embodiment 13, and FIG. 32 is an explanatory diagram showing an example of a search window 200h. The user sees FIG.
At least one query image is designated in any of the image designation fields A to C shown in FIG. 2 (S1301). Here, it is assumed that one inquiry image is specified for the sake of simplicity.

【0320】続いて、ユーザが図32の検索ボタン20
1を指定すると、U/I部151は、問合せ画像を特徴
抽出エンジン152に入力し、特徴抽出エンジン152
は、問合せ画像から所定の種類の特徴量を抽出する(S
1302)。特徴抽出エンジン152は、図29に示し
たように、問合せ画像を分割して分割画像a〜dを生成
し、各分割画像から所定の種類の特徴量を抽出する。た
だし、ユーザによって指定された問合せ画像から既に特
徴量が抽出されている場合には、このステップS130
2の処理をスキップすることができる。
Subsequently, the user presses the search button 20 in FIG.
When 1 is specified, the U / I unit 151 inputs the query image to the feature extraction engine 152, and
Extracts a predetermined type of feature amount from the query image (S
1302). As shown in FIG. 29, the feature extraction engine 152 divides the query image to generate divided images a to d, and extracts a predetermined type of feature amount from each divided image. However, if the feature amount has already been extracted from the query image specified by the user, this step S130
Step 2 can be skipped.

【0321】そして、マッチング・エンジン153は、
画像DB108に登録されている検索対象の画像毎に、
特徴抽出エンジン152で抽出した特徴量を用い、検索
対象の画像中の所定の領域と問合せ画像との類似度を求
める処理を検索対象の画像の全体にわたって実行し、問
合せ画像との類似度を求める(S1303)。
Then, the matching engine 153
For each image to be searched registered in the image DB 108,
Using the feature amount extracted by the feature extraction engine 152, a process of obtaining a similarity between a predetermined region in the search target image and the query image is executed over the entire search target image to obtain a similarity with the query image. (S1303).

【0322】このステップS1303において実行され
る処理の一例について、図30を参照しつつ詳細に説明
する。例えば、図30(a)に着目して説明すると、マ
ッチング・エンジン153は、特徴抽出エンジン152
で予め抽出した問合せ画像および検索対象の画像の各分
割画像の特徴量を用いて、 ・問合せ画像の分割画像aと検索対象の画像の分割画像
Aとの類似度 ・問合せ画像の分割画像bと検索対象の画像の分割画像
Bとの類似度 ・問合せ画像の分割画像cと検索対象の画像の分割画像
Eとの類似度 ・問合せ画像の分割画像dと検索対象の画像の分割画像
Fとの類似度 をそれぞれ求める。換言すれば、図4に示した特徴量空
間中にプロットされた分割画像同士の距離を各特徴毎に
定義された距離定義式を用いて求める。ここでは4つの
分割画像毎に類似度を求めるため、4つの類似度が得ら
れることになる。
One example of the processing executed in step S1303 will be described in detail with reference to FIG. For example, focusing on FIG. 30A, the matching engine 153 includes a feature extraction engine 152
The similarity between the divided image a of the query image and the divided image A of the search target image is calculated by using the feature amounts of the divided images of the query image and the search target image extracted in advance. Similarity between the search target image and the divided image B ・ Similarity between the query image divided image c and the search target image divided image E ・ Similarity between the query image divided image d and the search target image F The similarity is calculated for each. In other words, the distance between the divided images plotted in the feature amount space shown in FIG. 4 is obtained by using a distance definition formula defined for each feature. Here, since the similarity is obtained for each of the four divided images, four similarities are obtained.

【0323】続いて、マッチング・エンジン153は、
求めた4つの類似度を用いて、図30(a)に示した検
索対象の画像の領域と問合せ画像との類似度を決定す
る。類似度の決定方法としては、例えば以下のような方
法が考えられる。 −1 4つの類似度の二乗和により検索対象の画像の
領域と問合せ画像との類似度を決定する。 −2 4つの類似度を合計することにより、検索対象
の画像の領域と問合せ画像との類似度を決定する(AN
D検索を参照)。 −3 4つの類似度の中から最も高い(値の小さい)
類似度を選択することにより、検索対象の画像の領域と
問合せ画像との類似度を決定する(OR検索を参照)。 なお、−1〜−3のいずれの方法を利用するかを検
索ウインドウ200hで指定することができるようにし
ても良い。
Subsequently, the matching engine 153
Using the obtained four similarities, the similarity between the region of the search target image shown in FIG. 30A and the query image is determined. As a method of determining the similarity, for example, the following method can be considered. -1 The similarity between the region of the image to be searched and the query image is determined by the sum of squares of the four similarities. -2 The similarity between the region of the image to be searched and the query image is determined by summing the four similarities (AN
D search). -3 Highest (smallest value) among the four similarities
By selecting the similarity, the similarity between the region of the image to be searched and the query image is determined (see OR search). Note that the search window 200h may be used to specify which of the methods -1 to -3 to use.

【0324】マッチング・エンジン153は、図30
(b)〜図30(i)に示す場合についても前述した処
理を実行し、検索対象の画像の各領域と問合せ画像との
類似度を決定する。
The matching engine 153 is shown in FIG.
The processing described above is also performed for the cases shown in (b) to FIG. 30 (i) to determine the similarity between each area of the search target image and the query image.

【0325】図30(a)〜図30(i)のように、検
索対象の画像の各領域と問合せ画像との類似度を求めた
結果、検索対象の画像毎に、問合せ画像との9つの類似
度が得られることになる。そこで、マッチング・エンジ
ン153は、検索対象の画像毎に、9つの類似度を用い
て問合せ画像との最終的な類似度を決定する処理を実行
する。最終的な類似度の決定方法としては、例えば以下
のような方法が考えられる。
As shown in FIG. 30 (a) to FIG. 30 (i), the similarity between each region of the search target image and the query image is obtained. The similarity is obtained. Therefore, the matching engine 153 executes a process of determining a final similarity with the query image using nine similarities for each image to be searched. As a final similarity determination method, for example, the following method can be considered.

【0326】−1 9つの類似度の二乗和により、検
索対象の画像と問合せ画像との最終的な類似度を決定す
る(AND検索の変形)。 −2 9つの類似度を合計することにより、検索対象
の画像と問合せ画像との最終的な類似度を決定する(A
ND検索を参照)。 −3 9つの類似度の中から最も高い(値の小さい)
類似度を選択することにより、検索対象の画像と問合せ
画像との最終的な類似度を決定する(OR検索を参
照)。 なお、−1〜−3のいずれの方法を利用するかを検
索ウインドウ200hで指定することができるようにし
ても良い。
-1 The final similarity between the image to be searched and the query image is determined from the sum of squares of the nine similarities (a modification of the AND search). -2 The final similarity between the image to be searched and the query image is determined by summing the nine similarities (A
See ND search). -3 Highest (smallest value) among 9 similarities
By selecting the similarity, the final similarity between the search target image and the query image is determined (see OR search). Note that the search window 200h may be used to specify which of the methods -1 to -3 to use.

【0327】図31のフローチャートの説明に戻り、U
/I部151は、マッチング・エンジン153によって
検索対象の画像毎に求められた問合せ画像との最終的な
類似度を参照し、例えば類似度の高い順に検索対象の画
像を図32の画像表示欄202に表示する(S130
4)。ここでは類似度として検索対象の画像と問合せ画
像との特徴量間の距離を用いているため、実際には、類
似度の値の小さい順に検索対象の画像が画像表示欄20
2に表示されることになる。すなわち、類似度は0以上
の値を持ち、類似度が0のときは各問合せ画像の特徴量
および検索対象の画像の特徴量が等しいということを意
味する。
Returning to the description of the flowchart in FIG.
The / I unit 151 refers to the final similarity with the query image obtained for each image to be searched by the matching engine 153 and, for example, sorts the images to be searched in descending order of similarity in the image display column of FIG. 202 (S130).
4). Here, since the distance between the feature amounts of the image to be searched and the query image is used as the similarity, the images to be searched are actually displayed in the image display column 20 in ascending order of the value of the similarity.
2 will be displayed. That is, the similarity has a value of 0 or more, and when the similarity is 0, it means that the feature amount of each query image and the feature amount of the image to be searched are equal.

【0328】なお、以上の説明は、指定された問合せ画
像が一つで検索に用いられる特徴量の種類も一種類であ
ったが、複数種類の特徴量を用いることもできるし、問
合せ画像を複数指定することもできる。
In the above description, one specified query image is used and only one type of feature amount is used for the search. However, a plurality of types of feature amounts can be used. You can specify more than one.

【0329】そこで、複数種類の特徴量を用いる場合の
処理の一例を簡単に説明する。マッチング・エンジン1
53は、前述したように、同一種類の特徴量毎に検索対
象の画像と問合せ画像との類似度を求める。そして、マ
ッチング・エンジン153は、例えば以下のような方法
で異なる種類の特徴量毎に求めた類似度を用いて、検索
対象の画像毎に、問合せ画像との類似度を決定すること
ができる。
An example of a process when a plurality of types of feature amounts are used will be briefly described. Matching engine 1
As described above, 53 obtains the similarity between the image to be searched and the query image for each feature of the same type. Then, the matching engine 153 can determine the similarity with the query image for each image to be searched using the similarity obtained for each of the different types of feature amounts by the following method, for example.

【0330】−1 特徴量の種類毎に求めた類似度の
二乗和により、問合せ画像との最終的な類似度を決定す
る(AND検索の変形)。 −2 特徴量の種類毎に求めた類似度を合計すること
により、問合せ画像との最終的な類似度を決定する。こ
の方法を用いる場合は、複数種類の特徴量に応じたAN
D検索を実行することが可能となる。 −3 特徴量の種類毎に求めた類似度の中から最も高
い(値の小さい)類似度を選択することにより、問合せ
画像との最終的な類似度を決定する。この方法を用いる
場合は、複数種類の特徴量に応じたOR検索を実行する
ことが可能となる。 なお、−1〜−3のいずれの方法を利用するかを検
索ウインドウ200hで指定することができるようにし
ても良い。
-1 The final similarity with the query image is determined by the sum of squares of the similarity obtained for each type of feature amount (a modification of the AND search). -2 The final similarity with the query image is determined by summing the similarities obtained for each type of feature amount. When this method is used, an AN corresponding to a plurality of types of feature amounts is used.
D search can be executed. -3 The final similarity with the query image is determined by selecting the highest (smallest) similarity from among the similarities obtained for each type of feature amount. When this method is used, it is possible to execute an OR search according to a plurality of types of feature amounts. Note that the search window 200h may be used to specify which of the methods -1 to -3 to use.

【0331】また、複数の問合せ画像が指定された場合
の処理の一例を簡単に説明する。マッチング・エンジン
153は、前述したように、検索対象の画像と各問合せ
画像との類似度を求める。そして、マッチング・エンジ
ン153は、例えば以下のような方法を用いて、検索対
象の画像毎に、各問合せ画像に対する検索対象の画像の
類似度を決定することができる。
[0331] An example of a process when a plurality of inquiry images are specified will be briefly described. As described above, the matching engine 153 calculates the similarity between the search target image and each query image. Then, the matching engine 153 can determine the similarity of the search target image to each query image for each search target image using, for example, the following method.

【0332】−1 各検索対象の画像毎に、各問合せ
画像との類似度の二乗和を検索対象の画像の総合類似度
とする(AND検索の変形)。この方法を用いると、問
合せ画像としての複数の画像を含む画像を検索すること
が可能となる。 −2 各検索対象の画像毎に、各問合せ画像との類似
度を合計して検索対象の画像の総合類似度とする。この
方法を用いる場合は、複数の問合せ画像を用いたAND
検索を実行することが可能となる。すなわち、問合せ画
像としての複数の画像を含む画像を検索することが可能
となる。 −3 各検索対象の画像毎に、各問合せ画像との類似
度の中から最も高い(値の小さい)類似度を選択して検
索対象の画像の総合類似度とする。この方法を用いる場
合は、複数の問合せ画像を用いたOR検索を実行するこ
とが可能となる。すなわち、問合せ画像としての複数の
画像のいずれかを含む画像を検索することができる。 なお、−1〜−3のいずれの方法を利用するかを検
索ウインドウ200hで指定することができるようにし
ても良い。
-1 For each image to be searched, the sum of squares of similarities with each query image is set as the overall similarity of the images to be searched (a modification of the AND search). By using this method, it is possible to search for an image including a plurality of images as query images. -2 For each image to be searched, the similarity to each query image is summed to obtain the overall similarity to the image to be searched. When this method is used, AND using multiple query images
A search can be performed. That is, it is possible to search for an image including a plurality of images as query images. -3 For each image to be searched, the highest (smallest) similarity is selected from among the degrees of similarity to each query image, and is set as the overall similarity of the images to be searched. When this method is used, it is possible to execute an OR search using a plurality of query images. That is, it is possible to search for an image including any one of the plurality of images as the inquiry image. Note that the search window 200h may be used to specify which of the methods -1 to -3 to use.

【0333】以上説明したように、実施の形態13に係
る画像検索装置によれば、問合せ画像を少なくとも一つ
指定し、検索対象の画像毎に、検索対象の画像中の所定
のサイズの領域と指定された問合せ画像との類似度を予
め抽出した所定の特徴量を用いて求める処理を検索対象
の画像全体にわたって繰り返し実行し、検索対象の画像
毎に求めた類似度に基づいて検索結果を出力するため、
検索対象の画像の中から、問合せ画像を含む画像を探し
出すことができる。したがって、ユーザの意図するよう
な画像検索を実現する一つの手法を提供することができ
る。
As described above, according to the image search apparatus of the thirteenth embodiment, at least one query image is specified, and for each search target image, a region of a predetermined size in the search target image is specified. A process of obtaining a similarity with a specified query image using a predetermined feature amount extracted in advance is repeatedly executed over the entire search target image, and a search result is output based on the similarity obtained for each search target image. To do
From the images to be searched, an image including the query image can be found. Therefore, it is possible to provide one technique for realizing an image search intended by the user.

【0334】なお、画像表示欄202に表示された検索
結果の画像を参照した結果、絞込み検索を行いたい場合
には、画像表示欄202に表示された画像を問合せ画像
として指定して同様の検索処理を行うこともできる。ま
た、複数の問合せ画像や複数種類の特徴量を指定する場
合に、他の実施の形態で説明したように重要度を指定す
ることができるようにしても良い。
[0334] If it is desired to perform a refined search as a result of referring to the image of the search result displayed in the image display field 202, the image displayed in the image display field 202 is designated as a query image and a similar search is performed. Processing can also be performed. When a plurality of inquiry images and a plurality of types of feature amounts are specified, the importance may be specified as described in the other embodiments.

【0335】〔実施の形態14〕続いて、本発明に係る
画像分類装置について説明する。この画像分類装置は、
前述した画像検索装置と同様に、画像間の類似度を用い
て画像を分類するものである。画像を予め分類しておく
ことで、分類を辿るだけでユーザが所望する画像を探し
出すことができる。こうすることで画像検索とは異なる
方法で容易にユーザの所望する画像を探すことが可能と
なる。
[Embodiment 14] Next, an image classification apparatus according to the present invention will be described. This image classification device
Similar to the above-described image search device, images are classified using similarity between images. By classifying the images in advance, it is possible to search for the image desired by the user only by following the classification. This makes it possible to easily search for an image desired by the user by a method different from the image search.

【0336】本発明の実施の形態14に係る画像分類装
置は、実施の形態1で説明した画像検索処理を応用して
画像を分類するものである。したがって、実施の形態1
で説明した点と共通する点については適宜説明を省略す
ることにする。
An image classification device according to the fourteenth embodiment of the present invention classifies images by applying the image search processing described in the first embodiment. Therefore, Embodiment 1
The description of the points common to those described in Sections will be appropriately omitted.

【0337】図33は、実施の形態14に係る画像分類
装置のブロック構成図である。図33において、図1に
示した画像検索装置と同一の構成については同一の符号
を付し、ここでは異なる点についてのみ説明する。図3
3に示す画像分類装置は、図1に示した画像検索装置と
異なる点として、本発明の画像分類装置としての機能を
CPU101(コンピュータ100)に実行させるため
の画像分類ソフト301と、分類項目(後述するフォル
ダ),分類対象の画像を各分類項目に分類するための分
類条件,分類した結果の画像情報等が登録される分類木
DB302と、を備えている。
FIG. 33 is a block diagram of an image classification device according to the fourteenth embodiment. 33, the same components as those of the image search device shown in FIG. 1 are denoted by the same reference numerals, and only different points will be described here. FIG.
The image classification device shown in FIG. 3 differs from the image retrieval device shown in FIG. 1 in that image classification software 301 for causing the CPU 101 (computer 100) to execute the function as the image classification device of the present invention and classification items ( A folder to be described later), a classification condition for classifying images to be classified into respective classification items, and a classification tree DB 302 in which image information of the classified result is registered.

【0338】図34は、図33に示した画像分類装置に
おいて実行される処理を示すブロック図であり、図2に
対応するものである。ユーザ・インターフェイス(U/
I)部151(本発明の設定手段,指定手段および表示
手段に該当する)は、ユーザに対して画像分類を行うた
めの分類項目設定画面,分類結果表示画面等を表示し
て、分類条件の入力,分類結果の出力処理等を実行す
る。特徴抽出エンジン152は、画像DB108に登録
する画像(分類対象の画像)および後述する分類基準と
して設定される画像から画像の特徴量を抽出する処理を
実行する。さらに、マッチング・エンジン153(本発
明の演算手段,決定手段,分類手段および検索手段に該
当する)は、基準画像と分類対象の画像との類似度を求
め、求めた類似度に基づいて分類対象の画像の分類先と
なる分類項目を決定する処理(例えば、分類木DB30
2に登録された分類項目に画像のIDを登録して分類す
る)を実行する。
FIG. 34 is a block diagram showing processing executed in the image classification device shown in FIG. 33, and corresponds to FIG. User interface (U /
I) section 151 (corresponding to the setting means, designating means, and display means of the present invention) displays a classification item setting screen, a classification result display screen, and the like for performing image classification for a user, and displays classification conditions. It executes input and output of classification results. The feature extraction engine 152 executes a process of extracting a feature amount of an image from an image (image to be classified) registered in the image DB 108 and an image set as a classification criterion described later. Further, the matching engine 153 (corresponding to the calculating means, the determining means, the classifying means, and the searching means of the present invention) calculates the similarity between the reference image and the image to be classified, and classifies the classification target based on the obtained similarity. (For example, classification tree DB30)
2 and the image ID is registered in the classification item registered in step 2 and the image is classified).

【0339】つぎに、前述した構成を有する画像分類装
置の動作について、 (1)分類項目設定処理 (2)画像分類処理 の順で説明する。ここでは画像DB108に登録された
複数の画像を分類対象の画像とする。また、画像を分類
する際に用いる特徴量は画像の色,構造およびテクスチ
ャであり、画像DB108中の分類対象の画像からは、
図3を用いて実施の形態1で説明した処理によって既に
各種類の特徴量が抽出されているものとする。
Next, the operation of the image classification device having the above-described configuration will be described in the order of (1) classification item setting processing and (2) image classification processing. Here, a plurality of images registered in the image DB 108 are set as images to be classified. The feature amounts used for classifying the images are the color, structure, and texture of the image. From the images to be classified in the image DB 108,
It is assumed that each type of feature has already been extracted by the processing described in the first embodiment with reference to FIG.

【0340】(1)分類項目設定処理 図35は、画像の分類項目の設定処理や分類後の画像の
表示を行うための画像分類ウインドウ350aの一例を
示す説明図である。図34のU/I部151は、ユーザ
によって画像分類ウインドウ350aの表示が指定され
ると、図35に示すような画像分類ウインドウ350a
を表示し、ユーザの指示に応じて後述するフォルダの作
成や分類条件の設定等の処理を実行する。
(1) Classification Item Setting Process FIG. 35 is an explanatory diagram showing an example of the image classification window 350a for performing the setting process of the classification item of the image and the display of the image after the classification. When the display of the image classification window 350a is designated by the user, the U / I unit 151 of FIG.
Is displayed, and processing such as creation of a folder and setting of classification conditions, which will be described later, is executed in response to a user instruction.

【0341】この図35には、既に画像を管理するため
の項目(以下「フォルダ」と記述する)が設定されてい
る様子が示されているが、ここではルートに当たる画像
DBフォルダ351のみが存在しているものと仮定し、
各フォルダを設定する処理を説明する。
FIG. 35 shows a state in which items for managing images (hereinafter referred to as “folders”) are already set, but here, only the image DB folder 351 corresponding to the root exists. Assuming that
Processing for setting each folder will be described.

【0342】図35中の画像DBフォルダ351は、画
像DB108中に登録された画像の全てを管理するフォ
ルダである。なお、この画像DBフォルダ351の設定
を変更することにより、分類対象の画像を画像DB中の
画像から別の画像に変更することができる。例えば、実
施の形態1〜13で説明した画像検索装置で検索した結
果の画像を指定して分類することも可能である。
The image DB folder 351 in FIG. 35 is a folder for managing all the images registered in the image DB 108. By changing the setting of the image DB folder 351, the image to be classified can be changed from the image in the image DB to another image. For example, it is also possible to specify and classify an image obtained as a result of search by the image search device described in the first to thirteenth embodiments.

【0343】ユーザは、この画像DBフォルダ351の
下位に画像DB108の画像を分類する分類先となる新
たなフォルダを設定する。例えば、ユーザは、図示しな
いメニューから「フォルダ作成」を選択し、画像DBフ
ォルダ351の下位にフォルダ352を作成する。
The user sets a new folder below the image DB folder 351 as a classification destination for classifying the images in the image DB 108. For example, the user selects “create folder” from a menu (not shown) and creates a folder 352 under the image DB folder 351.

【0344】そして、ユーザは、フォルダ352に分類
対象の画像(画像DB108中の画像)を分類するため
の分類条件を設定するため、フォルダ352を選択する
と共に、図示しないメニューから「分類条件設定」を選
択し、図35に示されている分類条件設定ウィンドウ3
60aを表示させる。
Then, the user selects the folder 352 in order to set the classification condition for classifying the images to be classified (the images in the image DB 108) in the folder 352, and selects “set classification condition” from a menu (not shown). Is selected, and the classification condition setting window 3 shown in FIG.
60a is displayed.

【0345】分類条件設定ウインドウ360aは、図5
に示した検索ウインドウ200aの一部とほぼ同一の構
成であり、分類条件設定ウインドウ360aには、実施
の形態1で説明した検索条件と同様の方法で分類条件を
設定することができる。分類条件設定ウインドウ360
aは、画像を分類する際に使用される例えば色,構造お
よびテクスチャの特徴量毎に、分類対象の画像を分類す
るための基準として用いられる複数の基準画像(画像検
索の問合せ画像に該当する)を指定するための画像指定
欄A,BおよびCと、所望のフォルダに対して分類条件
の設定を指定するための設定ボタン361と、を備えて
いる。
The classification condition setting window 360a is shown in FIG.
The configuration is almost the same as a part of the search window 200a shown in FIG. 7, and the classification condition can be set in the classification condition setting window 360a by the same method as the search condition described in the first embodiment. Classification condition setting window 360
a is a plurality of reference images (corresponding to a query image of an image search) used as references for classifying images to be classified for each feature amount of, for example, color, structure, and texture used when classifying images. ), And a setting button 361 for specifying the setting of the classification condition for a desired folder.

【0346】基準画像として指定する画像としては、例
えば、スキャナで読み取った画像,ディジタルカメラで
撮像した画像,ネットワーク112を介してダウンロー
ドした画像,予めハードディスク110に記憶されてい
た画像,画像DB108に登録されている画像等、いか
なるものであっても良い。
As the image designated as the reference image, for example, an image read by a scanner, an image taken by a digital camera, an image downloaded via the network 112, an image previously stored in the hard disk 110, and registered in the image DB 108 Any image, such as an image being displayed, may be used.

【0347】ユーザは、実施の形態1で説明したよう
に、例えば3枚の画像を各種類の特徴量に対応させ、そ
れぞれ画像指定欄A,BおよびCに基準画像A,Bおよ
びCとして指定する。また、図示することは省略する
が、分類条件設定ウインドウ360aからフォルダ毎
に、基準画像および検索対象の画像の類似度の閾値を設
定することができる。後述するように、フォルダに設定
された基準画像との類似度が閾値を超えた分類対象の画
像がそのフォルダに分類されることになる。ここではフ
ォルダ毎に閾値を設定することにするが、フォルダ全体
を対象として一つの閾値を設定することにしても良い。
As described in the first embodiment, the user associates, for example, three images with each type of feature and designates them as reference images A, B, and C in image designation columns A, B, and C, respectively. I do. Although not shown, a threshold value of the similarity between the reference image and the image to be searched can be set for each folder from the classification condition setting window 360a. As will be described later, the images to be classified whose similarity with the reference image set in the folder exceeds the threshold value are classified into the folder. Here, the threshold is set for each folder, but one threshold may be set for the entire folder.

【0348】そして、ユーザが設定ボタン361を選択
すると、U/I部151は、指定された基準画像および
閾値を分類条件としてフォルダ352に設定する。な
お、基準画像として設定された画像から特徴量を抽出し
ていない場合にあっては、分類条件をフォルダに設定す
る際に特徴抽出エンジン152が特徴量を抽出する処理
を行うことにしても良い。もちろん、画像を分類する処
理を行う際に各基準画像から必要な特徴量を抽出するこ
とにしても良い。
When the user selects the setting button 361, the U / I unit 151 sets the designated reference image and threshold value in the folder 352 as classification conditions. In the case where the feature amount has not been extracted from the image set as the reference image, the feature extraction engine 152 may perform a process of extracting the feature amount when setting the classification condition in the folder. . Needless to say, a necessary feature amount may be extracted from each reference image when performing a process of classifying images.

【0349】なお、ユーザは、フォルダ354〜357
のように、作成したフォルダ(例えばフォルダ353)
に分類される画像をさらに分類するためのフォルダ(例
えば、フォルダ353に対してフォルダ354および3
55)を作成し、同様に分類条件を設定することができ
る。
Note that the user can select folders 354 to 357
Folder created (for example, folder 353)
(For example, folders 354 and 3 for folder 353)
55), and classification conditions can be set similarly.

【0350】このようにして、図35に示すような複数
のフォルダ352〜358が分類対象の画像を分類する
ための分類項目として設定される。U/I部151は、
作成したフォルダや対応する分類条件をフォルダ情報と
して、フォルダの階層構造に関する情報と共に分類木D
B302に登録する。
In this manner, a plurality of folders 352 to 358 as shown in FIG. 35 are set as classification items for classifying images to be classified. The U / I unit 151
Using the created folder and the corresponding classification conditions as folder information, the classification tree D together with information on the hierarchical structure of the folder
Register in B302.

【0351】実施の形態1で説明したように、各フォル
ダ毎に単に基準画像を複数指定するだけでなく、画像を
分類する際に使用される各種類の特徴量に対応させて各
問合せ画像を指定できるため、ユーザが適切と考える仮
想的な一つの基準画像を表現できると共に、分類に対す
るユーザの意図を分類基準として正確に表現することが
可能となる。したがって、後述する分類処理によって、
ユーザの意図が反映された分類結果の画像を得ることが
可能となる。
As described in the first embodiment, in addition to simply designating a plurality of reference images for each folder, each query image is associated with each type of feature used in classifying the images. Since it is possible to specify, it is possible to represent one virtual reference image that the user considers appropriate, and it is possible to accurately represent the user's intention for classification as a classification standard. Therefore, by the classification process described below,
It is possible to obtain an image of the classification result reflecting the intention of the user.

【0352】(2)画像分類処理 図36は、実施の形態14の画像分類処理を示すフロー
チャートである。ユーザが分類処理の開始を指示する
と、図34のマッチング・エンジン153は、フォルダ
352〜358毎に、対応する種類の特徴量を用いて各
基準画像および分類対象の画像との類似度を求めると共
に、求めた類似度を合計して分類対象の画像の総合類似
度を求める処理を実行する(S1401)。
(2) Image Classification Processing FIG. 36 is a flowchart showing an image classification processing according to the fourteenth embodiment. When the user instructs the start of the classification process, the matching engine 153 of FIG. 34 calculates the similarity between each reference image and the image to be classified using the corresponding type of feature amount for each of the folders 352 to 358. Then, a process of calculating the total similarity of the images to be classified by adding the obtained similarities is performed (S1401).

【0353】このステップS1401における処理につ
いてフォルダ352を例にとって具体的に説明する。マ
ッチング・エンジン153は、分類木DB302のフォ
ルダ情報を参照し、フォルダ352に設定された基準画
像A(図35の分類条件設定ウインドウ360aを参
照)および分類対象の画像の類似度を色の特徴量を用い
て求める。すなわち、マッチング・エンジン153は、
色の特徴量に基づいて図4に示した特徴量空間中にプロ
ットされた分類対象の画像と基準画像Aとの距離を例え
ばユークリッド距離などのベクトルの距離定義式を用い
て求める。マッチング・エンジン153は、同様に、構
造の特徴量に基づいて分類対象の画像と基準画像Bとの
距離を求めると共に、テクスチャの特徴量に基づいて分
類対象の画像と基準画像Cとの距離を求める。
The processing in step S1401 will be specifically described using the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302, and determines the similarity between the reference image A set in the folder 352 (see the classification condition setting window 360a in FIG. 35) and the classification target image by the color feature amount. Is determined using That is, the matching engine 153
The distance between the image to be classified and the reference image A plotted in the feature amount space shown in FIG. 4 based on the color feature amount is obtained using a vector distance definition formula such as a Euclidean distance. Similarly, the matching engine 153 calculates the distance between the image to be classified and the reference image B based on the feature amount of the structure, and calculates the distance between the image to be classified and the reference image C based on the feature amount of the texture. Ask.

【0354】その後、マッチング・エンジン153は、
分類対象の画像と各基準画像A,BおよびCとの距離を
合計し、距離の合計値を総合類似度とする(数1を参
照)。マッチング・エンジン153は、このようにして
フォルダ352〜358毎に総合類似度を求める。
Subsequently, the matching engine 153
The distances between the image to be classified and each of the reference images A, B, and C are totaled, and the total value of the distances is used as the overall similarity (see Equation 1). The matching engine 153 obtains the total similarity for each of the folders 352 to 358 in this way.

【0355】続いて、マッチング・エンジン153は、
フォルダ352〜358毎に、ステップS1401で求
めた分類対象の画像の総合類似度が閾値を超えるか否か
を判定する(S1402)。ただし、ここでは類似度と
して距離を用いており、距離が短い(距離の値が小さ
い)ほど類似性が高いことになるため、実際には、総合
類似度が閾値以下(または未満)であるか否かを判定す
ることになる。
Then, the matching engine 153
For each of the folders 352 to 358, it is determined whether or not the total similarity of the images to be classified obtained in step S1401 exceeds a threshold (S1402). However, here, the distance is used as the similarity, and the shorter the distance (the smaller the value of the distance), the higher the similarity. Therefore, in practice, whether the total similarity is equal to or less than (or less than) the threshold value It will be determined whether or not.

【0356】そして、マッチング・エンジン153は、
分類対象の画像の総合類似度が閾値を超えるフォルダに
分類対象の画像を分類する(S1403)。すなわち、
マッチング・エンジン153は、分類対象の画像の総合
類似度が閾値を超える場合、そのフォルダを分類対象の
画像の分類先として決定し、分類木DB302中に登録
された該当するフォルダのフォルダ情報に関連付けて分
類対象の画像のID(予め設定されているものとする)
を分類木DB302に登録する。
The matching engine 153
The images to be classified are classified into folders in which the overall similarity of the images to be classified exceeds a threshold (S1403). That is,
When the overall similarity of the image to be classified exceeds the threshold, the matching engine 153 determines the folder as a classification destination of the image to be classified and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302. ID of the image to be classified (assumed to be preset)
Is registered in the classification tree DB 302.

【0357】以上説明したステップS1401〜S14
03の処理を画像DB108中に登録されている各画像
に対して実行することにより、画像DB108中の画像
を分類することができる。また、マッチング・エンジン
153は、各フォルダ352〜358に分類された画像
のうち、最も高い総合類似度(距離で表現すれば最も小
さい総合類似度)を持つ画像を代表画像として選択し、
該当するフォルダ情報に関連付けて分類木DB302に
登録する。なお、フォルダ毎に得られた総合類似度に応
じて、分類対象の画像は2以上のフォルダに分類される
こともあり得る。
Steps S1401 to S14 described above
By executing the process 03 on each image registered in the image DB 108, the images in the image DB 108 can be classified. Further, the matching engine 153 selects, as a representative image, an image having the highest overall similarity (smallest overall similarity expressed in terms of distance) among the images classified into the folders 352 to 358,
The information is registered in the classification tree DB 302 in association with the corresponding folder information. It should be noted that the images to be classified may be classified into two or more folders according to the overall similarity obtained for each folder.

【0358】図37は、画像DB108中の画像を各フ
ォルダ352〜358に分類した後の画像分類ウインド
ウ350aの様子を示す説明図である。各フォルダ35
2〜358には、マッチング・エンジン153によって
選択された代表画像が表示されている。また、ユーザが
特定のフォルダを選択すると、そのフォルダに分類され
た画像が画像分類ウインドウ350aの右側に一覧表示
される。
FIG. 37 is an explanatory diagram showing the state of the image classification window 350a after the images in the image DB 108 have been classified into the folders 352 to 358. Each folder 35
2 to 358, representative images selected by the matching engine 153 are displayed. When the user selects a specific folder, the images classified into the folder are displayed in a list on the right side of the image classification window 350a.

【0359】このように、実施の形態14に係る画像分
類装置によれば、分類項目を設定し、設定した分類項目
それぞれに対し、基準画像および分類対象の画像の類似
度を求める際に使用される各種類の特徴量毎にそれぞれ
一つの基準画像を設定し、分類項目毎に、設定された各
基準画像および分類対象の画像の類似度を対応する種類
の特徴量を用いて求めると共に、求めた類似度を合計し
て分類対象の画像の総合類似度を求め、分類項目毎に求
めた分類対象の画像の総合類似度および予め設定された
分類先決定基準に基づいて、分類対象の画像の分類先と
なる分類項目を決定することにより、ユーザの意図を分
類条件として正確に表現できるため、ユーザの意図を正
確に装置に伝えることができると共に、分類に対するユ
ーザの意図を確実に装置に伝えることができるため、分
類に対するユーザの意図を正確に反映した分類結果を得
ることができ、ユーザが望む通りの分類処理を実現する
ことができる。
As described above, according to the image classification device of the fourteenth embodiment, the classification items are set, and the similarity between the reference image and the image to be classified is determined for each of the set classification items. One reference image is set for each type of feature amount, and for each classification item, the similarity between the set reference image and the image to be classified is determined using the corresponding type of feature amount, and the similarity is determined. The overall similarity of the image to be classified is calculated by summing the similarities obtained by the classification, and based on the overall similarity of the image to be classified determined for each classification item and a preset classification destination determination criterion, By determining the classification item to be classified, the user's intention can be accurately expressed as a classification condition, so that the user's intention can be accurately conveyed to the device and the user's intention for the classification can be reliably determined. It is possible to convey to the apparatus, it is possible to obtain a classification result that accurately reflects the intention of the user for the classification, it is possible to realize the classification process as the user desires.

【0360】例えば、基準画像として適切な画像が存在
しない場合であっても、分類結果として望む画像に色の
雰囲気が似た画像やオブジェクトの形状の雰囲気が似た
画像を基準画像として指定し、これらの画像を合わせた
ものを一つの問合せ画像として使用することができる。
For example, even when there is no suitable image as a reference image, an image having a similar color atmosphere to an image desired as a classification result or an image having a similar object shape atmosphere is designated as a reference image. A combination of these images can be used as one query image.

【0361】なお、ここでは色,構造およびテクスチャ
の3種類の特徴量を用いることにしたが、これらはあく
までも例示であって、特徴量の種類を限定することを意
図したものではない。
Although three types of feature amounts, that is, color, structure, and texture, are used here, these are merely examples, and are not intended to limit the types of feature amounts.

【0362】また、図37に示したように、フォルダ毎
に代表画像を表示することにしたが、これに代えて、フ
ォルダ名を表示したり、フォルダに設定した基準画像を
表示することにしても良い。
Although the representative image is displayed for each folder as shown in FIG. 37, instead of this, a folder name is displayed or a reference image set in the folder is displayed. Is also good.

【0363】さらに、詳細な説明については省略する
が、画像DB108に新たに画像が登録された場合、そ
の画像についても分類処理を行うことにより、画像DB
108中の画像を常に分類した状態に保つことができ
る。例えば、U/I部151が画像DB108の状態を
監視することにすれば、人手を要することなく、画像D
B108中の画像を常に分類した状態に保つことができ
る。
Although a detailed description is omitted, when a new image is registered in the image DB 108, the image is also classified by performing a classification process.
The images in 108 can always be kept in a classified state. For example, if the U / I unit 151 monitors the state of the image DB 108, the image D
The image in B108 can always be kept in a classified state.

【0364】〔実施の形態15〕実施の形態15に係る
画像分類装置は、実施の形態2で説明した画像検索処理
を応用して画像を分類するものである。なお、実施の形
態15に係る画像分類装置において、実施の形態14で
既に説明した構成については同一の符号を使用して詳細
な説明を省略し、画像分類装置の動作についても共通す
る点については適宜説明を省略する。
[Embodiment 15] An image classifying apparatus according to Embodiment 15 classifies images by applying the image search processing described in Embodiment 2. In the image classification device according to the fifteenth embodiment, the components already described in the fourteenth embodiment are denoted by the same reference numerals, detailed description thereof is omitted, and the operation of the image classification device is common. A description will be appropriately omitted.

【0365】以下に、実施の形態15に係る画像分類装
置の動作について、 (1)分類項目設定処理 (2)画像分類処理の順で説明する。
The operation of the image classification device according to the fifteenth embodiment will be described below in the order of (1) classification item setting processing and (2) image classification processing.

【0366】(1)分類項目設定処理 図38は、画像の分類項目の設定処理や分類後の画像の
表示を行うための画像分類ウインドウ350bの一例を
示す説明図である。ここで、ユーザは、フォルダ352
を作成したものとし、フォルダ352に分類条件を設定
するため、図38に示すような分類条件設定ウインドウ
360bを表示させる。
(1) Classification Item Setting Processing FIG. 38 is an explanatory diagram showing an example of an image classification window 350b for performing processing for setting image classification items and displaying images after classification. Here, the user can select the folder 352
Is created, and a classification condition setting window 360b as shown in FIG. 38 is displayed in order to set the classification condition in the folder 352.

【0367】図38に示す分類条件設定ウインドウ36
0bは、図7に示した検索ウインドウ200bの一部と
ほぼ同一の構成であり、分類条件設定ウインドウ360
bには、実施の形態2で説明した検索条件と同様の方法
で分類条件を設定することができる。分類条件設定ウイ
ンドウ360bは、分類対象の画像を分類するための基
準として用いられる複数の基準画像(画像検索の問合せ
画像に該当する)を指定するための画像指定欄A,Bお
よびCと、各画像指定欄に指定した基準画像毎に、分類
対象の画像との類似度を求める際に使用する特徴量の種
類を指定する特徴量指定ボタン362と、対応するフォ
ルダに対して分類条件の設定を指定するための設定ボタ
ン361と、を備えている。
A classification condition setting window 36 shown in FIG.
0b has almost the same configuration as a part of the search window 200b shown in FIG.
For b, a classification condition can be set in the same manner as the search condition described in the second embodiment. The classification condition setting window 360b includes image specification columns A, B, and C for specifying a plurality of reference images (corresponding to a query image for image search) used as references for classifying images to be classified. For each of the reference images specified in the image specification field, a feature amount designation button 362 for designating a type of feature amount to be used when obtaining the similarity with the image to be classified, and setting of classification conditions for the corresponding folder. And a setting button 361 for designation.

【0368】ユーザは、実施の形態2で説明したよう
に、例えば3枚の画像をそれぞれ画像指定欄A,Bおよ
びCに基準画像A,BおよびCとして指定し、各基準画
像A,BおよびC毎に分類対象の画像との類似度を求め
る際に使用する特徴量の種類を指定する。図38に示す
分類条件設定ウインドウ360bは、一例として色・構
造・テクスチャの中から所望の特徴量を指定することが
できるようになっている。
As described in the second embodiment, the user designates, for example, three images as reference images A, B, and C in image specification columns A, B, and C, respectively, and sets each of the reference images A, B, and C For each C, the type of the feature amount used when obtaining the similarity with the image to be classified is designated. In the classification condition setting window 360b shown in FIG. 38, for example, a desired feature amount can be designated from colors, structures, and textures.

【0369】また、図示することは省略するが、分類条
件設定ウインドウ360bからフォルダ毎に、基準画像
および検索対象の画像の類似度の閾値を設定することが
できる。後述するように、フォルダに設定された基準画
像との類似度が閾値を超えた分類対象の画像がそのフォ
ルダに分類されることになる。ここではフォルダ毎に閾
値を設定することにするが、フォルダ全体を対象として
一つの閾値を設定することにしても良い。
Although not shown, a threshold value of the similarity between the reference image and the image to be searched can be set for each folder from the classification condition setting window 360b. As will be described later, the images to be classified whose similarity with the reference image set in the folder exceeds the threshold value are classified into the folder. Here, the threshold is set for each folder, but one threshold may be set for the entire folder.

【0370】そして、ユーザが設定ボタン361を選択
すると、U/I部151は、指定された基準画像,特徴
量の種類および閾値を分類条件としてフォルダ352に
設定する。なお、基準画像として設定された画像から特
徴量を抽出していない場合にあっては、分類条件をフォ
ルダに設定する際に特徴抽出エンジン152が特徴量を
抽出する処理を行うことにしても良い。もちろん、画像
を分類する処理を行う際に各基準画像から必要な特徴量
を抽出することにしても良い。
When the user selects the setting button 361, the U / I unit 151 sets the specified reference image, the type of the feature amount, and the threshold value in the folder 352 as the classification condition. In the case where the feature amount has not been extracted from the image set as the reference image, the feature extraction engine 152 may perform a process of extracting the feature amount when setting the classification condition in the folder. . Needless to say, a necessary feature amount may be extracted from each reference image when performing a process of classifying images.

【0371】なお、ユーザは、フォルダ354〜357
のように、作成したフォルダ(例えばフォルダ353)
に分類される画像をさらに分類するためのフォルダ(例
えば、フォルダ353に対してフォルダ354および3
55)を作成し、同様に分類条件を設定することができ
る。
[0371] It is to be noted that the user can select folders 354-357.
Folder created (for example, folder 353)
(For example, folders 354 and 3 for folder 353)
55), and classification conditions can be set similarly.

【0372】このようにして、図38に示すような複数
のフォルダ352〜358が分類対象の画像を分類する
ための分類項目として設定される。U/I部151は、
作成したフォルダや対応する分類条件をフォルダ情報と
して、フォルダの階層構造に関する情報と共に分類木D
B302に登録する。
In this manner, a plurality of folders 352 to 358 as shown in FIG. 38 are set as classification items for classifying images to be classified. The U / I unit 151
Using the created folder and the corresponding classification conditions as folder information, the classification tree D together with information on the hierarchical structure of the folder
Register in B302.

【0373】実施の形態2で説明したように、各フォル
ダ毎に単に基準画像を複数指定するだけでなく、指定し
た各基準画像毎にユーザが重視する画像の特徴に該当す
る特徴量を指定できるため、ユーザが適切と考える仮想
的な一つの基準画像を表現できると共に、分類に対する
ユーザの意図を分類基準として正確に表現することが可
能となる。したがって、後述する分類処理によって、ユ
ーザの意図が反映された分類結果の画像を得ることが可
能となる。
As described in the second embodiment, not only a plurality of reference images can be simply designated for each folder, but also a feature amount corresponding to a feature of an image emphasized by the user can be designated for each designated reference image. Therefore, it is possible to represent one virtual reference image that the user considers appropriate, and to accurately represent the user's intention for classification as a classification criterion. Therefore, it is possible to obtain an image of a classification result reflecting a user's intention by a classification process described later.

【0374】(2)画像分類処理 実施の形態15の画像分類処理について図36を参照し
つつ説明する。ユーザが分類処理の開始を指示すると、
図34のマッチング・エンジン153は、フォルダ35
2〜358毎に、ユーザが指定した種類の特徴量を用い
て各基準画像および分類対象の画像との類似度を求める
と共に、求めた類似度を合計して分類対象の画像の総合
類似度を求める処理を実行する(S1401)。
(2) Image Classification Processing The image classification processing of the fifteenth embodiment will be described with reference to FIG. When the user instructs to start the classification process,
The matching engine 153 in FIG.
For every 2 to 358, the similarity between each reference image and the image to be classified is obtained using the feature amount of the type specified by the user, and the obtained similarities are summed to obtain the overall similarity of the image to be classified. The required processing is executed (S1401).

【0375】このステップS1401における処理につ
いてフォルダ352を例にとって具体的に説明する。マ
ッチング・エンジン153は、分類木DB302のフォ
ルダ情報を参照し、フォルダ352に設定された基準画
像A(図38の分類条件設定ウインドウ360bを参
照)および分類対象の画像の類似度を色の特徴量を用い
て求める。すなわち、マッチング・エンジン153は、
色の特徴量に基づいて図4に示した特徴量空間中にプロ
ットされた分類対象の画像と基準画像Aとの距離を例え
ばユークリッド距離などのベクトルの距離定義式を用い
て求める。マッチング・エンジン153は、同様に、構
造の特徴量に基づいて分類対象の画像と基準画像Bとの
距離を求めると共に、テクスチャの特徴量に基づいて分
類対象の画像と基準画像Cとの距離を求める。
The processing in step S1401 will be specifically described with reference to the folder 352 as an example. The matching engine 153 refers to the folder information of the classification tree DB 302, and determines the similarity between the reference image A set in the folder 352 (see the classification condition setting window 360b in FIG. 38) and the classification target image by using the color feature amount. Is determined using That is, the matching engine 153
The distance between the image to be classified and the reference image A plotted in the feature amount space shown in FIG. 4 based on the color feature amount is obtained using a vector distance definition formula such as a Euclidean distance. Similarly, the matching engine 153 calculates the distance between the image to be classified and the reference image B based on the feature amount of the structure, and calculates the distance between the image to be classified and the reference image C based on the feature amount of the texture. Ask.

【0376】その後、マッチング・エンジン153は、
分類対象の画像と各基準画像A,BおよびCとの距離を
合計し、距離の合計値を総合類似度とする(数2を参
照)。マッチング・エンジン153は、このようにして
フォルダ352〜358毎に総合類似度を求める。
After that, the matching engine 153
The distances between the image to be classified and each of the reference images A, B, and C are summed, and the sum of the distances is used as the overall similarity (see Equation 2). The matching engine 153 obtains the total similarity for each of the folders 352 to 358 in this way.

【0377】続いて、マッチング・エンジン153は、
フォルダ352〜358毎に、ステップS1401で求
めた分類対象の画像の総合類似度が閾値を超えるか否か
を判定する(S1402)。ただし、ここでは類似度と
して距離を用いており、距離が短い(距離の値が小さ
い)ほど類似性が高いことになるため、実際には、総合
類似度が閾値以下(または未満)であるか否かを判定す
ることになる。
Subsequently, the matching engine 153
For each of the folders 352 to 358, it is determined whether or not the total similarity of the images to be classified obtained in step S1401 exceeds a threshold (S1402). However, here, the distance is used as the similarity, and the shorter the distance (the smaller the value of the distance), the higher the similarity. Therefore, in practice, whether the total similarity is equal to or less than (or less than) the threshold value It will be determined whether or not.

【0378】そして、マッチング・エンジン153は、
分類対象の画像の総合類似度が閾値を超えるフォルダに
分類対象の画像を分類する(S1403)。すなわち、
マッチング・エンジン153は、分類対象の画像の総合
類似度が閾値を超える場合、そのフォルダを分類対象の
画像の分類先として決定し、分類木DB302中に登録
された該当するフォルダのフォルダ情報に関連付けて分
類対象の画像のID(予め設定されているものとする)
を分類木DB302に登録する。
Then, the matching engine 153
The images to be classified are classified into folders in which the overall similarity of the images to be classified exceeds a threshold (S1403). That is,
When the overall similarity of the image to be classified exceeds the threshold, the matching engine 153 determines the folder as a classification destination of the image to be classified and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302. ID of the image to be classified (assumed to be preset)
Is registered in the classification tree DB 302.

【0379】以上説明したステップS1401〜S14
03の処理を画像DB108中に登録されている各画像
に対して実行することにより、画像DB108中の画像
を分類することができる。また、マッチング・エンジン
153は、各フォルダ352〜358に分類された画像
のうち、最も高い総合類似度(距離で表現すれば最も小
さい総合類似度)を持つ画像を代表画像として選択し、
該当するフォルダ情報に関連付けて分類木DB302に
登録する。なお、フォルダ毎に得られた総合類似度に応
じて、分類対象の画像は2以上のフォルダに分類される
こともあり得る。画像の分類処理が実行されると、図3
8の画像分類ウインドウ350bの各フォルダ352〜
358には、図37に示すように代表画像が表示され
る。
Steps S1401 to S14 described above
By executing the process 03 on each image registered in the image DB 108, the images in the image DB 108 can be classified. Further, the matching engine 153 selects, as a representative image, an image having the highest overall similarity (smallest overall similarity expressed in terms of distance) among the images classified into the folders 352 to 358,
The information is registered in the classification tree DB 302 in association with the corresponding folder information. It should be noted that the images to be classified may be classified into two or more folders according to the overall similarity obtained for each folder. When the image classification process is executed, FIG.
8 of the image classification window 350b
At 358, a representative image is displayed as shown in FIG.

【0380】このように、実施の形態15に係る画像分
類装置によれば、フォルダを設定し、設定したフォルダ
毎に、基準画像を複数設定すると共に、設定した各基準
画像毎に分類対象の画像との類似度を求める際に使用す
る特徴量の種類を設定し、フォルダ毎に、設定された種
類の特徴量を用いて各基準画像および分類対象の画像の
類似度を求めると共に、求めた類似度を合計して総合類
似度を求め、フォルダ毎に求めた総合類似度および予め
設定された分類先決定基準に基づいて分類対象の画像の
分類先となるフォルダを決定することにより、ユーザの
意図を分類条件として正確に表現できるため、ユーザの
意図を正確に装置に伝えることができると共に、分類に
対するユーザの意図を確実に装置に伝えることができる
ため、分類に対するユーザの意図を正確に反映した分類
結果を得ることができ、ユーザが望む通りの分類処理を
実現することができる。
As described above, according to the image classification apparatus of the fifteenth embodiment, a folder is set, a plurality of reference images are set for each set folder, and an image to be classified is set for each set reference image. The type of the feature amount used when obtaining the similarity with the target image is set. For each folder, the similarity between each reference image and the image to be classified is obtained using the set type of the characteristic amount, and the obtained similarity is determined. By calculating the total similarity by summing the degrees and determining the folder to which the image to be classified is to be classified based on the total similarity obtained for each folder and a preset classification destination determination criterion, the user's intention is determined. Can be accurately expressed as a classification condition, so that the user's intention can be accurately transmitted to the device, and the user's intention for the classification can be reliably transmitted to the device. It is possible to obtain a classification result that accurately reflects the intention of the user, it is possible to realize the classification process as the user desires.

【0381】例えば、基準画像として適切な画像が存在
しない場合であっても、分類結果として望む画像に色の
雰囲気が似た画像やオブジェクトの形状の雰囲気が似た
画像を基準画像として指定し、これらの画像を合わせた
ものを一つの問合せ画像として使用することができる。
For example, even if there is no suitable image as a reference image, an image having a similar color atmosphere to an image desired as a classification result or an image having a similar object shape atmosphere is designated as a reference image. A combination of these images can be used as one query image.

【0382】なお、ここでは色,構造およびテクスチャ
の3種類の特徴量を用いることにしたが、これらはあく
までも例示であって、特徴量の種類を限定することを意
図したものではない。
Although the three types of feature amounts of color, structure, and texture are used here, these are merely examples, and are not intended to limit the types of feature amounts.

【0383】さらに、詳細な説明については省略する
が、画像DB108に新たに画像が登録された場合、そ
の画像についても分類処理を行うことにより、画像DB
108中の画像を常に分類した状態に保つことができ
る。例えば、U/I部151が画像DB108の状態を
監視することにすれば、人手を要することなく、画像D
B108中の画像を常に分類した状態に保つことができ
る。
Although a detailed description will be omitted, when a new image is registered in the image DB 108, the image is also classified by performing a classification process.
The images in 108 can always be kept in a classified state. For example, if the U / I unit 151 monitors the state of the image DB 108, the image D
The image in B108 can always be kept in a classified state.

【0384】〔実施の形態16〕実施の形態16に係る
画像分類装置は、実施の形態15の画像分類装置におい
て、実施の形態3で説明した画像検索処理を応用するこ
とにより、分類に対するユーザの意図をさらに正確に表
現できるようにしたものである。なお、実施の形態16
において、実施の形態14で既に説明した構成について
は同一の符号を使用して詳細な説明を省略し、画像分類
装置の動作についても共通する点については適宜説明を
省略する。
[Embodiment 16] The image classifying apparatus according to the sixteenth embodiment differs from the image classifying apparatus according to the fifteenth embodiment in that the image search processing described in the third embodiment is applied to enable the user to classify the image. It is intended to express the intention more accurately. Embodiment 16
In the description of the configuration already described in the fourteenth embodiment, the same reference numerals are used to omit a detailed description, and a description of the common operation of the image classification device is omitted as appropriate.

【0385】以下に、実施の形態16に係る画像分類装
置の動作について、 (1)分類項目設定処理 (2)画像分類処理 の順で説明する。
The operation of the image classification device according to the sixteenth embodiment will be described below in the order of (1) classification item setting processing and (2) image classification processing.

【0386】(1)分類項目設定処理 図39は、実施の形態16に係る画像分類装置において
用いられる画像分類ウインドウ350cを示す説明図で
ある。ここで、ユーザは、フォルダ352を作成したも
のとし、フォルダ352に分類条件を設定するため、図
39に示すような分類条件設定ウインドウ360cを表
示させる。
(1) Classification Item Setting Process FIG. 39 is an explanatory diagram showing an image classification window 350c used in the image classification device according to the sixteenth embodiment. Here, it is assumed that the user has created the folder 352, and displays a classification condition setting window 360c as shown in FIG. 39 to set the classification condition in the folder 352.

【0387】図39に示す分類条件設定ウインドウ36
0cは、図38に示したものに加えて(実施の形態3の
検索ウインドウ200cに示すように)、画像指定欄
A,BおよびCに指定された各基準画像毎に相対的な重
要度を指定する重要度指定バー363を備えている。
A classification condition setting window 36 shown in FIG.
0c indicates the relative importance of each reference image specified in the image specification columns A, B, and C in addition to the one shown in FIG. 38 (as shown in the search window 200c of the third embodiment). A designated importance designation bar 363 is provided.

【0388】ユーザは、図39に示すように、例えば3
枚の画像をそれぞれ画像指定欄A,BおよびCに基準画
像A,BおよびCとして指定し、指定した基準画像A,
BおよびC毎に分類対象の画像との類似度を求める際に
使用する特徴量の種類を指定する。
[0387] As shown in FIG.
The images are designated as reference images A, B, and C in image designation columns A, B, and C, respectively, and the designated reference images A, B, and C are designated.
For each of B and C, the type of the feature amount used when obtaining the similarity with the image to be classified is designated.

【0389】続いて、実施の形態3の重要度指定バー2
04で説明したように、ユーザは重要度指定バー363
を用いて各基準画像に重要度を指定する。この重要度指
定バー363は、各基準画像毎に「0」を中心にして
「+」の重要度および「−」の重要度を指定することを
可能とするものである。なお、重要度として「+」方向
および「−」方向の両方ではなく、「+」方向のみ、ま
たは「−」方向のみを指定できるようにしても良い。
Subsequently, the importance designation bar 2 of the third embodiment
As described with reference to FIG.
Is used to designate the importance for each reference image. The importance designation bar 363 enables designation of importance of “+” and importance of “−” centering on “0” for each reference image. In addition, only the "+" direction or only the "-" direction may be designated as the importance, not both the "+" direction and the "-" direction.

【0390】このように、基準画像毎にユーザが重要度
を指定することにより、分類に対するユーザの意図を正
確に表現することが可能となる。すなわち、後述する分
類処理によって、重要度は類似度に対する重み付けとし
て反映されるため、ユーザの意図が反映された分類結果
の画像を得ることが可能となる。
As described above, by specifying the importance for each reference image, it is possible to accurately express the user's intention for classification. That is, the importance is reflected as a weight to the similarity by the classification processing described later, so that it is possible to obtain an image of the classification result reflecting the intention of the user.

【0391】さらに、ユーザはフォルダ352の閾値を
指定し、設定ボタン361を選択すると、U/I部15
1は、基準画像,特徴量の種類,重要度および閾値を分
類条件としてフォルダ352に設定する。
Further, when the user specifies the threshold value of the folder 352 and selects the setting button 361, the U / I unit 15
1 sets the reference image, the type of feature amount, the importance, and the threshold value in the folder 352 as classification conditions.

【0392】このような処理を各フォルダに対して行う
ことにより、図39に示すような複数のフォルダ352
〜358が分類対象の画像を分類するための分類項目と
して設定される。設定されたフォルダのフォルダ情報
は、分類木DB302に登録される。
By performing such processing for each folder, a plurality of folders 352 as shown in FIG.
358 are set as classification items for classifying images to be classified. The folder information of the set folder is registered in the classification tree DB 302.

【0393】(2)画像分類処理 図40は、実施の形態16の画像分類処理を示すフロー
チャートである。ユーザが分類処理の開始を指示する
と、図34のマッチング・エンジン153は、フォルダ
352〜358毎に、ユーザが指定した種類の特徴量を
用いて各基準画像および分類対象の画像との類似度を求
め、求めた各類似度に対して重要度に応じた重み付けを
行い、各類似度を合計して分類対象の画像の総合類似度
を求める処理を実行する(S1601)。
(2) Image Classification Processing FIG. 40 is a flowchart showing an image classification processing according to the sixteenth embodiment. When the user instructs the start of the classification process, the matching engine 153 of FIG. 34 uses each of the folders 352 to 358 to determine the similarity between each reference image and the image to be classified using the type of feature amount designated by the user. The obtained similarities are weighted according to the importance, and the similarities are totaled to execute a process of obtaining the overall similarity of the image to be classified (S1601).

【0394】このステップS1601における処理につ
いてフォルダ352を例にとって具体的に説明する。マ
ッチング・エンジン153は、分類木DB302のフォ
ルダ情報を参照し、フォルダ352に設定された基準画
像A(図39の分類条件設定ウインドウ360cを参
照)および分類対象の画像の類似度を色の特徴量を用い
て求める。すなわち、マッチング・エンジン153は、
色の特徴量に基づいて図4に示した特徴量空間中にプロ
ットされた分類対象の画像と基準画像Aとの距離を例え
ばユークリッド距離などのベクトルの距離定義式を用い
て求める。続いて、マッチング・エンジン153は、求
めた距離に対し、ユーザが指定した基準画像Aの重要度
に応じて重み付けを行う。マッチング・エンジン153
は、同様に、構造の特徴量に基づいて分類対象の画像と
基準画像Bとの距離を求め、求めた距離に対して基準画
像Bの重要度に応じた重み付けを行うと共に、テクスチ
ャの特徴量に基づいて分類対象の画像と基準画像Cとの
距離を求め、求めた距離に対して基準画像Cの重要度に
応じた重み付けを行う。
The processing in step S1601 will be specifically described with reference to the folder 352 as an example. The matching engine 153 refers to the folder information of the classification tree DB 302, and determines the similarity between the reference image A (see the classification condition setting window 360c in FIG. 39) set in the folder 352 and the classification target image by using the color feature amount. Is determined using That is, the matching engine 153
The distance between the image to be classified and the reference image A plotted in the feature amount space shown in FIG. 4 based on the color feature amount is obtained using a vector distance definition formula such as a Euclidean distance. Subsequently, the matching engine 153 weights the obtained distance according to the importance of the reference image A specified by the user. Matching engine 153
Similarly, the distance between the image to be classified and the reference image B is obtained based on the feature amount of the structure, the obtained distance is weighted according to the importance of the reference image B, and the feature amount of the texture is obtained. , The distance between the image to be classified and the reference image C is obtained, and the obtained distance is weighted according to the importance of the reference image C.

【0395】その後、マッチング・エンジン153は、
分類対象の画像と各基準画像A,BおよびCとの距離を
合計し、距離の合計値を総合類似度とする(数3を参
照)。マッチング・エンジン153は、このようにして
フォルダ352〜358毎に総合類似度を求める。
Then, the matching engine 153
The distance between the image to be classified and each of the reference images A, B, and C is totaled, and the total value of the distances is used as the overall similarity (see Equation 3). The matching engine 153 obtains the total similarity for each of the folders 352 to 358 in this way.

【0396】続いて、マッチング・エンジン153は、
フォルダ352〜358毎に、ステップS1601で求
めた総合類似度が閾値を超えるか否かを判定する(S1
602)。ただし、ここでは類似度として距離を用いて
おり、距離が短い(距離の値が小さい)ほど類似性が高
いことになるため、実際には、総合類似度が閾値以下
(または未満)であるか否かを判定することになる。
Subsequently, the matching engine 153
It is determined for each of the folders 352 to 358 whether or not the total similarity calculated in step S1601 exceeds a threshold (S1).
602). However, here, the distance is used as the similarity, and the shorter the distance (the smaller the value of the distance), the higher the similarity. Therefore, in practice, whether the total similarity is equal to or less than (or less than) the threshold value It will be determined whether or not.

【0397】そして、マッチング・エンジン153は、
求めた総合類似度が閾値を超えるフォルダに分類対象の
画像を分類する(S1603)。すなわち、マッチング
・エンジン153は、求めた総合類似度が閾値を超える
フォルダを分類対象の画像の分類先として決定し、分類
木DB302中に登録された該当するフォルダのフォル
ダ情報に関連付けて分類対象の画像のID(予め設定さ
れているものとする)を分類木DB302に登録する。
Then, the matching engine 153
The images to be classified are classified into folders in which the calculated overall similarity exceeds the threshold (S1603). In other words, the matching engine 153 determines a folder in which the calculated overall similarity exceeds the threshold as a classification destination of the image to be classified, and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302 to determine the classification target. An image ID (preset) is registered in the classification tree DB 302.

【0398】以上説明したステップS1601〜S16
03の処理を画像DB108中に登録されている各画像
に対して実行することにより、画像DB108中の画像
を分類することができる。また、マッチング・エンジン
153は、各フォルダ352〜358に分類された画像
のうち、最も高い総合類似度(距離で表現すれば最も小
さい総合類似度)を持つ画像を代表画像として選択し、
該当するフォルダ情報に関連付けて分類木DB302に
登録する。画像の分類処理が実行されると、図39の画
像分類ウインドウ350cの各フォルダ352〜358
には、図37に示すように代表画像が表示される。
Steps S1601-S16 explained above
By executing the process 03 on each image registered in the image DB 108, the images in the image DB 108 can be classified. Further, the matching engine 153 selects, as a representative image, an image having the highest overall similarity (smallest overall similarity expressed in terms of distance) among the images classified into the folders 352 to 358,
The information is registered in the classification tree DB 302 in association with the corresponding folder information. When the image classification processing is executed, the folders 352 to 358 of the image classification window 350c in FIG.
Displays a representative image as shown in FIG.

【0399】このように、実施の形態16に係る画像分
類装置によれば、求めた類似度に対し、基準画像の種類
に応じて任意の重み付けを行うことができるように、各
基準画像毎に重要度を設定することが可能であり、フォ
ルダ毎に、各基準画像および分類対象の画像の類似度を
求め、求めた類似度に対し、設定された重要度に応じた
重み付けを行うことにより、ユーザの意図を分類条件と
して正確に表現できるため、ユーザの意図を正確に装置
に伝えることが可能となると共に、重要度は類似度に対
する重み付けとして反映されるため、ユーザの意図が反
映された画像の分類結果を得ることが可能となる。
As described above, according to the image classification apparatus of the sixteenth embodiment, the obtained similarity can be arbitrarily weighted in accordance with the type of the reference image. It is possible to set the degree of importance, for each folder, determine the similarity of each reference image and the image of the classification target, by weighting the obtained similarity according to the set importance, Since the user's intention can be accurately expressed as a classification condition, it is possible to accurately convey the user's intention to the device, and the importance is reflected as a weight for the similarity, so that the image reflecting the user's intention is reflected. Can be obtained.

【0400】なお、詳細な説明については省略するが、
実施の形態14で説明した画像分類装置においても、実
施の形態16で説明したように各問合せ画像毎に重要度
を指定することができるようにしても良い。
Although detailed description is omitted,
Also in the image classification device described in the fourteenth embodiment, the importance may be specified for each query image as described in the sixteenth embodiment.

【0401】〔実施の形態17〕実施の形態17に係る
画像分類装置は、ユーザの意図を分類条件として正確に
表現するための一つの手法として、実施の形態4で説明
したAND検索を応用した画像分類処理を行うものであ
る。なお、実施の形態17に係る画像分類装置におい
て、実施の形態14で既に説明した構成については同一
の符号を使用して詳細な説明を省略し、画像分類装置の
動作についても共通する点については適宜説明を省略す
る。また、実施の形態17に係る画像分類装置において
は、画像間の類似度を求める際に用いる特徴量は一種類
であるものとするが、当然、複数種類の特徴量を用いる
ことにしても良い。
[Embodiment 17] The image classification device according to the embodiment 17 applies the AND search described in the embodiment 4 as one method for accurately expressing the user's intention as the classification condition. Image classification processing is performed. In the image classification device according to the seventeenth embodiment, the components already described in the fourteenth embodiment are denoted by the same reference numerals, detailed description thereof is omitted, and the operation of the image classification device is common. A description will be appropriately omitted. Further, in the image classification device according to the seventeenth embodiment, one type of feature amount is used when obtaining the similarity between images, but it is needless to say that a plurality of types of feature amounts may be used. .

【0402】以下に、実施の形態17に係る画像分類装
置の動作について、 (1)分類項目設定処理 (2)画像分類処理 の順で説明する。
The operation of the image classification device according to the seventeenth embodiment will be described below in the order of (1) classification item setting processing and (2) image classification processing.

【0403】(1)分類項目設定処理 図41は、実施の形態17に係る画像分類装置において
用いられる画像分類ウインドウ350dを示す説明図で
ある。ここで、ユーザは、フォルダ352を作成したも
のとし、フォルダ352に分類条件を設定するため、図
41に示すような分類条件設定ウインドウ360dを表
示させる。
(1) Classification Item Setting Process FIG. 41 is an explanatory diagram showing an image classification window 350d used in the image classification device according to the seventeenth embodiment. Here, it is assumed that the user has created the folder 352, and displays a classification condition setting window 360d as shown in FIG. 41 to set the classification condition in the folder 352.

【0404】図41に示す分類条件設定ウインドウ36
0dは、画像指定欄A,BおよびC,ならびに設定ボタ
ン361に加え、AND条件を指定するためのAND指
定ボタン364およびOR条件を指定するためのOR指
定ボタン365が設けられている点である。なお、OR
条件については、後述する実施の形態21において詳細
に説明する。
A classification condition setting window 36 shown in FIG.
0d is provided with an AND designation button 364 for designating an AND condition and an OR designation button 365 for designating an OR condition, in addition to the image designation fields A, B and C and the setting button 361. . Note that OR
The conditions will be described in detail in Embodiment 21 described later.

【0405】ユーザは、図41に示すように、例えば3
枚の画像をそれぞれ画像指定欄A,BおよびCに基準画
像A,BおよびCとして指定し、AND指定ボタン36
4を選択してAND条件を指定する。さらに、ユーザが
フォルダ352の閾値を指定し、設定ボタン361を指
定すると、U/I部151は、基準画像,AND条件の
指定および閾値を分類条件としてフォルダ352に設定
する。
The user, as shown in FIG.
The images are designated as reference images A, B, and C in image designation columns A, B, and C, respectively, and an AND designation button 36
Select 4 to specify the AND condition. Further, when the user specifies the threshold value of the folder 352 and specifies the setting button 361, the U / I unit 151 sets the specification of the reference image and the AND condition and the threshold value as the classification condition in the folder 352.

【0406】このような処理を各フォルダに対して行う
ことにより、図41に示すような複数のフォルダ352
〜358が分類対象の画像を分類するための分類項目と
して設定される。なお、設定されたフォルダのフォルダ
情報は、分類木DB302に登録される。
By performing such processing on each folder, a plurality of folders 352 as shown in FIG.
358 are set as classification items for classifying images to be classified. The folder information of the set folder is registered in the classification tree DB 302.

【0407】(2)画像分類処理 実施の形態17の画像分類処理について図36を参照し
つつ説明する。ユーザが分類処理の開始を指示すると、
図34のマッチング・エンジン153は、フォルダ35
2〜358毎に、所定の特徴量を用いて各基準画像およ
び分類対象の画像の類似度を求め、求めた類似度を合計
して分類対象の画像の総合類似度を求める処理を実行す
る(S1401)。
(2) Image Classification Processing The image classification processing of the seventeenth embodiment will be described with reference to FIG. When the user instructs to start the classification process,
The matching engine 153 in FIG.
For each of 2 to 358, a process of calculating the similarity between each reference image and the image to be classified using a predetermined feature amount, and summing up the obtained similarities to obtain the overall similarity of the image to be classified is executed ( S1401).

【0408】このステップS1401における処理につ
いてフォルダ352を例にとって具体的に説明する。マ
ッチング・エンジン153は、分類木DB302のフォ
ルダ情報を参照し、フォルダ352に設定された基準画
像A(図41の分類条件設定ウインドウ360dを参
照)および分類対象の画像の類似度を所定の特徴量を用
いて求める。すなわち、マッチング・エンジン153
は、所定の特徴量に基づいて図4に示した特徴量空間中
にプロットされた分類対象の画像と基準画像Aとの距離
を例えばユークリッド距離などのベクトルの距離定義式
を用いて求める。マッチング・エンジン153は、同様
に、所定の特徴量に基づいて分類対象の画像と基準画像
Bとの距離を求めると共に、分類対象の画像と基準画像
Cとの距離を求める。
[0408] The processing in step S1401 will be specifically described using the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302, and determines the similarity between the reference image A (see the classification condition setting window 360d in FIG. 41) set in the folder 352 and the classification target image by a predetermined feature amount. Is determined using That is, the matching engine 153
Calculates the distance between the image to be classified and the reference image A plotted in the feature amount space shown in FIG. 4 based on a predetermined feature amount using a distance definition formula of a vector such as a Euclidean distance. Similarly, the matching engine 153 calculates the distance between the classification target image and the reference image B based on the predetermined feature amount, and also calculates the distance between the classification target image and the reference image C.

【0409】その後、マッチング・エンジン153は、
分類対象の画像と各基準画像A,BおよびCとの距離を
合計し、距離の合計値を総合類似度とする(数4を参
照)。なお、複数種類の特徴量を用いて各基準画像およ
び分類対象の画像の類似度を求める場合は、各種類の特
徴量毎に分類対象の画像および各基準画像の類似度(距
離)を求め、分類対象の画像毎に、各基準画像に対する
全ての類似度を合計して総合類似度を求めれば良い。マ
ッチング・エンジン153は、このようにしてフォルダ
352〜358毎に総合類似度を求める。
Then, the matching engine 153
The distances between the image to be classified and each of the reference images A, B, and C are summed, and the sum of the distances is used as the overall similarity (see Equation 4). When the similarity between each reference image and the image to be classified is determined using a plurality of types of feature amounts, the similarity (distance) between the image to be classified and each reference image is determined for each type of feature amount, The total similarity may be obtained by summing all the similarities for each reference image for each image to be classified. The matching engine 153 obtains the total similarity for each of the folders 352 to 358 in this way.

【0410】続いて、マッチング・エンジン153は、
フォルダ352〜358毎に、ステップS1401で求
めた総合類似度が閾値を超えるか否かを判定する(S1
402)。ただし、ここでは、類似度として距離を用い
ており、距離が短い(距離の値が小さい)ほど類似性が
高いことになるため、実際には、総合類似度が閾値以下
(または未満)であるか否かを判定することになる。
Next, the matching engine 153
It is determined for each of the folders 352 to 358 whether or not the total similarity calculated in step S1401 exceeds a threshold (S1).
402). However, here, distance is used as the similarity, and the shorter the distance (the smaller the value of the distance), the higher the similarity. Therefore, the total similarity is actually equal to or less than (or less than) the threshold. Will be determined.

【0411】そして、マッチング・エンジン153は、
求めた総合類似度が閾値を超えるフォルダに分類対象の
画像を分類する(S1403)。すなわち、マッチング
・エンジン153は、求めた総合類似度が閾値を超える
フォルダを分類対象の画像の分類先として決定し、分類
木DB302中に登録された該当するフォルダのフォル
ダ情報に関連付けて分類対象の画像のID(予め設定さ
れているものとする)を分類木DB302に登録する。
[0411] Then, the matching engine 153
The images to be classified are classified into folders in which the calculated overall similarity exceeds the threshold (S1403). In other words, the matching engine 153 determines a folder in which the calculated overall similarity exceeds the threshold as a classification destination of the image to be classified, and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302 to determine the classification target. An image ID (preset) is registered in the classification tree DB 302.

【0412】以上説明したステップS1401〜S14
03の処理を画像DB108中に登録されている各画像
に対して実行することにより、画像DB108中の画像
を分類することができる。また、マッチング・エンジン
153は、各フォルダ352〜358に分類された画像
のうち、最も高い総合類似度(距離で表現すれば最も小
さい総合類似度)を持つ検索対象の画像を代表画像とし
て選択し、該当するフォルダ情報に関連付けて分類木D
B302に登録する。画像の分類処理が実行されると、
図41の画像分類ウインドウ350dの各フォルダ35
2〜358には、図37に示すように代表画像が表示さ
れる。
Steps S1401 to S14 described above
By executing the process 03 on each image registered in the image DB 108, the images in the image DB 108 can be classified. Further, the matching engine 153 selects, as a representative image, a search target image having the highest overall similarity (the smallest overall similarity expressed in terms of distance) among the images classified into the folders 352 to 358. , A classification tree D associated with the corresponding folder information
Register in B302. When the image classification process is performed,
Each folder 35 in the image classification window 350d in FIG.
In 2 to 358, representative images are displayed as shown in FIG.

【0413】このように、実施の形態17に係る画像分
類装置によれば、フォルダを設定し、設定したフォルダ
毎に、基準画像を複数設定し、フォルダ毎に、設定され
た各基準画像および分類対象の画像の類似度を求めると
共に、求めた類似度を合計して総合類似度を求め、フォ
ルダ毎に求めた総合類似度および予め設定された分類先
決定基準に基づいて分類対象の画像の分類先となるフォ
ルダを決定するため、AND検索処理を応用した画像分
類処理を行うことが可能となる。したがって、新たな分
類方法で画像を分類可能な画像分類装置を提供すること
ができる。
As described above, according to the image classification device of the seventeenth embodiment, a folder is set, a plurality of reference images are set for each set folder, and each set reference image and classification are set for each folder. The similarity of the target image is obtained, and the obtained similarities are summed to obtain an overall similarity. The classification of the image to be classified is performed based on the overall similarity obtained for each folder and a preset classification destination determination criterion. In order to determine the destination folder, it is possible to perform image classification processing applying AND search processing. Therefore, it is possible to provide an image classification device capable of classifying images by a new classification method.

【0414】なお、実施の形態17においては、特徴量
の種類を特に示さなかったが、色,構造およびテクスチ
ャ等、いかなる種類の特徴量であっても単独でまたは複
数組み合わせて用いることができる。
[0414] In the seventeenth embodiment, the types of the characteristic amounts are not particularly shown. However, any type of characteristic amounts such as colors, structures, and textures can be used alone or in combination.

【0415】さらに、詳細な説明については省略する
が、画像DB108に新たに画像が登録された場合、そ
の画像についても分類処理を行うことにより、画像DB
108中の画像を常に分類した状態に保つことができ
る。例えば、U/I部151が画像DB108の状態を
監視することにすれば、人手を要することなく、画像D
B108中の画像を常に分類した状態に保つことができ
る。
[0415] Further, although a detailed description is omitted, when a new image is registered in the image DB 108, the image is also classified by performing a classification process.
The images in 108 can always be kept in a classified state. For example, if the U / I unit 151 monitors the state of the image DB 108, the image D
The image in B108 can always be kept in a classified state.

【0416】〔実施の形態18〕実施の形態18に係る
画像分類装置は、実施の形態17の画像分類装置におい
て、実施の形態5で説明した画像検索処理を応用するこ
とにより、分類に対するユーザの意図を正確に表現でき
るようにしたものである。
[Embodiment 18] The image classifying apparatus according to the eighteenth embodiment differs from the image classifying apparatus according to the seventeenth embodiment in that the image search processing described in the fifth embodiment is applied so that the user It is intended to express the intention accurately.

【0417】以下に、実施の形態18に係る画像分類装
置の動作について、 (1)分類項目設定処理 (2)画像分類処理 の順で説明する。
The operation of the image classification device according to the eighteenth embodiment will be described below in the order of (1) classification item setting processing and (2) image classification processing.

【0418】(1)分類項目設定処理 図42は、実施の形態18に係る画像分類装置において
用いられる画像分類ウインドウ350eを示す説明図で
ある。ここで、ユーザは、フォルダ352を作成したも
のとし、フォルダ352に分類条件を設定するため、図
42に示すような分類条件設定ウインドウ360eを表
示させる。
(1) Classification Item Setting Process FIG. 42 is an explanatory diagram showing an image classification window 350e used in the image classification device according to the eighteenth embodiment. Here, it is assumed that the user has created the folder 352, and displays a classification condition setting window 360e as shown in FIG. 42 to set the classification condition in the folder 352.

【0419】図42に示す分類条件設定ウインドウ36
0eは、図41に示した分類条件設定ウインドウ360
dに加えて、画像指定欄A,BおよびCに指定された各
基準画像間の相対的な重要度を指定する重要度指定バー
366を備えている。
A classification condition setting window 36 shown in FIG.
0e is the classification condition setting window 360 shown in FIG.
In addition to d, an importance designation bar 366 for designating relative importance between the respective reference images designated in the image designation columns A, B and C is provided.

【0420】ユーザは、図42に示すように、例えば3
枚の画像をそれぞれ画像指定欄A,BおよびCに基準画
像A,BおよびCとして指定すると共に、重要度指定バ
ー366を用いて基準画像A,BおよびC毎に重要度を
指定する。この重要度指定バー366は、実施の形態5
の重要度指定バー207で説明したように、各基準画像
毎に「0」を中心にして「+」の重要度および「−」の
重要度を指定することを可能にするものである。なお、
重要度として「+」方向および「−」方向の両方ではな
く、「+」方向のみ、または「−」方向のみを指定でき
るようにしても良い。
[0420] As shown in FIG.
The images are designated as reference images A, B, and C in image designation columns A, B, and C, respectively, and the importance is designated for each of the reference images A, B, and C using an importance designation bar 366. This importance designation bar 366 is used in the fifth embodiment.
As described with reference to the importance designation bar 207, it is possible to designate the importance of "+" and the importance of "-" centering on "0" for each reference image. In addition,
As the degree of importance, not only the "+" direction and the "-" direction, but also the "+" direction or only the "-" direction may be specified.

【0421】このように、基準画像毎にユーザが重要度
を指定することにより、分類に対するユーザの意図を正
確に表現することが可能となる。すなわち、後述する分
類処理によって、重要度は類似度に対する重み付けとし
て反映されるため、ユーザの意図が反映された分類結果
の画像を得ることが可能となる。
As described above, by specifying the importance for each reference image, the user's intention for classification can be accurately expressed. That is, the importance is reflected as a weight to the similarity by the classification processing described later, so that it is possible to obtain an image of the classification result reflecting the intention of the user.

【0422】さらに、ユーザがAND指定ボタン364
を選択してAND条件を指定すると共に、フォルダ35
2の閾値を指定した後、設定ボタン361を指定する
と、U/I部151は、基準画像,重要度,AND条件
の指定および閾値を分類条件としてフォルダ352に設
定する。
[0422] Further, the user can select the AND button 364.
And specify the AND condition, and
When the setting button 361 is specified after specifying the threshold value of 2, the U / I unit 151 sets the reference image, the importance, the specification of the AND condition, and the threshold value in the folder 352 as the classification condition.

【0423】このような処理を各フォルダに対して行う
ことにより、図42に示すような複数のフォルダ352
〜358が分類対象の画像を分類するための分類項目と
して設定される。なお、設定された各フォルダのフォル
ダ情報は、分類木DB302に登録される。
By performing such processing for each folder, a plurality of folders 352 as shown in FIG.
358 are set as classification items for classifying images to be classified. The folder information of each set folder is registered in the classification tree DB 302.

【0424】(2)画像分類処理 実施の形態18の画像分類処理について図40を参照し
つつ説明する。ユーザが分類処理の開始を指示すると、
図34のマッチング・エンジン153は、フォルダ35
2〜358毎に、所定の特徴量を用いて各基準画像およ
び分類対象の画像との類似度を求め、求めた各類似度に
対して重要度に応じた重み付けを行い、各類似度を合計
して総合類似度を求める処理を実行する(S160
1)。
(2) Image Classification Processing The image classification processing of the eighteenth embodiment will be described with reference to FIG. When the user instructs to start the classification process,
The matching engine 153 in FIG.
For each 2 to 358, a similarity between each reference image and the image to be classified is obtained using a predetermined feature amount, and each obtained similarity is weighted according to importance, and each similarity is summed. (S160)
1).

【0425】このステップS1601における処理につ
いてフォルダ352を例にとって具体的に説明する。マ
ッチング・エンジン153は、分類木DB302のフォ
ルダ情報を参照し、フォルダ352に設定された基準画
像A(図42の分類条件設定ウインドウ360eを参
照)および分類対象の画像の類似度を所定の特徴量を用
いて求める。すなわち、マッチング・エンジン153
は、所定の特徴量に基づいて図4に示した特徴量空間中
にプロットされた分類対象の画像と基準画像Aとの距離
を例えばユークリッド距離などのベクトルの距離定義式
を用いて求める。続いて、マッチング・エンジン153
は、求めた距離に対し、ユーザが指定した基準画像Aの
重要度に応じて重み付けを行う。マッチング・エンジン
153は、同様に、所定の特徴量に基づいて分類対象の
画像と基準画像Bとの距離を求め、求めた距離に対して
基準画像Bの重要度に応じた重み付けを行うと共に、所
定の特徴量に基づいて分類対象の画像と基準画像Cとの
距離を求め、求めた距離に対して基準画像Cの重要度に
応じた重み付けを行う。
[0425] The processing in step S1601 will be specifically described using the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302, and determines the similarity between the reference image A (see the classification condition setting window 360e in FIG. 42) set in the folder 352 and the classification target image by a predetermined feature amount. Is determined using That is, the matching engine 153
Calculates the distance between the image to be classified and the reference image A plotted in the feature amount space shown in FIG. 4 based on a predetermined feature amount using a distance definition formula of a vector such as a Euclidean distance. Then, the matching engine 153
Performs weighting on the obtained distance in accordance with the importance of the reference image A specified by the user. Similarly, the matching engine 153 obtains the distance between the image to be classified and the reference image B based on the predetermined feature amount, weights the obtained distance according to the importance of the reference image B, The distance between the image to be classified and the reference image C is obtained based on the predetermined feature amount, and the obtained distance is weighted according to the importance of the reference image C.

【0426】その後、マッチング・エンジン153は、
分類対象の画像と各基準画像A,BおよびCとの距離を
合計し、距離の合計値を総合類似度とする(数5を参
照)。マッチング・エンジン153は、このようにして
フォルダ352〜358毎に総合類似度を求める。
Thereafter, the matching engine 153
The distances between the image to be classified and each of the reference images A, B, and C are summed, and the sum of the distances is used as the overall similarity (see Equation 5). The matching engine 153 obtains the total similarity for each of the folders 352 to 358 in this way.

【0427】続いて、マッチング・エンジン153は、
フォルダ352〜358毎に、ステップS1601で求
めた総合類似度が閾値を超えるか否かを判定する(S1
602)。ただし、ここでは類似度として距離を用いて
おり、距離が短い(距離の値が小さい)ほど類似性が高
いことになるため、実際には、総合類似度が閾値以下
(または未満)であるか否かを判定することになる。
Subsequently, the matching engine 153
It is determined for each of the folders 352 to 358 whether or not the total similarity calculated in step S1601 exceeds a threshold (S1).
602). However, here, the distance is used as the similarity, and the shorter the distance (the smaller the value of the distance), the higher the similarity. Therefore, in practice, whether the total similarity is equal to or less than (or less than) the threshold value It will be determined whether or not.

【0428】そして、マッチング・エンジン153は、
求めた総合類似度が閾値を超えるフォルダに分類対象の
画像を分類する(S1603)。すなわち、マッチング
・エンジン153は、求めた総合類似度が閾値を超える
フォルダを分類対象の画像の分類先として決定し、分類
木DB302中に登録された該当するフォルダのフォル
ダ情報に関連付けて分類対象の画像のID(予め設定さ
れているものとする)を分類木DB302に登録する。
[0428] Then, the matching engine 153
The images to be classified are classified into folders in which the calculated overall similarity exceeds the threshold (S1603). In other words, the matching engine 153 determines a folder in which the calculated overall similarity exceeds the threshold as a classification destination of the image to be classified, and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302 to determine the classification target. An image ID (preset) is registered in the classification tree DB 302.

【0429】以上説明したステップS1601〜S16
03の処理を画像DB108中に登録されている各画像
に対して実行することにより、画像DB108中の画像
を分類することができる。また、マッチング・エンジン
153は、各フォルダ352〜358に分類された画像
のうち、最も高い総合類似度(距離で表現すれば最も小
さい総合類似度)を持つ画像を代表画像として選択し、
該当するフォルダ情報に関連付けて分類木DB302に
登録する。画像の分類処理が実行されると、図42の画
像分類ウインドウ350eの各フォルダ352〜358
には、図37に示すように代表画像が表示される。
Steps S1601-S16 explained above
By executing the process 03 on each image registered in the image DB 108, the images in the image DB 108 can be classified. Further, the matching engine 153 selects, as a representative image, an image having the highest overall similarity (smallest overall similarity expressed in terms of distance) among the images classified into the folders 352 to 358,
The information is registered in the classification tree DB 302 in association with the corresponding folder information. When the image classification process is executed, the folders 352 to 358 of the image classification window 350e in FIG.
Displays a representative image as shown in FIG.

【0430】このように、実施の形態18に係る画像分
類装置によれば、求めた類似度に対し、基準画像の種類
に応じて任意の重み付けを行うことができるように、各
基準画像毎に重要度を設定することが可能であり、フォ
ルダ毎に、各基準画像および分類対象の画像の類似度を
求め、求めた類似度に対し、設定された重要度に応じた
重み付けを行うことにより、ユーザの意図を分類条件と
して正確に表現できるため、ユーザの意図を正確に装置
に伝えることが可能となると共に、重要度は類似度に対
する重み付けとして反映されるため、ユーザの意図が反
映された画像の分類結果を得ることが可能となる。
As described above, according to the image classification device of the eighteenth embodiment, the obtained similarity can be arbitrarily weighted in accordance with the type of the reference image. It is possible to set the degree of importance, for each folder, determine the similarity of each reference image and the image of the classification target, by weighting the obtained similarity according to the set importance, Since the user's intention can be accurately expressed as a classification condition, it is possible to accurately convey the user's intention to the device, and the importance is reflected as a weight for the similarity, so that the image reflecting the user's intention is reflected. Can be obtained.

【0431】〔実施の形態19〕実施の形態19に係る
画像分類装置は、実施の形態17の画像分類装置におい
て、実施の形態6で説明した画像検索処理を応用するこ
とにより、分類に対するユーザの意図を正確に表現でき
るようにしたものである。なお、実施の形態19に係る
画像分類装置においては、例として、色,構造およびテ
クスチャの3種類の特徴量を用いて分類処理を行うもの
とする。
[Embodiment 19] The image classifying apparatus according to the nineteenth embodiment differs from the image classifying apparatus according to the seventeenth embodiment in that the image search processing described in the sixth embodiment is applied to enable the user to classify the image. It is intended to express the intention accurately. Note that, in the image classification device according to the nineteenth embodiment, for example, classification processing is performed using three types of feature amounts of color, structure, and texture.

【0432】以下に、実施の形態19に係る画像分類装
置の動作について、 (1)分類項目設定処理 (2)画像分類処理 の順で説明する。
The operation of the image classification device according to the nineteenth embodiment will be described below in the order of (1) classification item setting processing and (2) image classification processing.

【0433】(1)分類項目設定処理 図43は、実施の形態19に係る画像分類装置において
用いられる画像分類ウインドウ350fを示す説明図で
ある。ここで、ユーザは、フォルダ352を作成したも
のとし、フォルダ352に分類条件を設定するため、図
43に示すような分類条件設定ウインドウ360fを表
示させる。
(1) Classification Item Setting Process FIG. 43 is an explanatory diagram showing an image classification window 350f used in the image classification device according to the nineteenth embodiment. Here, it is assumed that the user has created the folder 352, and displays a classification condition setting window 360f as shown in FIG. 43 to set the classification condition in the folder 352.

【0434】図43に示す分類条件設定ウインドウ36
0fは、図41に示した分類条件設定ウインドウ360
dに加えて、画像指定欄A,BおよびCに指定された各
基準画像毎に、分類対象の画像との類似度を求める際に
使用される特徴量の種類毎の重要度を指定するための重
要度指定バー367を備えている。
A classification condition setting window 36 shown in FIG.
0f is the classification condition setting window 360 shown in FIG.
In addition to d, for each of the reference images specified in the image specification columns A, B, and C, to specify the importance of each type of feature amount used when calculating the similarity with the image to be classified. The bar 367 is designated.

【0435】ユーザは、図43に示すように、例えば3
枚の画像をそれぞれ画像指定欄A,BおよびCに基準画
像A,BおよびCとして指定し、指定した基準画像A,
BおよびC毎に、特徴量の種類毎の重要度を指定する。
この重要度指定バー367は、実施の形態6で説明した
ように、各基準画像の特徴量の種類毎に、「0」を中心
にして「+」の重要度および「−」の重要度を指定する
ことを可能にするものである。なお、重要度として
「+」方向および「−」方向の両方ではなく、「+」方
向のみ、または「−」方向のみを指定できるようにして
も良い。
As shown in FIG. 43, the user
The images are designated as reference images A, B, and C in image designation columns A, B, and C, respectively, and the designated reference images A, B, and C are designated.
For each of B and C, the importance of each type of feature amount is designated.
As described in the sixth embodiment, the importance designation bar 367 indicates the importance of “+” and the importance of “−” centering on “0” for each type of feature amount of each reference image. It is possible to specify. In addition, only the "+" direction or only the "-" direction may be designated as the importance, not both the "+" direction and the "-" direction.

【0436】このように、各種類の特徴量毎の重要度を
各基準画像毎に指定することにより、分類に対するユー
ザの意図を正確に表現することが可能となる。すなわ
ち、後述する分類処理によって、重要度は各種類の特徴
量毎に求めた類似度に対する重み付けとして反映される
ため、ユーザの意図が反映された分類結果の画像を得る
ことが可能となる。
As described above, by specifying the importance of each type of feature for each reference image, it is possible to accurately express the user's intention for classification. In other words, the importance is reflected as a weight to the similarity obtained for each type of feature amount by the classification processing described later, so that it is possible to obtain an image of the classification result reflecting the user's intention.

【0437】さらに、ユーザは、AND指定ボタン36
4を選択してAND条件を指定すると共に、フォルダ3
52の閾値を指定した後、設定ボタン361を選択する
と、U/I部151は、基準画像,重要度,AND条件
の指定および閾値を分類条件としてフォルダ352に設
定する。
[0437] Further, the user operates the AND designation button 36.
4 and specify the AND condition,
When the setting button 361 is selected after designating the threshold value of 52, the U / I unit 151 sets the specification of the reference image, the importance, the AND condition, and the threshold value in the folder 352 as the classification condition.

【0438】このような処理を各フォルダに対して行う
ことにより、図43に示すような複数のフォルダ352
〜358が分類対象の画像を分類するための分類項目と
して設定される。なお、設定された各フォルダのフォル
ダ情報は、分類木DB302に登録される。
By performing such processing on each folder, a plurality of folders 352 as shown in FIG.
358 are set as classification items for classifying images to be classified. The folder information of each set folder is registered in the classification tree DB 302.

【0439】(2)画像分類処理 実施の形態19に係る画像分類処理について図40を参
照しつつ説明する。ユーザが分類処理の開始を指定する
と、図34のマッチング・エンジン153は、フォルダ
352〜358毎に、3種類の特徴量を用いて各基準画
像および分類対象の画像の類似度を求め、求めた各類似
度に対して重要度に応じた重み付けを行い、各類似度を
合計して分類対象の画像の総合類似度を求める処理を実
行する(S1601)。
(2) Image Classification Processing Image classification processing according to the nineteenth embodiment will be described with reference to FIG. When the user designates the start of the classification process, the matching engine 153 of FIG. 34 calculates the similarity between each reference image and the image to be classified using three types of feature amounts for each of the folders 352 to 358. Weighting is performed on each similarity according to the importance, and the processing of obtaining the total similarity of the image to be classified by summing each similarity is executed (S1601).

【0440】このステップS1601における処理につ
いてフォルダ352を例にとって具体的に説明する。マ
ッチング・エンジン153は、分類木DB302のフォ
ルダ情報を参照し、フォルダ352に設定された基準画
像A(図43の分類条件設定ウインドウ360fを参
照)および分類対象の画像の類似度を色の特徴量を用い
て求める。すなわち、マッチング・エンジン153は、
色の特徴量に基づいて図4に示した特徴量空間中にプロ
ットされた分類対象の画像と基準画像Aとの距離を例え
ばユークリッド距離などのベクトルの距離定義式を用い
て求める。続いて、マッチング・エンジン153は、求
めた距離に対し、ユーザが基準画像Aに対して指定した
色の特徴量の重要度に応じて重み付けを行う。さらに、
マッチング・エンジン153は、分類対象の画像と基準
画像Aとの距離を構造の特徴量およびテクスチャの特徴
量を用いてそれぞれ求め、求めた各距離に対し、ユーザ
が基準画像Aに対して指定した構造の特徴量の重要度お
よびテクスチャの特徴量の重要度に応じて重み付けを行
う。
[0440] The processing in step S1601 will be specifically described using the folder 352 as an example. The matching engine 153 refers to the folder information of the classification tree DB 302, and determines the similarity between the reference image A (see the classification condition setting window 360f in FIG. 43) set in the folder 352 and the classification target image by using the color feature amount. Is determined using That is, the matching engine 153
The distance between the image to be classified and the reference image A plotted in the feature amount space shown in FIG. 4 based on the color feature amount is obtained using a vector distance definition formula such as a Euclidean distance. Subsequently, the matching engine 153 weights the obtained distance according to the importance of the color feature specified by the user with respect to the reference image A. further,
The matching engine 153 obtains the distance between the image to be classified and the reference image A by using the feature amount of the structure and the feature amount of the texture. The user designates the distance to the reference image A for each obtained distance. Weighting is performed according to the importance of the structural feature and the importance of the texture feature.

【0441】マッチング・エンジン153は、同様に、
分類対象の画像と基準画像Bとの距離を3種類の特徴量
毎に求め、求めた各距離に対し、基準画像Bに対して指
定された各特徴量毎の重要度に応じた重み付けを行う。
また、分類対象の画像と基準画像Cとの距離を3種類の
特徴量毎に求め、求めた各距離に対し、基準画像Cに対
して指定された各特徴量毎の重要度に応じた重み付けを
行う。
The matching engine 153 also performs
The distance between the image to be classified and the reference image B is obtained for each of three types of feature amounts, and the obtained distances are weighted according to the importance of each of the feature amounts specified for the reference image B. .
Further, the distance between the image to be classified and the reference image C is obtained for each of three types of feature amounts, and the obtained distances are weighted according to the importance of each of the feature amounts specified for the reference image C. I do.

【0442】その後、マッチング・エンジン153は、
3種類の特徴量毎に求めた分類対象の画像と各基準画像
A,BおよびCとの距離を合計し、距離の合計値を総合
類似度とする(数6を参照)。マッチング・エンジン1
53は、このようにしてフォルダ352〜358毎に総
合類似度を求める。
Subsequently, the matching engine 153
The distances between the classification target image obtained for each of the three types of feature amounts and each of the reference images A, B, and C are summed, and the total value of the distances is used as the overall similarity (see Equation 6). Matching engine 1
53 obtains the overall similarity for each of the folders 352 to 358 in this manner.

【0443】続いて、マッチング・エンジン153は、
フォルダ352〜358毎に、ステップS1601で求
めた総合類似度が閾値を超えるか否かを判定する(S1
602)。ただし、ここでは類似度として距離を用いて
おり、距離が短い(距離の値が小さい)ほど類似性が高
いことになるため、実際には、総合類似度が閾値以下
(または未満)であるか否かを判定することになる。
Next, the matching engine 153
It is determined for each of the folders 352 to 358 whether or not the total similarity calculated in step S1601 exceeds a threshold (S1).
602). However, here, the distance is used as the similarity, and the shorter the distance (the smaller the value of the distance), the higher the similarity. Therefore, in practice, whether the total similarity is equal to or less than (or less than) the threshold value It will be determined whether or not.

【0444】そして、マッチング・エンジン153は、
求めた総合類似度が閾値を超えるフォルダに分類対象の
画像を分類する(S1603)。すなわち、マッチング
・エンジン153は、求めた総合類似度が閾値を超える
フォルダを分類対象の画像の分類先として決定し、分類
木DB302中に登録された該当するフォルダのフォル
ダ情報に関連付けて分類対象の画像のID(予め設定さ
れているものとする)を分類木DB302に登録する。
[0444] Then, the matching engine 153
The images to be classified are classified into folders in which the calculated overall similarity exceeds the threshold (S1603). In other words, the matching engine 153 determines a folder in which the calculated overall similarity exceeds the threshold as a classification destination of the image to be classified, and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302 to determine the classification target. An image ID (preset) is registered in the classification tree DB 302.

【0445】以上説明したステップS1601〜S16
03の処理を画像DB108中に登録されている各画像
に対して実行することにより、画像DB108中の画像
を分類することができる。また、マッチング・エンジン
153は、各フォルダ352〜358に分類された画像
のうち、最も高い総合類似度(距離で表現すれば最も小
さい総合類似度)を持つ画像を代表画像として選択し、
該当するフォルダ情報に関連付けて分類木DB302に
登録する。画像の分類処理が実行されると、図43の画
像分類ウインドウ350fの各フォルダ352〜358
には、図37に示すように代表画像が表示される。
Steps S1601-S16 explained above
By executing the process 03 on each image registered in the image DB 108, the images in the image DB 108 can be classified. Further, the matching engine 153 selects, as a representative image, an image having the highest overall similarity (smallest overall similarity expressed in terms of distance) among the images classified into the folders 352 to 358,
The information is registered in the classification tree DB 302 in association with the corresponding folder information. When the image classification process is executed, the folders 352 to 358 of the image classification window 350f in FIG.
Displays a representative image as shown in FIG.

【0446】このように、実施の形態19に係る画像分
類装置によれば、複数種類の特徴量を用いて基準画像お
よび検索対象の画像の類似度を求める場合に、求めた類
似度に対し、基準画像および特徴量の種類に応じて任意
の重み付けを行うことができるように、各種類の特徴量
毎の重要度を各基準画像毎に設定することが可能であ
り、フォルダそれぞれについて、各種類の特徴量毎に各
基準画像および分類対象の画像の類似度を求め、各種類
の特徴量毎に求めた類似度に対し、設定された重要度に
応じた重み付けを行うことにより、ユーザの意図を分類
条件として正確に表現できるため、ユーザの意図を正確
に装置に伝えることが可能となると共に、重要度は類似
度に対する重み付けとして反映されるため、ユーザの意
図が反映された画像の分類結果を得ることが可能とな
る。
As described above, according to the image classification device of the nineteenth embodiment, when the similarity between the reference image and the image to be searched is obtained using a plurality of types of feature amounts, It is possible to set the importance for each type of feature amount for each reference image so that any weighting can be performed according to the type of the reference image and the feature amount. By calculating the similarity between each reference image and the image to be classified for each feature amount of, and by weighting the similarity obtained for each type of feature amount according to the set importance, the user's intention Can be accurately expressed as a classification condition, so that the user's intention can be accurately conveyed to the device, and the importance is reflected as a weight for the similarity, so that the image in which the user's intention is reflected It is possible to obtain a classification result.

【0447】なお、特徴量の種類は、色,構造およびテ
クスチャの3種類に限定するものではなく、いかなる種
類の特徴量の組み合わせであっても良い。
Note that the types of feature amounts are not limited to the three types of colors, structures, and textures, and any combination of feature types may be used.

【0448】〔実施の形態20〕実施の形態20に係る
画像分類装置は、実施の形態17の画像分類装置におい
て、実施の形態7で説明した画像検索処理を応用するこ
とにより、分類に対するユーザの意図を装置側が汲み取
ることができるようにしたものである。なお、実施の形
態20に係る画像分類装置は、例として、色,構造およ
びテクスチャの3種類の特徴量を用いて分類処理を行う
ものとする。
[Embodiment 20] The image classifying apparatus according to the twentieth embodiment differs from the image classifying apparatus according to the seventeenth embodiment in that the image search processing described in the seventh embodiment is applied so that the user The intention is to allow the device to pump the intention. It is assumed that the image classification device according to the twentieth embodiment performs a classification process using three types of feature amounts of color, structure, and texture, for example.

【0449】前述した実施の形態18および19におい
ては、ユーザが基準画像の重要度または各基準画像に特
徴量毎の重要度を指定する必要があったが、実施の形態
20に係る画像分類装置においては、ユーザによってフ
ォルダ毎に指定された基準画像間の類似度を、基準画像
および分類対象の画像の類似度を求める際に使用する特
徴量を用いて求め、求めた特徴量毎の類似度に基づいて
各基準画像間における特徴量毎の重要度を装置側で決定
し、類似度に対する重み付けとして反映するという点が
特徴となる。
In Embodiments 18 and 19 described above, it is necessary for the user to specify the importance of the reference image or the importance of each feature amount in each reference image. In the method, the similarity between the reference images designated for each folder by the user is obtained using the feature amount used when obtaining the similarity between the reference image and the image to be classified, and the similarity degree for each obtained feature amount is obtained. The feature is that the degree of importance of each feature amount between the reference images is determined on the device side based on the reference image and reflected as a weight for the similarity.

【0450】以下に、実施の形態20に係る画像分類装
置の動作について、 (1)分類項目設定処理 (2)画像分類処理 の順で説明する。
The operation of the image classification device according to the twentieth embodiment will be described below in the order of (1) classification item setting processing and (2) image classification processing.

【0451】(1)分類項目設定処理 図41を用いて分類項目設定処理について説明する。ユ
ーザは、フォルダ352を作成したものとし、フォルダ
352に分類条件を設定するため、図41に示すような
分類条件設定ウインドウ360dを表示させる。
(1) Classification Item Setting Process The classification item setting process will be described with reference to FIG. The user has created the folder 352, and displays a classification condition setting window 360d as shown in FIG. 41 to set the classification condition in the folder 352.

【0452】ユーザは、図41に示すように、例えば3
枚の画像をそれぞれ画像指定欄A,BおよびCに基準画
像A,BおよびCとして指定し、AND指定ボタン36
4を選択してAND条件を指定する。さらに、ユーザが
フォルダ352の閾値を指定し、設定ボタン361を選
択すると、特徴抽出エンジン152は、色,構造および
テクスチャの3種類の特徴量毎に、各基準画像A,Bお
よびC間の距離(類似度)を求め、求めた各特徴量毎の
距離に基づいて各基準画像A,BおよびC間における特
徴量毎の重要度を決定する。
As shown in FIG. 41, the user
The images are designated as reference images A, B, and C in image designation columns A, B, and C, respectively, and an AND designation button 36
Select 4 to specify the AND condition. Further, when the user specifies the threshold value of the folder 352 and selects the setting button 361, the feature extraction engine 152 determines the distance between the reference images A, B, and C for each of the three types of feature amounts of color, structure, and texture. (Similarity) is calculated, and the importance of each feature value among the reference images A, B, and C is determined based on the obtained distance of each feature value.

【0453】具体的に、特徴抽出エンジン152は、3
種類の特徴量毎に、基準画像同士の特徴間の距離を求め
る。各特徴量毎に求めた距離の分散が大きい場合にはそ
の特徴量についてはユーザは関知していないことを意味
し、分散が小さい場合にはユーザはその特徴量を分類基
準として重視していると判断できる。したがって、分散
が大きい特徴量の場合には重要度を小さくし、分散が小
さい場合には重要度を大きくするようにする(数7を参
照)。
Specifically, the feature extraction engine 152
The distance between the features of the reference images is obtained for each type of feature amount. If the variance of the distance obtained for each feature amount is large, it means that the user does not know the feature amount, and if the variance is small, the user attaches importance to the feature amount as a classification criterion. Can be determined. Therefore, the importance is reduced when the feature amount has a large variance, and the importance is increased when the variance is small (see Equation 7).

【0454】特徴抽出エンジン152は、3種類の特徴
量毎の重要度をU/I部151に入力し、U/I部15
1は、基準画像,特徴抽出エンジン152で決定された
重要度,AND条件の指定および閾値を分類条件として
フォルダ352に設定する。
The feature extraction engine 152 inputs the importance for each of the three types of feature amounts to the U / I unit 151, and
1 sets the reference image, the importance determined by the feature extraction engine 152, the designation of the AND condition, and the threshold value as the classification condition in the folder 352.

【0455】このような処理を各フォルダに対して行う
ことにより、図41に示すような複数のフォルダ352
〜358が分類対象の画像を分類するための分類項目と
して設定される。なお、設定されたフォルダのフォルダ
情報は分類木DB302に登録される。
By performing such a process for each folder, a plurality of folders 352 as shown in FIG.
358 are set as classification items for classifying images to be classified. The folder information of the set folder is registered in the classification tree DB 302.

【0456】(2)画像分類処理 つぎに、実施の形態20の画像分類処理について図40
を参照しつつ説明する。ユーザが分類処理の開始を指定
すると、図34のマッチング・エンジン153は、フォ
ルダ352〜358毎に、3種類の特徴量を用いて各基
準画像および分類対象の画像の類似度を求め、求めた各
類似度に対して重要度に応じた重み付けを行い、各類似
度を合計して分類対象の画像の総合類似度を求める処理
を実行する(S1601)。
(2) Image Classification Processing Next, the image classification processing according to the twentieth embodiment will be described with reference to FIG.
This will be described with reference to FIG. When the user designates the start of the classification process, the matching engine 153 of FIG. 34 calculates the similarity between each reference image and the image to be classified using three types of feature amounts for each of the folders 352 to 358. Weighting is performed on each similarity according to the importance, and the processing of obtaining the total similarity of the image to be classified by summing each similarity is executed (S1601).

【0457】このステップS1601における処理につ
いてフォルダ352を例にとって具体的に説明する。マ
ッチング・エンジン153は、分類木DB302のフォ
ルダ情報を参照し、フォルダ352に設定された基準画
像A(図41の分類条件設定ウインドウ360dを参
照)および分類対象の画像の類似度を色の特徴量を用い
て求める。すなわち、マッチング・エンジン153は、
色の特徴量に基づいて図4に示した特徴量空間中にプロ
ットされた分類対象の画像と基準画像Aとの距離を例え
ばユークリッド距離などのベクトルの距離定義式を用い
て求める。続いて、マッチング・エンジン153は、求
めた距離に対し、特徴抽出エンジン152で色の特徴量
について決定した重要度に応じて重み付けを行う。さら
に、マッチング・エンジン153は、分類対象の画像と
基準画像Aについて、構造の特徴量およびテクスチャの
特徴量を用いた距離を求め、求めた各距離に対し、特徴
抽出エンジン152で決定した構造の特徴量の重要度お
よびテクスチャの特徴量の重要度に応じて重み付けを行
う。
[0457] The processing in step S1601 will be specifically described using the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302, and determines the similarity between the reference image A (see the classification condition setting window 360d in FIG. 41) set in the folder 352 and the classification target image by the color feature amount. Is determined using That is, the matching engine 153
The distance between the image to be classified and the reference image A plotted in the feature amount space shown in FIG. 4 based on the color feature amount is obtained using a vector distance definition formula such as a Euclidean distance. Subsequently, the matching engine 153 weights the obtained distance according to the importance determined for the color feature by the feature extraction engine 152. Further, the matching engine 153 obtains a distance using the feature amount of the structure and the feature amount of the texture for the image to be classified and the reference image A, and for each of the obtained distances, obtains the distance of the structure determined by the feature extraction engine 152. Weighting is performed according to the importance of the feature and the importance of the texture.

【0458】マッチング・エンジン153は、同様に、
分類対象の画像と基準画像Bとの距離を3種類の特徴量
毎に求め、求めた各距離に対し、各種類の特徴量毎に決
定された重要度に応じた重み付けを行う。また、分類対
象の画像と基準画像Cとの距離を3種類の特徴量毎に求
め、求めた各距離に対し、各種類の特徴量毎に決定され
た重要度に応じた重み付けを行う。
The matching engine 153 also performs
The distance between the image to be classified and the reference image B is obtained for each of the three types of feature amounts, and the obtained distances are weighted in accordance with the importance determined for each type of feature amount. Further, the distance between the image to be classified and the reference image C is obtained for each of the three types of feature amounts, and the obtained distances are weighted in accordance with the importance determined for each of the types of feature amounts.

【0459】その後、マッチング・エンジン153は、
3種類の特徴量毎に求めた分類対象の画像と各基準画像
A,BおよびCとの距離を合計し、距離の合計値を総合
類似度とする。マッチング・エンジン153は、このよ
うにしてフォルダ352〜358毎に総合類似度を求め
る。
[0459] Thereafter, the matching engine 153
The distances between the classification target image obtained for each of the three types of feature amounts and each of the reference images A, B, and C are totaled, and the total value of the distances is used as the overall similarity. The matching engine 153 obtains the total similarity for each of the folders 352 to 358 in this way.

【0460】続いて、マッチング・エンジン153は、
フォルダ352〜358毎に、ステップS1601で求
めた総合類似度が閾値を超えるか否かを判定する(S1
602)。ただし、ここでは類似度として距離を用いて
おり、距離が短い(距離の値が小さい)ほど類似性が高
いことになるため、実際には、総合類似度が閾値以下
(または未満)であるか否かを判定することになる。
Next, the matching engine 153
It is determined for each of the folders 352 to 358 whether or not the total similarity calculated in step S1601 exceeds a threshold (S1).
602). However, here, the distance is used as the similarity, and the shorter the distance (the smaller the value of the distance), the higher the similarity. Therefore, in practice, whether the total similarity is equal to or less than (or less than) the threshold value It will be determined whether or not.

【0461】そして、マッチング・エンジン153は、
求めた総合類似度が閾値を超えるフォルダに分類対象の
画像を分類する(S1603)。すなわち、マッチング
・エンジン153は、求めた総合類似度が閾値を超える
フォルダを分類対象の画像の分類先として決定し、分類
木DB302中に登録された該当するフォルダのフォル
ダ情報に関連付けて分類対象の画像のID(予め設定さ
れているものとする)を分類木DB302に登録する。
Then, the matching engine 153
The images to be classified are classified into folders in which the calculated overall similarity exceeds the threshold (S1603). In other words, the matching engine 153 determines a folder in which the calculated overall similarity exceeds the threshold as a classification destination of the image to be classified, and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302 to determine the classification target. An image ID (preset) is registered in the classification tree DB 302.

【0462】以上説明したステップS1601〜S16
03の処理を画像DB108中に登録されている各画像
に対して実行することにより、画像DB108中の画像
を分類することができる。また、マッチング・エンジン
153は、各フォルダ352〜358に分類された画像
のうち、最も高い総合類似度(距離で表現すれば最も小
さい総合類似度)を持つ画像を代表画像として選択し、
該当するフォルダ情報に関連付けて分類木DB302に
登録する。画像の分類処理が実行されると、図41の画
像分類ウインドウ350dの各フォルダ352〜358
には、図37に示すように代表画像が表示される。
Steps S1601-S16 explained above
By executing the process 03 on each image registered in the image DB 108, the images in the image DB 108 can be classified. Further, the matching engine 153 selects, as a representative image, an image having the highest overall similarity (smallest overall similarity expressed in terms of distance) among the images classified into the folders 352 to 358,
The information is registered in the classification tree DB 302 in association with the corresponding folder information. When the image classification process is executed, the folders 352 to 358 of the image classification window 350d in FIG.
Displays a representative image as shown in FIG.

【0463】このように、実施の形態20に係る画像分
類装置によれば、複数種類の特徴量を用いて基準画像お
よび検索対象の画像の類似度を求める場合に、求めた類
似度に対し、特徴量の種類に応じて任意の重み付けを行
うことができるように、分類項目毎に、設定された各基
準画像間の類似度を各種類の特徴量毎に求め、各種類の
特徴量毎に求めた類似度に基づいて各基準画像間におけ
る各特徴量毎の重要度を決定し、分類項目それぞれにつ
いて、各種類の特徴量毎に各基準画像および分類対象の
画像の類似度を求め、各種類の特徴量毎に求めた類似度
に対し、決定された重要度に応じた重み付けを行うこと
により、装置側でユーザが指定した基準画像間における
各種類の特徴量の重要度を判断し、判断した重要度を画
像間の類似度に反映させるため、ユーザの意図に合った
画像の分類結果を返すことが可能となる。したがって、
ユーザが望む通りの分類処理を実現することができ、ユ
ーザが望む分類結果を得ることができる。
As described above, according to the image classification apparatus of the twentieth embodiment, when the similarity between the reference image and the image to be searched is obtained using a plurality of types of feature amounts, For each classification item, the degree of similarity between the set reference images is obtained for each type of feature amount so that arbitrary weighting can be performed according to the type of feature amount, and for each type of feature amount, Based on the obtained similarity, the importance of each feature amount between the reference images is determined, and for each classification item, the similarity of each reference image and the image to be classified is obtained for each type of feature amount. By performing weighting according to the determined importance on the similarity obtained for each type of feature, the importance of each type of feature between the reference images specified by the user on the device side is determined, Determining the importance determined against the similarity between images In order to, it is possible to return the classification result of the image matching the intention of the user. Therefore,
The classification process desired by the user can be realized, and the classification result desired by the user can be obtained.

【0464】なお、特徴量の種類は、色,構造およびテ
クスチャの3種類に限定するものではなく、いかなる種
類の特徴量の組み合わせであっても良い。
[0464] Note that the types of feature amounts are not limited to the three types of color, structure, and texture, and any combination of feature types may be used.

【0465】〔実施の形態21〕実施の形態21に係る
画像分類装置は、ユーザの意図を分類条件として正確に
表現するための一つの手法として、実施の形態8で説明
したOR検索を応用した画像分類処理を行うものであ
る。
[Embodiment 21] The image classification device according to the embodiment 21 applies the OR search described in the embodiment 8 as one method for accurately expressing the user's intention as the classification condition. Image classification processing is performed.

【0466】実施の形態21に係る画像分類装置による
画像の分類処理は、実施の形態17で説明に用いた図4
1の分類条件設定ウインドウ360dにおいて、AND
指定ボタン364ではなく、OR指定ボタン365が選
択された場合に実行される。そこで、実施の形態17に
おける「(1)分類項目設定処理」の説明において、O
R指定ボタン365が選択されたものとして、以下にO
R条件による画像分類処理を説明する。
The image classification process performed by the image classification device according to the twenty-first embodiment is the same as that described in the seventeenth embodiment with reference to FIG.
1 in the classification condition setting window 360d, AND
This is executed when the OR designation button 365 is selected instead of the designation button 364. Therefore, in the description of “(1) Classification item setting process” in the seventeenth embodiment, O
Assuming that the R designation button 365 has been selected,
The image classification processing based on the R condition will be described.

【0467】なお、OR条件の指定と共に、図41に示
したフォルダ352には、実施の形態17の場合と同様
に基準画像A,BおよびC,ならびに閾値が分類条件と
して設定されたものとする。
In addition to the specification of the OR condition, it is assumed that the reference images A, B, and C, and the threshold value are set as the classification conditions in the folder 352 shown in FIG. 41 as in the seventeenth embodiment. .

【0468】図44は、実施の形態21の画像分類処理
を示すフローチャートである。ユーザが分類処理の開始
を指示すると、図34のマッチング・エンジン153
は、フォルダ352〜358毎に、所定の特徴量を用い
て各基準画像および分類対象の画像の類似度を求めると
共に、求めた類似度の中から最も高い類似性を示す類似
度を選択して分類対象の画像の総合類似度を求める処理
を実行する(S2101)。
FIG. 44 is a flowchart showing the image classification processing according to the twenty-first embodiment. When the user instructs to start the classification process, the matching engine 153 in FIG.
Calculates the similarity of each reference image and the image to be classified using a predetermined feature amount for each of the folders 352 to 358, and selects the similarity indicating the highest similarity from the obtained similarities. A process for calculating the overall similarity of the images to be classified is executed (S2101).

【0469】このステップS2101における処理につ
いてフォルダ352を例にとって具体的に説明する。マ
ッチング・エンジン153は、分類木DB302のフォ
ルダ情報を参照し、フォルダ352に設定された基準画
像A(図41の分類条件設定ウインドウ360dを参
照)および分類対象の画像の類似度を所定の特徴量を用
いて求める。すなわち、マッチング・エンジン153
は、所定の特徴量に基づいて図4に示した特徴量空間中
にプロットされた分類対象の画像と基準画像Aとの距離
を例えばユークリッド距離などのベクトルの距離定義式
を用いて求める。マッチング・エンジン153は、同様
に、所定の特徴量に基づいて分類対象の画像と基準画像
Bとの距離を求めると共に、分類対象の画像と基準画像
Cとの距離を求める。
[0469] The processing in step S2101 will be specifically described using the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302, and determines the similarity between the reference image A (see the classification condition setting window 360d in FIG. 41) set in the folder 352 and the classification target image by a predetermined feature amount. Is determined using That is, the matching engine 153
Calculates the distance between the image to be classified and the reference image A plotted in the feature amount space shown in FIG. 4 based on a predetermined feature amount using a distance definition formula of a vector such as a Euclidean distance. Similarly, the matching engine 153 calculates the distance between the classification target image and the reference image B based on the predetermined feature amount, and also calculates the distance between the classification target image and the reference image C.

【0470】その後、マッチング・エンジン153は、
分類対象の画像と各基準画像A,BおよびCとの距離の
中から最も短い距離を選択して総合類似度を求める(数
8を参照)。マッチング・エンジン153は、このよう
にしてフォルダ352〜358毎に最も高い類似性を示
す類似度を選択して総合類似度を求める。
Then, the matching engine 153
The shortest distance is selected from the distance between the image to be classified and each of the reference images A, B, and C, and the overall similarity is obtained (see Expression 8). The matching engine 153 selects the similarity having the highest similarity for each of the folders 352 to 358 in this way, and obtains the overall similarity.

【0471】続いて、マッチング・エンジン153は、
フォルダ352〜358毎に、ステップS2101で選
択した類似度が閾値を超えるか否かを判定する(S21
02)。ただし、ここでは類似度として距離を用いてお
り、距離が短い(距離の値が小さい)ほど類似性が高い
ことになるため、実際には、総合類似度が閾値以下(ま
たは未満)であるか否かを判定することになる。
Subsequently, the matching engine 153
It is determined for each of the folders 352 to 358 whether or not the similarity selected in step S2101 exceeds a threshold (S21).
02). However, here, the distance is used as the similarity, and the shorter the distance (the smaller the value of the distance), the higher the similarity. Therefore, in practice, whether the total similarity is equal to or less than (or less than) the threshold value It will be determined whether or not.

【0472】そして、マッチング・エンジン153は、
選択した類似度が閾値を超えるフォルダに分類対象の画
像を分類する(S2103)。すなわち、マッチング・
エンジン153は、選択した類似度が閾値を超えるフォ
ルダを分類対象の画像の分類先として決定し、分類木D
B302中に登録された該当するフォルダのフォルダ情
報に関連付けて分類対象の画像のID(予め設定されて
いるものとする)を分類木DB302に登録する。
[0472] Then, the matching engine 153
The images to be classified are classified into folders in which the selected similarity exceeds the threshold (S2103). That is, matching
The engine 153 determines a folder whose similarity exceeds the threshold value as a classification destination of the image to be classified, and generates a classification tree D
The ID of the image to be classified (predetermined) is registered in the classification tree DB 302 in association with the folder information of the corresponding folder registered in B302.

【0473】以上説明したステップS2101〜S21
03の処理を画像DB108中に登録されている各画像
に対して実行することにより、画像DB108中の画像
を分類することができる。また、マッチング・エンジン
153は、各フォルダ352〜358それぞれに分類さ
れた画像の中から、最も高い類似度(ステップS210
1で選択された類似度のことであり、距離で表現すれば
最も小さい類似度)を持つ画像を代表画像として選択
し、該当するフォルダ情報に関連付けて分類木DB30
2に登録する。画像の分類処理が実行されると、図41
の画像分類ウインドウ350dの各フォルダ352〜3
58には、図37に示すように代表画像が表示される。
Steps S2101 to S21 described above
By executing the process 03 on each image registered in the image DB 108, the images in the image DB 108 can be classified. Further, the matching engine 153 selects the highest similarity from among the images classified into the folders 352 to 358 (step S210).
1, the image having the smallest similarity expressed in distance) is selected as the representative image, and the image is selected in association with the corresponding folder information.
Register in 2. When the image classification processing is executed, FIG.
Folders 352-3 of the image classification window 350d
At 58, a representative image is displayed as shown in FIG.

【0474】なお、実施の形態21の画像分類処理にお
いては、分類対象の画像が、あるフォルダに設定された
各基準画像のいずれかに対して閾値以上の類似度が得ら
れる程類似していればそのフォルダに分類されることに
なる。したがって、実施の形態21の画像分類処理にO
R検索が応用されていることがわかる。
In the image classification process according to the twenty-first embodiment, the classification target image is similar to any one of the reference images set in a certain folder so that a similarity greater than or equal to a threshold is obtained. If it is, it will be classified into that folder. Therefore, the image classification process of the twenty-first embodiment is
It can be seen that the R search is applied.

【0475】このように、実施の形態21に係る画像分
類装置によれば、フォルダを設定し、設定したフォルダ
毎に、基準画像を複数設定し、フォルダ毎に、設定され
た各基準画像および分類対象の画像の類似度を求めると
共に、求めた類似度の中から最も高い類似性を示す類似
度を選択し、各フォルダ毎に選択した類似度および予め
設定された分類先決定基準に基づいて分類対象の画像の
分類先となるフォルダを決定するため、OR検索処理を
応用した画像分類処理を行うことが可能となる。したが
って、新たな分類方法で画像を分類可能な画像分類装置
を提供することができる。
As described above, according to the image classification apparatus of the twenty-first embodiment, a folder is set, a plurality of reference images are set for each set folder, and each set reference image and classification are set for each folder. The similarity of the target image is obtained, and a similarity having the highest similarity is selected from the obtained similarities, and classification is performed based on the similarity selected for each folder and a preset classification destination determination criterion. Since the folder to which the target image is to be classified is determined, it is possible to perform an image classification process using an OR search process. Therefore, it is possible to provide an image classification device capable of classifying images by a new classification method.

【0476】なお、詳細な説明については省略するが、
画像DB108に新たに画像が登録された場合、その画
像についても分類処理を行うことにより、画像DB10
8中の画像を常に分類した状態に保つことができる。例
えば、U/I部151が画像DB108の状態を監視す
ることにすれば、人手を要することなく、画像DB10
8中の画像を常に分類した状態に保つことができる。
Although detailed description is omitted,
When a new image is registered in the image DB 108, the image DB 10 is also subjected to a classification process so that the image DB 10
8 can always be kept in a classified state. For example, if the U / I unit 151 monitors the state of the image DB 108, the image DB 10
8 can always be kept in a classified state.

【0477】〔実施の形態22〕実施の形態22に係る
画像分類装置は、実施の形態21の画像分類装置におい
て、実施の形態9で説明した画像検索処理を応用するこ
とにより、分類に対するユーザの意図を正確に表現でき
るようにしたものである。
[Embodiment 22] The image classification apparatus according to the twenty-second embodiment differs from the image classification apparatus according to the twenty-first embodiment in that the image search processing described in the ninth embodiment is applied so that a user It is intended to express the intention accurately.

【0478】実施の形態22に係る画像分類装置による
画像の分類処理は、実施の形態18で説明に用いた図4
2の分類条件設定ウインドウ360eにおいて、AND
指定ボタン364ではなく、OR指定ボタン365が選
択された場合に実行される。そこで、実施の形態18に
おける「(1)分類項目設定処理」の説明において、O
R指定ボタン365が選択されたものとして、以下にO
R条件による画像分類処理を説明する。
The image classification process performed by the image classification device according to the twenty-second embodiment is the same as that shown in FIG.
In the second classification condition setting window 360e, AND
This is executed when the OR designation button 365 is selected instead of the designation button 364. Therefore, in the description of “(1) classification item setting process” in the eighteenth embodiment,
Assuming that the R designation button 365 has been selected,
The image classification processing based on the R condition will be described.

【0479】なお、OR条件の指定と共に、図42に示
したフォルダ352には、実施の形態18の場合と同様
に基準画像A,BおよびC,各基準画像の重要度ならび
に閾値が分類条件として設定されたものとする。
In addition to the designation of the OR condition, in the folder 352 shown in FIG. 42, similarly to the eighteenth embodiment, the reference images A, B, and C, the importance of each reference image and the threshold are set as the classification conditions. It shall be set.

【0480】図45は、実施の形態22の画像分類処理
を示すフローチャートである。ユーザが分類処理の開始
を指示すると、図34のマッチング・エンジン153
は、フォルダ352〜358毎に、所定の特徴量を用い
て各基準画像および分類対象の画像との類似度を求め、
求めた各類似度に対して重要度に応じた重み付けを行
い、各類似度の中から最も高い類似性を示す類似度を選
択して分類対象の画像の総合類似度を求める処理を実行
する(S2201)。
FIG. 45 is a flowchart showing an image classification process according to the twenty-second embodiment. When the user instructs to start the classification process, the matching engine 153 in FIG.
Calculates the similarity between each reference image and the image to be classified for each of the folders 352 to 358 using a predetermined feature amount,
Weighting is performed on each of the obtained similarities in accordance with the degree of importance, a similarity having the highest similarity is selected from among the similarities, and a process of obtaining the overall similarity of the image to be classified is performed ( S2201).

【0481】このステップS2201における処理につ
いてフォルダ352を例にとって具体的に説明する。マ
ッチング・エンジン153は、分類木DB302のフォ
ルダ情報を参照し、フォルダ352に設定された基準画
像A(図42の分類条件設定ウインドウ360eを参
照)および分類対象の画像の類似度を所定の特徴量を用
いて求める。すなわち、マッチング・エンジン153
は、所定の特徴量に基づいて図4に示した特徴量空間中
にプロットされた分類対象の画像と基準画像Aとの距離
を例えばユークリッド距離などのベクトルの距離定義式
を用いて求める。続いて、マッチング・エンジン153
は、求めた距離に対し、ユーザが指定した基準画像Aの
重要度に応じて重み付けを行う。マッチング・エンジン
153は、同様に、所定の特徴量に基づいて分類対象の
画像と基準画像Bとの距離を求め、求めた距離に対して
基準画像Bの重要度に応じた重み付けを行うと共に、所
定の特徴量に基づいて分類対象の画像と基準画像Cとの
距離を求め、求めた距離に対して基準画像Cの重要度に
応じた重み付けを行う。
[0481] The processing in step S2201 will be specifically described using the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302, and determines the similarity between the reference image A (see the classification condition setting window 360e in FIG. 42) set in the folder 352 and the classification target image by a predetermined feature amount. Is determined using That is, the matching engine 153
Calculates the distance between the image to be classified and the reference image A plotted in the feature amount space shown in FIG. 4 based on a predetermined feature amount using a distance definition formula of a vector such as a Euclidean distance. Then, the matching engine 153
Performs weighting on the obtained distance in accordance with the importance of the reference image A specified by the user. Similarly, the matching engine 153 obtains the distance between the image to be classified and the reference image B based on the predetermined feature amount, weights the obtained distance according to the importance of the reference image B, The distance between the image to be classified and the reference image C is obtained based on the predetermined feature amount, and the obtained distance is weighted according to the importance of the reference image C.

【0482】その後、マッチング・エンジン153は、
分類対象の画像と各基準画像A,BおよびCとの距離の
中から最も短い距離を選択して総合類似度を求める(数
9を参照)。マッチング・エンジン153は、このよう
にしてフォルダ352〜358毎に総合類似度を求め
る。
Thereafter, the matching engine 153
The shortest distance is selected from the distances between the image to be classified and each of the reference images A, B, and C, and the overall similarity is obtained (see Expression 9). The matching engine 153 obtains the total similarity for each of the folders 352 to 358 in this way.

【0483】続いて、マッチング・エンジン153は、
フォルダ352〜358毎に、ステップS2201で求
めた総合類似度が閾値を超えるか否かを判定する(S2
202)。ただし、ここでは類似度として距離を用いて
おり、距離が短い(距離の値が小さい)ほど類似性が高
いことになるため、実際には、総合類似度が閾値以下
(または未満)であるか否かを判定することになる。
Subsequently, the matching engine 153
It is determined for each of the folders 352 to 358 whether or not the total similarity calculated in step S2201 exceeds a threshold (S2).
202). However, here, the distance is used as the similarity, and the shorter the distance (the smaller the value of the distance), the higher the similarity. Therefore, in practice, whether the total similarity is equal to or less than (or less than) the threshold value It will be determined whether or not.

【0484】そして、マッチング・エンジン153は、
求めた総合類似度が閾値を超えるフォルダに分類対象の
画像を分類する(S2203)。すなわち、マッチング
・エンジン153は、求めた総合類似度が閾値を超える
フォルダを分類対象の画像の分類先として決定し、分類
木DB302中に登録された該当するフォルダのフォル
ダ情報に関連付けて分類対象の画像のID(予め設定さ
れているものとする)を分類木DB302に登録する。
Then, the matching engine 153
The images to be classified are classified into folders in which the calculated overall similarity exceeds the threshold (S2203). In other words, the matching engine 153 determines a folder in which the calculated overall similarity exceeds the threshold as a classification destination of the image to be classified, and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302 to determine the classification target. An image ID (preset) is registered in the classification tree DB 302.

【0485】以上説明したステップS2201〜S22
03の処理を画像DB108中に登録されている各画像
に対して実行することにより、画像DB108中の画像
を分類することができる。また、マッチング・エンジン
153は、各フォルダ352〜358それぞれに分類さ
れた画像の中から、最も高い総合類似度(距離で表現す
れば最も小さい総合類似度)を持つ画像を代表画像とし
て選択し、該当するフォルダ情報に関連付けて分類木D
B302に登録する。画像の分類処理が実行されると、
図42の画像分類ウインドウ350eの各フォルダ35
2〜358には、図37に示すように代表画像が表示さ
れる。
Steps S2201-S22 explained above
By executing the process 03 on each image registered in the image DB 108, the images in the image DB 108 can be classified. Further, the matching engine 153 selects, as a representative image, an image having the highest overall similarity (smallest overall similarity in terms of distance) from the images classified into the folders 352 to 358, respectively. Classification tree D in association with the corresponding folder information
Register in B302. When the image classification process is performed,
Each folder 35 in the image classification window 350e of FIG.
In 2 to 358, representative images are displayed as shown in FIG.

【0486】このように、実施の形態22に係る画像分
類装置によれば、求めた類似度に対し、基準画像の種類
に応じて任意の重み付けを行うことができるように、各
基準画像毎に重要度を設定することが可能であり、フォ
ルダ毎に、各基準画像および分類対象の画像の類似度を
求め、求めた類似度に対し、設定された重要度に応じた
重み付けを行うことにより、ユーザの意図を分類条件と
して正確に表現できるため、ユーザの意図を正確に装置
に伝えることが可能となると共に、重要度は類似度に対
する重み付けとして反映されるため、ユーザの意図が反
映された画像の分類結果を得ることが可能となる。
As described above, according to the image classification apparatus of the twenty-second embodiment, the obtained similarity can be arbitrarily weighted in accordance with the type of the reference image. It is possible to set the degree of importance, for each folder, determine the similarity of each reference image and the image of the classification target, by weighting the obtained similarity according to the set importance, Since the user's intention can be accurately expressed as a classification condition, it is possible to accurately convey the user's intention to the device, and the importance is reflected as a weight for the similarity, so that the image reflecting the user's intention is reflected. Can be obtained.

【0487】〔実施の形態23〕実施の形態23に係る
画像分類装置は、実施の形態21の画像分類装置におい
て、実施の形態10で説明した画像検索処理を応用する
ことにより、分類に対するユーザの意図を正確に表現で
きるようにしたものである。
[Twenty-third Embodiment] The image classification apparatus according to the twenty-third embodiment is the same as the image classification apparatus according to the twenty-first embodiment, except that the image search processing described in the tenth embodiment is applied. It is intended to express the intention accurately.

【0488】実施の形態23に係る画像分類装置による
画像の分類処理は、実施の形態19で説明に用いた図4
3の分類条件設定ウインドウ360fにおいて、AND
指定ボタン364ではなく、OR指定ボタン365が選
択された場合に実行される。そこで、実施の形態19に
おける「(1)分類項目設定処理」の説明において、O
R指定ボタン365が選択されたものとして、以下にO
R条件による画像分類処理を説明する。
The image classification process performed by the image classification device according to the twenty-third embodiment is similar to that of the nineteenth embodiment shown in FIG.
3 in the classification condition setting window 360f, AND
This is executed when the OR designation button 365 is selected instead of the designation button 364. Therefore, in the description of “(1) classification item setting process” in the nineteenth embodiment,
Assuming that the R designation button 365 has been selected,
The image classification processing based on the R condition will be described.

【0489】なお、OR条件の指定と共に、図43に示
したフォルダ352には、実施の形態19の場合と同様
に基準画像A,BおよびC,各基準画像について特徴量
の種類毎に指定された重要度ならびに閾値が分類条件と
して設定されたものとする。
In addition to the specification of the OR condition, in the folder 352 shown in FIG. 43, the reference images A, B, and C, and the respective reference images are specified for each type of feature amount similarly to the nineteenth embodiment. It is assumed that the importance and the threshold are set as the classification conditions.

【0490】つぎに、実施の形態23に係る画像分類処
理について図45を参照しつつ説明する。ユーザが画像
分類処理の開始を指定すると、図34のマッチング・エ
ンジン153は、フォルダ352〜358毎に、3種類
の特徴量を用いて各基準画像および分類対象の画像の類
似度を求め、求めた各類似度に対して重要度に応じた重
み付けを行い、各類似度の中から最も高い類似性を示す
類似度を選択して分類対象の画像の総合類似度を求める
処理を実行する(S2201)。
Next, an image classification process according to the twenty-third embodiment will be described with reference to FIG. When the user designates the start of the image classification process, the matching engine 153 in FIG. 34 obtains the similarity between each reference image and the image to be classified using three types of feature amounts for each of the folders 352 to 358, and obtains the similarity. A weighting process is performed on each similarity according to the importance, and a similarity having the highest similarity is selected from the similarities, and a process of obtaining the overall similarity of the image to be classified is performed (S2201). ).

【0491】このステップS2201における処理につ
いてフォルダ352を例にとって具体的に説明する。マ
ッチング・エンジン153は、分類木DB302のフォ
ルダ情報を参照し、フォルダ352に設定された基準画
像A(図43の分類条件設定ウインドウ360fを参
照)および分類対象の画像の類似度を色の特徴量を用い
て求める。すなわち、マッチング・エンジン153は、
色の特徴量に基づいて図4に示した特徴量空間中にプロ
ットされた分類対象の画像と基準画像Aとの距離を例え
ばユークリッド距離などのベクトルの距離定義式を用い
て求める。続いて、マッチング・エンジン153は、求
めた距離に対し、ユーザが基準画像Aに対して指定した
色の特徴量の重要度に応じて重み付けを行う。さらに、
マッチング・エンジン153は、分類対象の画像と基準
画像Aとの距離を構造の特徴量およびテクスチャの特徴
量を用いて求め、求めた各距離に対し、ユーザが基準画
像Aに対して指定した構造の特徴量の重要度およびテク
スチャの特徴量の重要度に応じて重み付けを行う。
The process in step S2201 will be specifically described by taking the folder 352 as an example. The matching engine 153 refers to the folder information of the classification tree DB 302, and determines the similarity between the reference image A (see the classification condition setting window 360f in FIG. 43) set in the folder 352 and the classification target image by using the color feature amount. Is determined using That is, the matching engine 153
The distance between the image to be classified and the reference image A plotted in the feature amount space shown in FIG. 4 based on the color feature amount is obtained using a vector distance definition formula such as a Euclidean distance. Subsequently, the matching engine 153 weights the obtained distance according to the importance of the color feature specified by the user with respect to the reference image A. further,
The matching engine 153 obtains the distance between the image to be classified and the reference image A using the feature amount of the structure and the feature amount of the texture, and for each of the obtained distances, the structure specified by the user for the reference image A. Are weighted according to the importance of the feature amount of the texture and the importance of the feature amount of the texture.

【0492】マッチング・エンジン153は、同様に、
分類対象の画像と基準画像Bとの距離を3種類の特徴量
毎に求め、求めた各距離に対し、基準画像Bに対して指
定された各特徴量毎の重要度に応じた重み付けを行う。
また、分類対象の画像と基準画像Cとの距離を3種類の
特徴量毎に求め、求めた各距離に対し、基準画像Cに対
して指定された各特徴量毎の重要度に応じた重み付けを
行う。
The matching engine 153 also performs
The distance between the image to be classified and the reference image B is obtained for each of three types of feature amounts, and the obtained distances are weighted according to the importance of each of the feature amounts specified for the reference image B. .
Further, the distance between the image to be classified and the reference image C is obtained for each of three types of feature amounts, and the obtained distances are weighted according to the importance of each of the feature amounts specified for the reference image C. I do.

【0493】その後、マッチング・エンジン153は、
3種類の特徴量毎に求めた分類対象の画像と各基準画像
A,BおよびCとの距離の中から最も短い距離を選択し
て総合類似度とする(数10を参照)。マッチング・エ
ンジン153は、このようにしてフォルダ352〜35
8毎に総合類似度を求める。
Thereafter, the matching engine 153
The shortest distance is selected from the distances between the classification target image obtained for each of the three types of feature amounts and each of the reference images A, B, and C, and is set as the overall similarity (see Expression 10). The matching engine 153 thus operates the folders 352 to 35
The overall similarity is calculated for each of the eight.

【0494】続いて、マッチング・エンジン153は、
分類木DB302を参照して、フォルダ352〜358
毎に、ステップS2201で求めた総合類似度が閾値を
超えるか否かを判定する(S2202)。ただし、ここ
では類似度として距離を用いており、距離が短い(距離
の値が小さい)ほど類似性が高いことになるため、実際
には、総合類似度が閾値以下(または未満)であるか否
かを判定することになる。
Subsequently, the matching engine 153
Referring to the classification tree DB 302, folders 352 to 358
For each time, it is determined whether or not the overall similarity calculated in step S2201 exceeds a threshold (S2202). However, here, the distance is used as the similarity, and the shorter the distance (the smaller the value of the distance), the higher the similarity. Therefore, in practice, whether the total similarity is equal to or less than (or less than) the threshold value It will be determined whether or not.

【0495】そして、マッチング・エンジン153は、
求めた総合類似度が閾値を超えるフォルダに分類対象の
画像を分類する(S2203)。すなわち、マッチング
・エンジン153は、求めた総合類似度が閾値を超える
フォルダを分類対象の画像の分類先として決定し、分類
木DB302中に登録された該当するフォルダのフォル
ダ情報に関連付けて分類対象の画像のID(予め設定さ
れているものとする)を分類木DB302に登録する。
[0495] Then, the matching engine 153
The images to be classified are classified into folders in which the calculated overall similarity exceeds the threshold value (S2203). In other words, the matching engine 153 determines a folder in which the calculated overall similarity exceeds the threshold as a classification destination of the image to be classified, and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302 to determine the classification target. An image ID (preset) is registered in the classification tree DB 302.

【0496】以上説明したステップS2201〜S22
03の処理を画像DB108中に登録されている各画像
に対して実行することにより、画像DB108中の画像
を分類することができる。また、マッチング・エンジン
153は、各フォルダ352〜358それぞれに分類さ
れた画像の中から、最も高い総合類似度(距離で表現す
れば最も小さい総合類似度)を持つ画像を代表画像とし
て選択し、該当するフォルダ情報に関連付けて分類木D
B302に登録する。画像の分類処理が実行されると、
図43の画像分類ウインドウ350fの各フォルダ35
2〜358には、図37に示すように代表画像が表示さ
れる。
Steps S2201-S22 explained above
By executing the process 03 on each image registered in the image DB 108, the images in the image DB 108 can be classified. Further, the matching engine 153 selects, as a representative image, an image having the highest overall similarity (smallest overall similarity in terms of distance) from the images classified into the folders 352 to 358, respectively. Classification tree D in association with the corresponding folder information
Register in B302. When the image classification process is performed,
Each folder 35 of the image classification window 350f of FIG.
In 2 to 358, representative images are displayed as shown in FIG.

【0497】このように、実施の形態23に係る画像分
類装置によれば、複数種類の特徴量を用いて基準画像お
よび検索対象の画像の類似度を求める場合に、求めた類
似度に対し、基準画像および特徴量の種類に応じて任意
の重み付けを行うことができるように、各種類の特徴量
毎の重要度を各基準画像毎に設定することが可能であ
り、フォルダそれぞれについて、各種類の特徴量毎に各
基準画像および分類対象の画像の類似度を求め、各種類
の特徴量毎に求めた類似度に対し、設定された重要度に
応じた重み付けを行うことにより、ユーザの意図を分類
条件として正確に表現できるため、ユーザの意図を正確
に装置に伝えることが可能となると共に、重要度は類似
度に対する重み付けとして反映されるため、ユーザの意
図が反映された画像の分類結果を得ることが可能とな
る。
As described above, according to the image classification device of the twenty-third embodiment, when the similarity between the reference image and the image to be searched is obtained using a plurality of types of feature amounts, It is possible to set the importance for each type of feature amount for each reference image so that any weighting can be performed according to the type of the reference image and the feature amount. By calculating the similarity between each reference image and the image to be classified for each feature amount of, and by weighting the similarity obtained for each type of feature amount according to the set importance, the user's intention Can be accurately expressed as a classification condition, so that the user's intention can be accurately conveyed to the device, and the importance is reflected as a weight for the similarity, so that the image in which the user's intention is reflected It is possible to obtain a classification result.

【0498】〔実施の形態24〕実施の形態24に係る
画像分類装置は、実施の形態21の画像分類装置におい
て、実施の形態11で説明した画像検索処理を応用する
ことにより、分類に対するユーザの意図を装置側が汲み
取ることができるようにしたものである。
[Twenty-fourth Embodiment] The image classification device according to the twenty-fourth embodiment is different from the image classification device of the twenty-first embodiment in that the image search processing described in the eleventh embodiment is applied to allow the user The intention is to allow the device to pump the intention.

【0499】実施の形態24に係る画像分類装置による
画像の分類処理は、実施の形態20で説明に用いた図4
1の分類条件設定ウインドウ360dにおいて、AND
指定ボタン364ではなく、OR指定ボタン365が選
択された場合に実行される。そこで、実施の形態20に
おける「(1)分類項目設定処理」の説明において、O
R指定ボタン365が選択されたものとして、以下にO
R条件による画像分類処理を説明する。
The image classification process performed by the image classification device according to the twenty-fourth embodiment is similar to that of the twentieth embodiment shown in FIG.
1 in the classification condition setting window 360d, AND
This is executed when the OR designation button 365 is selected instead of the designation button 364. Therefore, in the description of “(1) Classification item setting process” in the twentieth embodiment, O
Assuming that the R designation button 365 has been selected,
The image classification processing based on the R condition will be described.

【0500】なお、OR条件の指定と共に、図41に示
したフォルダ352には、実施の形態20の場合と同様
に基準画像A,BおよびC,特徴量の種類毎に特徴抽出
エンジン152で決定された重要度ならびに閾値が分類
条件として設定されたものとする。
In addition to the specification of the OR condition, in the folder 352 shown in FIG. 41, the feature extraction engine 152 determines each of the reference images A, B and C, and the type of the feature amount in the same manner as in the twentieth embodiment. It is assumed that the set importance and the threshold are set as the classification conditions.

【0501】つぎに、実施の形態24の画像分類処理に
ついて図45を参照しつつ説明する。ユーザが画像分類
処理の開始を指定すると、図34のマッチング・エンジ
ン153は、フォルダ352〜358毎に、3種類の特
徴量を用いて各基準画像および分類対象の画像の類似度
を求め、求めた各類似度に対して重要度に応じた重み付
けを行い、各類似度の中から最も高い類似性を示す類似
度を選択して分類対象の画像の総合類似度を求める処理
を実行する(S2201)。
Next, an image classification process according to the twenty-fourth embodiment will be described with reference to FIG. When the user designates the start of the image classification process, the matching engine 153 in FIG. 34 obtains the similarity between each reference image and the image to be classified using three types of feature amounts for each of the folders 352 to 358, and obtains the similarity. A weighting process is performed on each similarity according to the importance, and a similarity having the highest similarity is selected from the similarities, and a process of obtaining the overall similarity of the image to be classified is performed (S2201). ).

【0502】このステップS2201における処理につ
いてフォルダ352を例にとって具体的に説明する。マ
ッチング・エンジン153は、分類木DB302のフォ
ルダ情報を参照し、フォルダ352に設定された基準画
像A(図41の分類条件設定ウインドウ360dを参
照)および分類対象の画像の類似度を色の特徴量を用い
て求める。すなわち、マッチング・エンジン153は、
色の特徴量に基づいて図4に示した特徴量空間中にプロ
ットされた分類対象の画像と基準画像Aとの距離を例え
ばユークリッド距離などのベクトルの距離定義式を用い
て求める。続いて、マッチング・エンジン153は、求
めた距離に対し、特徴抽出エンジン152で色の特徴量
について決定した重要度に応じて重み付けを行う。さら
に、マッチング・エンジン153は、分類対象の画像と
基準画像Aについて、構造の特徴量およびテクスチャの
特徴量を用いた距離を求め、求めた各距離に対し、特徴
抽出エンジン152で決定した構造の特徴量の重要度お
よびテクスチャの特徴量の重要度に応じて重み付けを行
う。
[0502] The processing in step S2201 will be specifically described using the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302, and determines the similarity between the reference image A (see the classification condition setting window 360d in FIG. 41) set in the folder 352 and the classification target image by the color feature amount. Is determined using That is, the matching engine 153
The distance between the image to be classified and the reference image A plotted in the feature amount space shown in FIG. 4 based on the color feature amount is obtained using a vector distance definition formula such as a Euclidean distance. Subsequently, the matching engine 153 weights the obtained distance according to the importance determined for the color feature by the feature extraction engine 152. Further, the matching engine 153 obtains a distance using the feature amount of the structure and the feature amount of the texture for the image to be classified and the reference image A, and for each of the obtained distances, obtains the distance of the structure determined by the feature extraction engine 152. Weighting is performed according to the importance of the feature and the importance of the texture.

【0503】マッチング・エンジン153は、同様に、
分類対象の画像と基準画像Bとの距離を3種類の特徴量
毎に求め、求めた各距離に対し、各種類の特徴量毎に決
定された重要度に応じた重み付けを行う。また、分類対
象の画像と基準画像Cとの距離を3種類の特徴量毎に求
め、求めた各距離に対し、各種類の特徴量毎に決定され
た重要度に応じた重み付けを行う。
[0503] Similarly, the matching engine 153
The distance between the image to be classified and the reference image B is obtained for each of the three types of feature amounts, and the obtained distances are weighted in accordance with the importance determined for each type of feature amount. Further, the distance between the image to be classified and the reference image C is obtained for each of the three types of feature amounts, and the obtained distances are weighted in accordance with the importance determined for each of the types of feature amounts.

【0504】その後、マッチング・エンジン153は、
3種類の特徴量毎に求めた分類対象の画像と各基準画像
A,BおよびCとの距離の中から最も短い距離を選択し
て総合類似度を求める。マッチング・エンジン153
は、このようにしてフォルダ352〜358毎に総合類
似度を求める。
[0504] Thereafter, the matching engine 153
The shortest distance is selected from the distances between the classification target image obtained for each of the three types of feature amounts and each of the reference images A, B, and C, and the overall similarity is obtained. Matching engine 153
Calculates the total similarity for each of the folders 352 to 358 in this manner.

【0505】続いて、マッチング・エンジン153は、
分類木DB302を参照して、フォルダ352〜358
毎に、ステップS2201で求めた総合類似度が閾値を
超えるか否かを判定する(S2202)。ただし、ここ
では類似度として距離を用いており、距離が短い(距離
の値が小さい)ほど類似性が高いことになるため、実際
には、総合類似度が閾値以下(または未満)であるか否
かを判定することになる。
Subsequently, the matching engine 153
Referring to the classification tree DB 302, folders 352 to 358
For each time, it is determined whether or not the overall similarity calculated in step S2201 exceeds a threshold (S2202). However, here, the distance is used as the similarity, and the shorter the distance (the smaller the value of the distance), the higher the similarity. Therefore, in practice, whether the total similarity is equal to or less than (or less than) the threshold value It will be determined whether or not.

【0506】そして、マッチング・エンジン153は、
求めた総合類似度が閾値を超えるフォルダに分類対象の
画像を分類する(S2203)。すなわち、マッチング
・エンジン153は、求めた総合類似度が閾値を超える
フォルダを分類対象の画像の分類先として決定し、分類
木DB302中に登録された該当するフォルダのフォル
ダ情報に関連付けて分類対象の画像のID(予め設定さ
れているものとする)を分類木DB302に登録する。
Then, the matching engine 153
The images to be classified are classified into folders in which the calculated overall similarity exceeds the threshold value (S2203). In other words, the matching engine 153 determines a folder in which the calculated overall similarity exceeds the threshold as a classification destination of the image to be classified, and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302 to determine the classification target. An image ID (preset) is registered in the classification tree DB 302.

【0507】以上説明したステップS2201〜S22
03の処理を画像DB108中に登録されている各画像
に対して実行することにより、画像DB108中の画像
を分類することができる。また、マッチング・エンジン
153は、各フォルダ352〜358それぞれに分類さ
れた画像の中から、最も高い総合類似度(距離で表現す
れば最も小さい総合類似度)を持つ画像を代表画像とし
て選択し、該当するフォルダ情報に関連付けて分類木D
B302に登録する。画像の分類処理が実行されると、
図41の画像分類ウインドウ350dの各フォルダ35
2〜358には、図37に示すように代表画像が表示さ
れる。
Steps S2201-S22 explained above
By executing the process 03 on each image registered in the image DB 108, the images in the image DB 108 can be classified. Further, the matching engine 153 selects, as a representative image, an image having the highest overall similarity (smallest overall similarity in terms of distance) from the images classified into the folders 352 to 358, respectively. Classification tree D in association with the corresponding folder information
Register in B302. When the image classification process is performed,
Each folder 35 in the image classification window 350d in FIG.
In 2 to 358, representative images are displayed as shown in FIG.

【0508】このように、実施の形態24に係る画像分
類装置によれば、複数種類の特徴量を用いて基準画像お
よび検索対象の画像の類似度を求める場合に、求めた類
似度に対し、特徴量の種類に応じて任意の重み付けを行
うことができるように、分類項目毎に、設定された各基
準画像間の類似度を各種類の特徴量毎に求め、各種類の
特徴量毎に求めた類似度に基づいて各基準画像間におけ
る各特徴量毎の重要度を決定し、分類項目それぞれにつ
いて、各種類の特徴量毎に各基準画像および分類対象の
画像の類似度を求め、各種類の特徴量毎に求めた類似度
に対し、決定された重要度に応じた重み付けを行うこと
により、装置側でユーザが指定した基準画像間における
各種類の特徴量の重要度を判断し、判断した重要度を画
像間の類似度に反映させるため、ユーザが望む通りの画
像分類処理を実現することができ、ユーザが望む画像の
分類結果を得ることができる。
As described above, according to the image classification device of the twenty-fourth embodiment, when the similarity between the reference image and the image to be searched is obtained using a plurality of types of feature amounts, For each classification item, the degree of similarity between the set reference images is obtained for each type of feature amount so that arbitrary weighting can be performed according to the type of feature amount, and for each type of feature amount, Based on the obtained similarity, the importance of each feature amount between the reference images is determined, and for each classification item, the similarity of each reference image and the image to be classified is obtained for each type of feature amount. By performing weighting according to the determined importance on the similarity obtained for each type of feature, the importance of each type of feature between the reference images specified by the user on the device side is determined, Determining the importance determined against the similarity between images Order to the user can be realized from the image classification processing as desired, it is possible to obtain a classification result of the image desired by the user.

【0509】〔実施の形態25〕つぎに、実施の形態2
5に係る画像分類装置について説明する。実施の形態2
5に係る画像分類装置は、ユーザが希望する基準で画像
を動的に分類していき、所望の画像を探し出すことがで
きるようにするものである。
[Twenty-Fifth Embodiment] Next, a twenty-second embodiment will be described.
5 will be described. Embodiment 2
The image classification device according to 5 dynamically classifies images based on a reference desired by a user, and enables a user to search for a desired image.

【0510】なお、実施の形態25に係る画像分類装置
の構成および画像分類ソフトの構成は図33および図3
4の通りであるため、ここではこれらについての説明を
省略し、画像分類処理についてのみ説明することにす
る。また、分類対象となる画像は、ここでは画像DB1
08に登録されている画像であるものとし、これらの画
像からは色,構造およびテクスチャの特徴量が抽出され
て画像特徴DB109に登録されているものとする。
The structure of the image classification device and the structure of the image classification software according to the twenty-fifth embodiment are shown in FIGS.
4, the description thereof is omitted here, and only the image classification processing will be described. The image to be classified is the image DB1 here.
08, and color, structure, and texture feature amounts are extracted from these images and registered in the image feature DB 109.

【0511】図46〜図48は、実施の形態25におけ
る画像分類処理の説明図である。ユーザが図示しないメ
ニューから「画像分類処理」を選択すると、図34のU
/I部151は、図46に示す画像分類ウインドウ40
0を画面表示する。
FIGS. 46 to 48 are explanatory diagrams of the image classification processing in the twenty-fifth embodiment. When the user selects “image classification processing” from a menu (not shown), U
/ I unit 151 is an image classification window 40 shown in FIG.
0 is displayed on the screen.

【0512】図46に示す画像分類ウインドウ400に
は、初期状態として、画像DB108中の全ての画像を
対象とした分類項目401と、画像DB108中に登録
された画像を動的に分類していく際に使用する特徴量の
種類を表す分類項目402a,403aおよび404a
とが示されている。ユーザが分類項目402a,403
aおよび404aのいずれかを選択することにより、画
像DB108中の画像が動的に分類されることになる。
In the image classification window 400 shown in FIG. 46, as the initial state, the classification items 401 for all the images in the image DB 108 and the images registered in the image DB 108 are dynamically classified. Items 402a, 403a, and 404a representing the types of feature amounts used at the time
Are shown. When the user selects the classification items 402a and 403
By selecting one of a and 404a, the images in the image DB 108 are dynamically classified.

【0513】ここで、分類項目402aは、色の特徴量
を用いて画像を分類する際に使用する項目であり、分類
項目403aは、構造の特徴量を用いて画像を分類する
際に使用する項目であり、分類項目404aは、テクス
チャの特徴量を用いて画像を分類するための項目であ
る。
[0513] Here, the classification item 402a is an item used when classifying an image using the color feature amount, and the classification item 403a is used when classifying the image using the structural feature amount. The classification item 404a is an item for classifying an image using a feature amount of a texture.

【0514】図46において、ユーザが分類項目402
aを指定したものとすると、U/I部151は、色の特
徴量が指定されたことをマッチング・エンジン153に
通知する。マッチング・エンジン153は、色の特徴空
間(図4参照)において画像DB108中の画像をNear
est Neighbor法やK−平均アルゴリズム等の一般的なク
ラスタリング手法を用いてクラスタリングする(類似す
る画像同士のグループに分類する)と共に、個々のクラ
スタから代表画像を選択する。なお、代表画像について
は、例えばクラスタの中心の画像を代表画像として選択
する等、代表画像同士が非類似であれば選択方法はいか
なるものであっても良い。
In FIG. 46, the user enters a classification item 402
Assuming that a is specified, the U / I unit 151 notifies the matching engine 153 that the color feature has been specified. The matching engine 153 converts the image in the image DB 108 to the Near in the color feature space (see FIG. 4).
Clustering is performed using a general clustering method such as an est Neighbor method or a K-means algorithm (classification into groups of similar images), and a representative image is selected from each cluster. As for the representative image, any selection method may be used as long as the representative images are not similar, such as selecting the image at the center of the cluster as the representative image.

【0515】そして、U/I部151は、マッチング・
エンジン153からクラスタリングの結果を入力し、図
47に示すように、ユーザによって選択された分類項目
402aに関連付けて代表画像405〜408を表示す
る。図47においては、代表画像が4枚表示されている
ため、画像DB108の画像が色の特徴量により4つの
クラスタに分類されたことが示されている。つまり、実
施の形態25においては、特徴量の種類を指定すること
によって生成されるクラスタが実質的な分類項目という
ことになる。ユーザは必要に応じて代表画像以外の各ク
ラスタに属する画像を表示して見ることができる。
The U / I unit 151 performs matching
The clustering result is input from the engine 153, and the representative images 405 to 408 are displayed in association with the classification item 402a selected by the user, as shown in FIG. In FIG. 47, since four representative images are displayed, it is shown that the images in the image DB 108 are classified into four clusters based on the color feature amounts. That is, in the twenty-fifth embodiment, the cluster generated by designating the type of the feature amount is a substantial classification item. The user can display and view images belonging to each cluster other than the representative image as necessary.

【0516】図48は、代表画像407のクラスタを色
の特徴空間でさらにクラスタリングして分類した結果を
示している。このように、段階的に特徴量の種類を指定
していくことにより、ユーザは目的の画像にたどり着く
ことができる。
FIG. 48 shows the result of further clustering and clustering the clusters of the representative image 407 in the color feature space. As described above, the user can reach the target image by designating the types of the feature amounts step by step.

【0517】なお、色以外の特徴量については詳細な説
明を省略するが、構造やテクスチャの特徴量が選択され
た場合であっても、同様に特徴空間でクラスタリングが
行われ、画像が分類されていくことになる。
[0517] The detailed description of the feature values other than the color is omitted, but even when the feature value of the structure or the texture is selected, the clustering is similarly performed in the feature space to classify the image. Will go on.

【0518】このように、実施の形態25に係る画像分
類装置によれば、特徴量の種類が指定されると、指定さ
れた種類の特徴量を用いて分類対象の各画像間の類似度
を求め、求めた分類対象の各画像間の類似度に基づい
て、分類対象の各画像を類似する画像同士のグループに
分類し、分類された各グループからそれぞれグループを
代表する代表画像を選択して画面表示し、さらに、表示
された代表画像の一つが指定されるとと共に、特徴量の
種類が指定されると、指定された種類の特徴量を用いて
代表画像の属するグループに分類された各画像を類似す
る画像同士のグループに分類し、分類された各グループ
からそれぞれグループを代表する代表画像を選択して画
面表示することにより、画像を分類したい時にユーザが
希望する基準で画像を動的に分類していくことが可能と
なるため、画像の分類を利用して所望の画像を探し出す
ことが可能となる。したがって、新たな分類方法で画像
を分類可能な画像分類装置を提供することができる。
[0518] As described above, according to the image classification device of the twenty-fifth embodiment, when the type of the feature is specified, the similarity between the images to be classified is determined using the specified type of feature. Based on the obtained degree of similarity between the images to be classified, the images to be classified are classified into groups of similar images, and a representative image representing each group is selected from each of the classified groups. On the screen, when one of the displayed representative images is designated and the type of the feature amount is designated, each of the classes classified into the group to which the representative image belongs using the designated type of feature amount By classifying images into groups of similar images, selecting a representative image representing each group from each of the classified groups and displaying the selected image on the screen, the image can be classified according to a standard desired by the user when the image is to be classified. It becomes possible to continue to dynamically classify, using the classification of the image it is possible to find a desired image. Therefore, it is possible to provide an image classification device capable of classifying images by a new classification method.

【0519】また、特徴量の種類を分類項目402,4
03および404として画面表示し、指定された分類項
目に関連付けて、分類された各グループの代表画像を画
面表示することにより、図48に示すように画像DB1
08中の画像を分類した結果を木構造で画面表示できる
ため、ユーザが画像分類処理の様子を一目で認識でき、
動的な画像分類処理の利便性の向上を図ることができ
る。
Also, the type of the feature quantity is classified into the classification items 402 and 4.
03 and 404, and by displaying the classified representative images of each group on the screen in association with the specified classification items, as shown in FIG.
08 can be displayed on the screen in a tree structure, so that the user can recognize the state of the image classification processing at a glance,
The convenience of the dynamic image classification process can be improved.

【0520】なお、実施の形態25の画像分類処理によ
って画像を分類した結果を、例えば分類履歴として分類
木DB302に登録しておくことにより、再利用するこ
とができる。
[0520] The result of classifying images by the image classifying process of the twenty-fifth embodiment can be reused by registering it in the classification tree DB 302 as a classification history, for example.

【0521】また、分類対象の画像は画像DB108中
の画像に限定されるものではなく、例えば実施の形態1
〜13の画像検索装置で検索した結果の複数の画像を分
類対象の画像として用いることもできる。
[0521] The images to be classified are not limited to the images in the image DB 108.
A plurality of images obtained as a result of search by the image search devices of (1) to (13) can be used as images to be classified.

【0522】〔実施の形態26〕つぎに、実施の形態2
6の画像分類装置について説明する。実施の形態26に
係る画像分類装置は、実施の形態14〜25で説明した
画像分類装置の一部または全てを一つの画像分類装置と
して統合したものである。すなわち、実施の形態14〜
25における説明から明らかなように、これらの装置は
図33および図34に示したような共通の構成で実現可
能なものであるため、容易に統合することができる。
[Twenty-Sixth Embodiment] Next, a twenty-second embodiment will be described.
The sixth image classification device will be described. The image classification device according to the twenty-sixth embodiment is obtained by integrating some or all of the image classification devices described in the fourteenth to twenty-fifth embodiments into one image classification device. That is, Embodiments 14 to
As is clear from the description at 25, these devices can be implemented with a common configuration as shown in FIGS. 33 and 34, so that they can be easily integrated.

【0523】実施の形態14〜25で説明した画像分類
装置を一つに統合することにより、各フォルダ毎に異な
る方法で分類条件を設定することができる。例えば、図
35において、フォルダ352には実施の形態14で説
明した分類条件を、フォルダ353には実施の形態17
で説明した分類条件を、フォルダ358には実施の形態
21で説明した分類条件をそれぞれ設定することができ
る。
By integrating the image classification devices described in the fourteenth to twenty-fifth embodiments into one, classification conditions can be set by different methods for each folder. For example, in FIG. 35, the folder 352 stores the classification conditions described in the fourteenth embodiment, and the folder 353 stores the classification conditions described in the seventeenth embodiment.
Can be set in the folder 358, and the classification condition described in Embodiment 21 can be set in the folder 358.

【0524】なお、分類条件の設定処理や画像の分類処
理については各実施の形態の項で説明した通りであるた
め、ここでは説明を省略する。
[0524] The classification condition setting processing and the image classification processing are the same as those described in the respective embodiments, and thus description thereof is omitted here.

【0525】このように、実施の形態14〜25で説明
した画像分類装置を一つに統合することにより、さまざ
まな視点で分類条件を設定することができ、分類条件の
設定に関する自由度を増すことができる。
As described above, by integrating the image classification devices described in the fourteenth to twenty-fifth embodiments, classification conditions can be set from various viewpoints, and the degree of freedom in setting the classification conditions is increased. be able to.

【0526】なお、画像分類装置の場合と同様の理由
で、実施の形態1〜13で説明した画像検索装置を一つ
の装置として統合することも可能である。これにより、
異なる検索方法を組み合わせて所望の画像を検索するこ
とが可能となる。
For the same reason as in the case of the image classification device, the image search devices described in the first to thirteenth embodiments can be integrated as one device. This allows
It is possible to search for a desired image by combining different search methods.

【0527】〔実施の形態27〕さらに、実施の形態1
〜25で説明した画像検索装置および画像分類装置の一
部または全てを一つの装置として統合することもできる
(画像検索装置または画像分類装置のマッチング・エン
ジン153に画像検索処理および画像分類処理の両方の
機能を持たせるということ)。つまり、本発明の実施の
形態で説明した画像検索処理および画像分類処理におい
ては、図2および図34に示したマッチング・エンジン
153が画像から抽出した特徴量を用いて画像間の類似
度を求めることが基本となっていることから、実施の形
態1〜25で説明した画像検索装置および画像分類装置
を一つの装置に容易に統合することが可能である。
[Embodiment 27] Further, Embodiment 1
It is also possible to integrate a part or all of the image search device and the image classification device described in 〜 to 25 as one device (the image search device and the matching engine 153 of the image classification device perform both the image search process and the image classification process). That it has the function of). That is, in the image search processing and the image classification processing described in the embodiment of the present invention, the similarity between images is obtained by using the feature amounts extracted from the images by the matching engine 153 shown in FIGS. Therefore, the image search device and the image classification device described in Embodiments 1 to 25 can be easily integrated into one device.

【0528】詳細な説明については省略するが、実施の
形態1〜25で説明した画像検索装置および画像分類装
置を一つの装置に統合することによって以下のような処
理を行うことが可能となる。
[0528] Although detailed description is omitted, the following processing can be performed by integrating the image search device and the image classification device described in Embodiments 1 to 25 into one device.

【0529】(1)実施の形態14〜25で説明したい
ずれかの画像分類処理で各フォルダ(分類項目)に分類
した画像の中から選択した画像を問合せ画像として指定
して、実施の形態1〜13で説明したいずれかの画像検
索処理で画像検索を行うことができる。 (2)実施の形態1〜13で説明したいずれかの画像検
索処理で検索された検索結果の画像を分類対象とし、実
施の形態14〜25(または26)で説明したいずれか
の画像分類処理で分類することができる。 (3)実施の形態14〜25で説明したいずれかの画像
分類処理で特定のフォルダ(分類項目)に分類された複
数の画像を検索対象とし、実施の形態1〜13で説明し
たいずれかの画像検索処理で所望の画像を検索すること
ができる。
(1) An image selected from images classified into each folder (classification item) by any one of the image classification processes described in Embodiments 14 to 25 is designated as a query image, and Embodiment 1 is specified. Image search can be performed by any of the image search processes described in (1) to (13). (2) One of the image classification processes described in any one of Embodiments 14 to 25 (or 26) is set such that an image of a search result searched in any one of the image retrieval processes described in Embodiments 1 to 13 is to be classified. Can be classified. (3) A plurality of images classified into a specific folder (classification item) in any one of the image classification processes described in Embodiments 14 to 25 are searched, and any of the images described in Embodiments 1 to 13 is used. A desired image can be searched by the image search processing.

【0530】このように、実施の形態1〜25で説明し
た画像検索装置および画像分類装置の一部または全てを
一つの装置に統合することにより、自由に画像検索処理
や画像分類処理を実行することが可能となる。
As described above, by integrating some or all of the image search device and the image classification device described in Embodiments 1 to 25 into one device, the image search process and the image classification process can be executed freely. It becomes possible.

【0531】以上説明したように、本発明に係る画像処
理装置および画像分類装置は、各フローチャートに基づ
く手順に従って、予め用意されたプログラムをコンピュ
ータで実行することによって実現される。このプログラ
ムは、前述した各実施の形態毎、または任意に組み合わ
せて提供することが可能である。
[0531] As described above, the image processing apparatus and the image classification apparatus according to the present invention are realized by executing a prepared program on a computer in accordance with the procedure based on each flowchart. This program can be provided for each embodiment described above or in any combination.

【0532】このプログラムは、ハードディスク,フロ
ッピーディスク,CD−ROM,MO,DVD等のコン
ピュータで読み取り可能な記録媒体に記録されて提供さ
れる。そして、図49(a)に示すように、プログラム
は、記録媒体450からCPU101(コンピュータ1
00)によって読み出され、CPU101がプログラム
に基づく処理を実行することによって本発明に係る画像
検索装置および/または画像分類装置が実現される。
This program is provided by being recorded on a computer-readable recording medium such as a hard disk, a floppy disk, a CD-ROM, an MO, and a DVD. Then, as shown in FIG. 49A, the program is transferred from the recording medium 450 to the CPU 101 (computer 1).
00), and the CPU 101 executes processing based on the program, thereby realizing the image search device and / or the image classification device according to the present invention.

【0533】また、このプログラムは、図49(b)に
示すように、サーバ451の記録媒体からインターネッ
トやLANのようなネットワークを介してダウンロード
し、CPU101に読み込むという形態においても実行
可能なものである。また、ネットワークではなく、例え
ば放送波でプログラムを配信することによってもダウン
ロードして実行することができる。
This program can also be executed in the form of being downloaded from a recording medium of the server 451 via a network such as the Internet or a LAN, and read into the CPU 101, as shown in FIG. is there. Also, the program can be downloaded and executed by distributing the program not by a network but by a broadcast wave, for example.

【0534】また、前述した各実施の形態においては特
に言及しなかったが、本発明の画像検索装置および画像
分類装置は、静止画に限らず、動画像にも適用すること
ができる。これは、動画像は連続する静止画からなるも
のであるからである。
Although not specifically mentioned in the above embodiments, the image search device and the image classification device of the present invention can be applied not only to still images but also to moving images. This is because a moving image is composed of continuous still images.

【0535】また、実施の形態1〜3で説明した画像検
索処理は実施の形態4〜7で説明したAND検索と同様
の手法を用いたものであるといえ、それらに対して実施
の形態8〜11で説明したOR検索を適用することも可
能であることから、検索ウインドウ200a,200b
および200c(図5,図7および図9)において、A
ND条件およびOR条件を指定できるようにしても良
い。実施の形態14〜16で説明した画像分類装置にお
いても、同様に、分類条件の一つしてAND条件および
OR条件を指定できるようにしても良い。
The image search processing described in the first to third embodiments can be said to use the same method as the AND search described in the fourth to seventh embodiments. The search windows 200a and 200b can be applied to the OR search described in
And 200c (FIGS. 5, 7 and 9)
The ND condition and the OR condition may be designated. Similarly, in the image classification device described in the fourteenth to sixteenth embodiments, an AND condition and an OR condition may be designated as one of the classification conditions.

【0536】また、実施の形態4〜7で説明した画像検
索装置,実施の形態8〜11で説明した画像検索装置,
実施の形態17〜20で説明した画像分類装置,および
実施の形態21〜24で説明した画像分類装置において
は、それぞれAND条件またはOR条件を指定すること
にしているが、AND条件またはOR条件の指定は必須
のものではない。換言すれば、AND条件またはOR条
件を指定しなくても、各実施の形態で説明した処理を実
行するように装置を構成することができる。
The image search device described in the fourth to seventh embodiments, the image search device described in the eighth to eleventh embodiments,
In the image classification devices described in the seventeenth to twentieth embodiments and the image classification device described in the twenty-first to twenty-fourth embodiments, an AND condition or an OR condition is specified, respectively. Specification is not mandatory. In other words, the apparatus can be configured to execute the processing described in each embodiment without specifying an AND condition or an OR condition.

【0537】また、詳細な説明については省略するが、
実施の形態14〜24で説明した画像分類装置におい
て、例えば図35に示したフォルダ354に画像を分類
する処理を実行するタイミングは、フォルダ353に画
像が分類された後となる。なぜなら、フォルダ354は
フォルダ353に分類された画像をさらに分類するため
のものであるからである。加えて、画像を分類するため
のフォルダの追加・削除や、フォルダに設定した分類条
件の変更等の処理を自由に行うこともできる。
[0537] Although detailed description is omitted,
In the image classification apparatus described in the fourteenth to twenty-fourth embodiments, for example, the timing of executing the process of classifying images into the folder 354 shown in FIG. 35 is after the image is classified into the folder 353. This is because the folder 354 is for further classifying the images classified into the folder 353. In addition, it is possible to freely perform processing such as addition / deletion of a folder for classifying images and change of classification conditions set for the folder.

【0538】さらに、詳細な説明については省略する
が、例えばクライアント・サーバシステムにおいて、サ
ーバに各実施の形態で説明した画像検索装置または画像
分類装置の機能を持たせるようにして、クライアントか
ら検索条件を指定したり、分類された画像をクライアン
トの画面に表示させたりすることが可能であることは明
らかである。
Although detailed description is omitted, for example, in a client-server system, the server is provided with the function of the image search device or the image classification device described in each embodiment, and the search conditions are set by the client. It is apparent that it is possible to specify the image or to display the classified image on the screen of the client.

【0539】[0539]

【発明の効果】以上説明したように、本発明の画像検索
装置(請求項1)によれば、問合せ画像および検索対象
の画像の類似度を求める際に使用される各種類の特徴量
毎にそれぞれ一つの問合せ画像を指定し、検索対象の画
像毎に、指定された各問合せ画像との類似度を対応する
種類の特徴量を用いて求めると共に、求めた各問合せ画
像との類似度を合計して検索対象の画像の総合類似度を
求め、検索対象の画像毎に求めた総合類似度に基づいて
検索結果を出力することにより、ユーザの意図を検索条
件として正確に表現できるため、ユーザの意図を正確に
装置に伝えることができると共に、検索に対するユーザ
の意図を確実に装置に伝えることができるため、検索に
対するユーザの意図を正確に反映した検索結果を得るこ
とができ、ユーザが望む通りの精度の高い画像検索処理
を行うことができる。具体的には、例えば、問合せ画像
として適切な画像が存在しない場合であっても、検索結
果として望む画像に色の雰囲気が似た画像やオブジェク
トの形状の雰囲気が似た画像を問合せ画像として指定
し、これらの画像を合わせたものを一つの問合せとして
使用することができる。
As described above, according to the image search apparatus of the present invention (claim 1), for each type of feature amount used when obtaining the similarity between the query image and the image to be searched. Each query image is designated, and for each image to be searched, the degree of similarity to each designated query image is obtained using the corresponding type of feature quantity, and the obtained degree of similarity to each query image is totaled. By calculating the overall similarity of the images to be searched and outputting the search results based on the overall similarity obtained for each image to be searched, the intention of the user can be accurately expressed as a search condition, so that Since the intention can be accurately transmitted to the device and the user's intention for the search can be reliably transmitted to the device, a search result that accurately reflects the user's intention for the search can be obtained. Accurate image retrieval processing as desired can be carried out. Specifically, for example, even when an appropriate image does not exist as an inquiry image, an image having a similar color atmosphere to an image desired as a search result or an image having an atmosphere similar to an object shape is designated as an inquiry image. Then, a combination of these images can be used as one query.

【0540】また、本発明の画像検索装置(請求項2)
によれば、問合せ画像を複数指定すると共に、指定した
各問合せ画像毎に検索対象の画像との類似度を求める際
に使用する特徴量の種類を指定し、検索対象の画像毎
に、指定された種類の特徴量を用いて各問合せ画像との
類似度を求めると共に、求めた各問合せ画像との類似度
を合計して検索対象の画像の総合類似度を求め、検索対
象の画像毎に求めた総合類似度に基づいて検索結果を出
力することにより、ユーザの意図を検索条件として正確
に表現できるため、ユーザの意図を正確に装置に伝える
ことができると共に、検索に対するユーザの意図を確実
に装置に伝えることができるため、検索に対するユーザ
の意図を正確に反映した検索結果を得ることができ、ユ
ーザが望む通りの精度の高い画像検索処理を行うことが
できる。具体的には、例えば、問合せ画像として適切な
画像が存在しない場合であっても、検索結果として望む
画像に色の雰囲気が似た画像やオブジェクトの形状の雰
囲気が似た画像を問合せ画像として指定し、これらの画
像を合わせたものを一つの問合せとして使用することが
できる。
Also, the image search device of the present invention (Claim 2)
According to this, a plurality of query images are specified, and a type of a feature amount used when obtaining a similarity with the search target image is specified for each specified query image. The similarity with each query image is calculated using the feature amounts of the different types, and the similarity with each query image obtained is summed to obtain the overall similarity of the search target image. By outputting search results based on the total similarity, the user's intention can be accurately expressed as a search condition, so that the user's intention can be accurately conveyed to the device and the user's intention for the search can be reliably determined. Since the information can be transmitted to the apparatus, a search result that accurately reflects the user's intention for the search can be obtained, and a highly accurate image search process desired by the user can be performed. Specifically, for example, even when an appropriate image does not exist as an inquiry image, an image having a similar color atmosphere to an image desired as a search result or an image having an atmosphere similar to an object shape is designated as an inquiry image. Then, a combination of these images can be used as one query.

【0541】また、本発明の画像検索装置(請求項3)
によれば、問合せ画像を複数指定し、検索対象の画像毎
に、指定された各問合せ画像との類似度を求めると共
に、求めた各問合せ画像との類似度を合計して検索対象
の画像の総合類似度を求め、検索対象の画像毎に求めた
総合類似度に基づいて、検索結果を出力することによ
り、AND検索を行うことが可能となるため、ユーザの
意図を検索条件として正確に表現するための一つの手法
を提供することができる。
Also, the image search device of the present invention (Claim 3)
According to the method, a plurality of query images are designated, the similarity with each designated query image is obtained for each of the search target images, and the obtained similarity with each query image is summed to obtain the search target image. By obtaining the overall similarity and outputting the search result based on the overall similarity obtained for each image to be searched, it is possible to perform an AND search, so that the user's intention is accurately expressed as a search condition. One approach can be provided.

【0542】また、本発明の画像検索装置(請求項4)
によれば、問合せ画像を複数指定し、検索対象の画像毎
に、指定された各問合せ画像との類似度を求めると共
に、求めた各問合せ画像との類似度の中から最も高い類
似性を示す類似度を選択して検索対象の画像の総合類似
度を求め、検索対象の画像毎に求めた総合類似度に基づ
いて、検索結果を出力することにより、OR検索を行う
ことが可能となるため、ユーザの意図を検索条件として
正確に表現するための一つの手法を提供することができ
る。
Also, the image search device of the present invention (Claim 4)
According to the method, a plurality of query images are designated, a similarity with each designated query image is obtained for each image to be searched, and the highest similarity among the obtained query images is shown. The OR search can be performed by selecting the similarity, obtaining the overall similarity of the search target image, and outputting the search result based on the total similarity obtained for each search target image. One method for accurately expressing the user's intention as a search condition can be provided.

【0543】また、本発明の画像検索装置(請求項5)
によれば、請求項2,3または4に記載の画像検索装置
において、求めた類似度に対し、問合せ画像の種類に応
じて任意の重み付けを行うことができるように、各問合
せ画像毎に重要度を指定することが可能であり、検索対
象の画像毎に、各問合せ画像との類似度を求め、求めた
各問合せ画像との類似度に対し、指定された重要度に応
じた重み付けを行った後、総合類似度を求めることによ
り、ユーザの意図を検索条件として正確に表現できるた
め、ユーザの意図を正確に装置に伝えることが可能とな
ると共に、重要度は類似度に対する重み付けとして反映
されるため、ユーザの意図が反映された検索結果の画像
を得ることが可能となる。
Also, the image search device of the present invention (Claim 5)
According to the image retrieval apparatus according to the second, third or fourth aspect, an important weight is assigned to each query image so that the obtained similarity can be arbitrarily weighted according to the type of the query image. The degree of similarity can be specified, the similarity with each query image is obtained for each image to be searched, and the obtained similarity with each query image is weighted according to the specified importance. After calculating the overall similarity, the user's intention can be accurately expressed as a search condition, so that the user's intention can be accurately transmitted to the device, and the importance is reflected as a weight for the similarity. Therefore, it is possible to obtain a search result image in which the user's intention is reflected.

【0544】また、本発明の画像検索装置(請求項6)
によれば、請求項3または4に記載の画像検索装置にお
いて、複数種類の特徴量を用いて問合せ画像および検索
対象の画像の類似度を求める場合に、求めた類似度に対
し、問合せ画像および特徴量の種類に応じて任意の重み
付けを行うことができるように、各種類の特徴量毎の重
要度を各問合せ画像毎に指定することが可能であり、検
索対象の画像それぞれについて、各種類の特徴量毎に各
問合せ画像との類似度を求め、各種類の特徴量毎に求め
た各問合せ画像との類似度に対し、指定された重要度に
応じた重み付けを行った後、総合類似度を求めることに
より、ユーザの意図を検索条件として正確に表現できる
ため、ユーザの意図を正確に装置に伝えることが可能と
なると共に、重要度は類似度に対する重み付けとして反
映されるため、ユーザの意図が反映された検索結果の画
像を得ることが可能となる。
[0544] Further, the image retrieval device of the present invention (Claim 6)
According to the image retrieval apparatus according to claim 3 or 4, when the similarity between the query image and the image to be searched is obtained using a plurality of types of feature amounts, the query image and the search image are compared with the obtained similarity. It is possible to specify the importance of each type of feature amount for each query image so that any weight can be assigned according to the type of feature amount. After calculating the similarity with each query image for each feature amount, weighting the similarity with each query image obtained for each type of feature amount according to the specified importance, and then performing overall similarity By calculating the degree, the user's intention can be accurately expressed as a search condition, so that the user's intention can be accurately conveyed to the apparatus. In addition, the importance is reflected as a weight to the similarity, and thus the user's intention is reflected. The intent of The becomes possible to obtain an image of the search results are reflected.

【0545】また、本発明の画像検索装置(請求項7)
によれば、請求項3または4に記載の画像検索装置にお
いて、複数種類の特徴量を用いて問合せ画像および検索
対象の画像の類似度を求める場合に、求めた類似度に対
し、特徴量の種類に応じて任意の重み付けを行うことが
できるように、各種類の特徴量毎に、指定された各問合
せ画像間の類似度を求め、求めた各種類の特徴量毎の類
似度に基づいて各問合せ画像間における各種類の特徴量
毎の重要度を決定し、検索対象の画像それぞれについ
て、各種類の特徴量毎に各問合せ画像との類似度を求
め、各種類の特徴量毎に求めた各問合せ画像との類似度
に対し、決定した各種類の特徴量毎の重要度に応じた重
み付けを行った後、総合類似度を求めることにより、装
置側でユーザが指定した問合せ画像間における各種類の
特徴量の重要度を判断し、判断した重要度を画像間の類
似度に反映させるため、ユーザの意図に合った検索結果
を返すことが可能となる。したがって、ユーザが望む通
りの検索処理を実現することができ、ユーザが望む検索
結果を得ることができる。
[0545] Further, the image retrieval apparatus of the present invention (Claim 7)
According to the third aspect of the present invention, in a case where the similarity between the query image and the image to be searched is obtained by using a plurality of types of feature amounts, the feature amount of the feature amount is compared with the obtained similarity. The similarity between the specified query images is calculated for each type of feature amount so that arbitrary weighting can be performed according to the type, and based on the obtained similarity degree for each type of feature amount. Determine the importance of each type of feature value between query images, determine the similarity with each query image for each type of feature value for each image to be searched, and determine the similarity for each type of feature value. After weighting the similarity with each query image according to the degree of importance for each type of determined feature amount, the overall similarity is obtained, so that a query between the query images specified by the user on the device side is performed. Determine the importance of each type of feature To reflect the importance of determining the similarity between images, it is possible to return search results that match the user's intention. Therefore, search processing desired by the user can be realized, and search results desired by the user can be obtained.

【0546】また、本発明の画像検索装置(請求項8)
によれば、問合せ画像を少なくとも一つ指定すると共
に、画像から抽出する特徴量の粗さのレベルを粗から細
に向かって段階的に定義した抽出基準に基づいて、検索
に利用する特徴量の粗さのレベルを少なくとも一つ指定
し、抽出基準に基づいて、問合せ画像および複数の検索
対象の画像から少なくとも指定された粗さのレベルに該
当する特徴量を所定のタイミングで抽出し、検索対象の
画像毎に、指定された粗さのレベルに応じた特徴量を用
いて問合せ画像との類似度を求め、検索対象の画像毎に
求めた類似度に基づいて検索結果を出力するため、検索
精度の異なる複数種類の検索処理を実行することが可能
となる。すなわち、ユーザが検索に使用する特徴量の粗
さのレベルを少なくとも一つ指定することができるた
め、検索に対するユーザの視点の細かさを検索条件とし
て表現でき、ユーザの意図を検索条件として正確に表現
することができる。したがって、ユーザが望む通りの画
像検索処理を行うことが可能となる。
[0546] Further, the image retrieval apparatus of the present invention (claim 8)
According to the method, at least one query image is specified, and the feature level used for the search is determined based on the extraction criterion in which the roughness level of the feature quantity extracted from the image is defined stepwise from coarse to fine. At least one roughness level is specified, and a feature amount corresponding to at least the specified roughness level is extracted at a predetermined timing from the query image and the plurality of search target images based on the extraction criterion. For each of the images, a similarity with the query image is obtained using a feature amount corresponding to the specified roughness level, and a search result is output based on the similarity obtained for each image to be searched. It is possible to execute a plurality of types of search processing with different precisions. That is, since the user can specify at least one level of roughness of the feature amount used for the search, the fineness of the user's viewpoint for the search can be expressed as the search condition, and the user's intention can be accurately determined as the search condition. Can be expressed. Therefore, it is possible to perform an image search process as desired by the user.

【0547】また、本発明の画像検索装置(請求項9)
によれば、請求項8に記載の画像検索装置において、抽
出基準が、少なくとも画像を何分割するかを表す分割数
を粗さのレベルとして段階的に定義しており、段階的に
定義された粗さのレベルのいずれか一つに応じて特徴量
を抽出する場合、該当する分割数に基づいて画像を分割
して複数の分割画像を生成し、生成した各分割画像から
特徴量をそれぞれ抽出することにより、問合せ画像およ
び検索対象の画像から分割画像単位の特徴量からなる特
徴量群を抽出し、特徴量群を利用して問合せ画像および
検索対象の画像の類似度を求める場合、問合せ画像およ
び検索対象の画像の対応する分割画像毎の類似度を該当
する特徴量を用いてそれぞれ求めることにより、問合せ
画像および検索対象の画像の類似度を求めるようにした
ため、画像の分割数で特徴量の粗さのレベルを容易に定
義することができ、各分割画像毎に類似度を求めること
によって画像検索に画像特徴の位置関係という概念を導
入することが可能となる。したがって、精度の高い画像
検索処理を実行することが可能となる。
[0547] Further, the image retrieval apparatus of the present invention (claim 9)
According to the image retrieval apparatus according to the eighth aspect, the extraction criterion defines the number of divisions indicating at least how many images are divided in steps as a roughness level, and is defined stepwise. When extracting a feature value according to one of the roughness levels, the image is divided based on the corresponding number of divisions to generate a plurality of divided images, and the feature value is extracted from each of the generated divided images. By extracting a feature amount group composed of feature amounts in divided image units from the query image and the search target image, and using the feature amount group to determine the similarity between the query image and the search target image, the query image The similarity between the query image and the search target image is obtained by calculating the similarity of each of the corresponding divided images of the search target image using the corresponding feature amount. In the level of the feature amount of roughness can be easily defined, it is possible to introduce the concept that the position relationship between the image features in the image search by determining the similarity for each divided image. Therefore, it is possible to execute highly accurate image search processing.

【0548】また、本発明の画像検索装置(請求項1
0)によれば、抽出基準が、段階的に定義された粗さの
レベル中の最も粗い特徴量を示すレベルとして、画像を
分割することなく、画像全体を特徴量の抽出対象とする
レベルを含み、画像全体を特徴量の抽出対象とするレベ
ルに応じて特徴量を抽出する場合、問合せ画像および検
索対象の画像から画像全体を対象として特徴量を抽出す
るため、画像特徴の位置関係を無視した単純なレベルで
の検索処理を含めることが可能となる。
Further, the image search device of the present invention (Claim 1)
According to 0), the extraction criterion sets the level at which the entire image is to be extracted as a feature amount without dividing the image, as a level indicating the coarsest feature amount among the roughness levels defined stepwise. When extracting feature values according to the level at which feature values are extracted for the entire image, ignore the positional relationship between image features because the feature values are extracted for the entire image from the query image and the image to be searched. It is possible to include a search process at a simple level.

【0549】また、本発明の画像検索装置(請求項1
1)によれば、請求項8,9または10のいずれか一つ
に記載の画像検索装置において、抽出基準が、画像中に
存在するオブジェクトを特徴量の抽出対象とする場合
に、オブジェクトから抽出する特徴量の粗さのレベルの
定義を含むため、さらに異なる視点で検索条件を指定す
ることが可能となり、ユーザの意図を検索条件として正
確に表現することができる。
Also, the image search device of the present invention (Claim 1)
According to 1), in the image retrieval device according to any one of claims 8, 9 and 10, when the extraction criterion is to extract an object existing in an image as a feature amount, the extraction is performed from the object. Since the definition of the level of roughness of the feature quantity to be included is included, it is possible to specify the search condition from a further different viewpoint, and the intention of the user can be accurately expressed as the search condition.

【0550】また、本発明の画像検索装置(請求項1
2)によれば、請求項8〜11のいずれか一つに記載の
画像検索装置において、複数の検索対象の画像について
は抽出基準で定義された全ての粗さのレベルに応じた特
徴量を予め抽出しておき、指定された問合せ画像のう
ち、特徴量が抽出されていない問合せ画像については類
似度を求める処理を実行する前に指定された粗さのレベ
ルに応じた特徴量を抽出するようにしたため、画像検索
処理の高速化を図ることができる。
[0550] Further, the image retrieval apparatus of the present invention (claim 1)
According to 2), in the image search device according to any one of claims 8 to 11, for a plurality of images to be searched, feature amounts corresponding to all roughness levels defined by extraction criteria are set. Extracted in advance, and among the specified query images, for a query image from which no feature amount has been extracted, extract a feature amount corresponding to the specified roughness level before executing the process of obtaining similarity. As a result, the speed of the image search process can be increased.

【0551】また、本発明の画像検索装置(請求項1
3)によれば、問合せ画像を少なくとも一つ指定し、検
索対象の画像毎に、検索対象の画像中の所定のサイズの
領域と指定された問合せ画像との類似度を予め抽出した
所定の特徴量を用いて求める処理を検索対象の画像全体
にわたって繰り返し実行し、検索対象の画像毎に求めた
類似度に基づいて検索結果を出力するため、検索対象の
画像の中から、問合せ画像を含む画像を探し出すことが
できる。したがって、ユーザの意図するような画像検索
を実現する一つの手法を提供することができる。
The image retrieval apparatus of the present invention (Claim 1)
According to 3), at least one query image is specified, and for each search target image, a predetermined feature in which a similarity between a region of a predetermined size in the search target image and the specified query image is extracted in advance. In order to output the search result based on the similarity obtained for each image to be searched by repeatedly executing the process using the amount over the entire image to be searched, the image including the query image is selected from among the images to be searched. Can be found. Therefore, it is possible to provide one technique for realizing an image search intended by the user.

【0552】また、本発明の画像検索装置(請求項1
4)によれば、請求項1〜13のいずれか一つに記載の
画像検索装置において、検索結果の画像を問合せ画像と
して指定できるため、さらに詳細な絞込み検索を行うこ
とができ、ユーザが望む通りの検索処理を実現すること
ができる。
Further, the image search device of the present invention (claim 1)
According to 4), in the image search device according to any one of claims 1 to 13, the image of the search result can be designated as the query image, so that a more detailed refined search can be performed, and the user desires It is possible to realize the same search processing.

【0553】また、本発明のコンピュータ読み取り可能
な記録媒体(請求項15)によれば、請求項1〜14の
いずれか1つに記載の画像検索装置の各手段としてコン
ピュータを機能させるためのプログラムを記録したた
め、このプログラムをコンピュータに実行させることに
より、検索条件を指定する際にユーザの視点を確実に装
置に伝えることを可能とすると共に、ユーザの視点に合
った検索結果を返すことを可能とする画像検索装置を実
現することが可能となる。すなわち、ユーザが望む通り
の検索処理を実現することができる画像検索装置を実現
することが可能となる。
According to a computer-readable recording medium of the present invention (claim 15), a program for causing a computer to function as each means of the image search device according to any one of claims 1 to 14 By executing this program on a computer, it is possible to reliably convey the user's viewpoint to the device when specifying search conditions, and to return search results that match the user's viewpoint. Can be realized. That is, it is possible to realize an image search device that can realize search processing as desired by the user.

【0554】また、本発明の画像分類装置(請求項1
6)によれば、分類項目を設定し、設定した分類項目そ
れぞれに対し、基準画像および分類対象の画像の類似度
を求める際に使用される各種類の特徴量毎にそれぞれ一
つの基準画像を設定し、分類項目毎に、設定された各基
準画像および分類対象の画像の類似度を対応する種類の
特徴量を用いて求めると共に、求めた類似度を合計して
分類対象の画像の総合類似度を求め、分類項目毎に求め
た分類対象の画像の総合類似度および予め設定された分
類先決定基準に基づいて、分類対象の画像の分類先とな
る分類項目を決定することにより、ユーザの意図を分類
条件として正確に表現できるため、ユーザの意図を正確
に装置に伝えることができると共に、分類に対するユー
ザの意図を確実に装置に伝えることができるため、分類
に対するユーザの意図を正確に反映した分類結果を得る
ことができ、ユーザが望む通りの分類処理を実現するこ
とができる。すなわち、基準画像として適切な画像が存
在しない場合であっても、例えば分類結果として望む画
像に色の雰囲気が似た画像やオブジェクトの形状の雰囲
気が似た画像を基準画像として指定し、これらの画像を
合わせたものを一つの基準画像として使用するため、分
類条件を指定する際にユーザの視点を確実に装置に伝え
ることができると共に、このような基準画像を使用して
分類処理を実行するため、ユーザの望む分類先に画像を
適切に分類することが可能となる。
The image classification device according to the present invention (Claim 1)
According to 6), classification items are set, and for each of the set classification items, one reference image is provided for each type of feature amount used when calculating the similarity between the reference image and the image to be classified. For each classification item, the similarity between each of the set reference images and the image to be classified is obtained by using the feature amount of the corresponding type, and the obtained similarities are totaled to obtain the overall similarity of the image to be classified. By determining the classification item to which the classification target image is to be classified based on the overall similarity of the classification target image obtained for each classification item and a preset classification destination determination criterion. Since the intention can be accurately expressed as the classification condition, the user's intention can be accurately transmitted to the device, and the user's intention for the classification can be reliably transmitted to the device. Figure can be obtained classification results that accurately reflects, it is possible to realize the classification process as the user desires. In other words, even when there is no suitable image as the reference image, for example, an image having a similar color atmosphere to an image desired as a classification result or an image having a similar object shape atmosphere is designated as a reference image. Since the combined image is used as one reference image, the user's viewpoint can be reliably transmitted to the device when specifying the classification condition, and the classification process is performed using such a reference image. Therefore, it is possible to appropriately classify the images into the classification destination desired by the user.

【0555】また、本発明の画像分類装置(請求項1
7)によれば、分類項目を設定し、設定した分類項目毎
に、基準画像を複数設定すると共に、設定した各基準画
像毎に分類対象の画像との類似度を求める際に使用する
特徴量の種類を設定し、分類項目毎に、設定された種類
の特徴量を用いて各基準画像および分類対象の画像の類
似度を求めると共に、求めた類似度を合計して分類対象
の画像の総合類似度を求め、分類項目毎に求めた分類対
象の画像の総合類似度および予め設定された分類先決定
基準に基づいて、分類対象の画像の分類先となる分類項
目を決定することにより、ユーザの意図を分類条件とし
て正確に表現できるため、ユーザの意図を正確に装置に
伝えることができると共に、分類に対するユーザの意図
を確実に装置に伝えることができるため、分類に対する
ユーザの意図を正確に反映した分類結果を得ることがで
き、ユーザが望む通りの分類処理を実現することができ
る。すなわち、基準画像として適切な画像が存在しない
場合であっても、例えば分類結果として望む画像に色の
雰囲気が似た画像やオブジェクトの形状の雰囲気が似た
画像を基準画像として指定し、これらの画像を合わせた
ものを一つの基準画像として使用するため、分類条件を
指定する際にユーザの視点を確実に装置に伝えることが
できると共に、このような基準画像を使用して分類処理
を実行するため、ユーザの望む分類先に画像を適切に分
類することが可能となる。
[0555] The image classification device of the present invention (claim 1)
According to 7), the classification items are set, a plurality of reference images are set for each of the set classification items, and the feature amount used when obtaining the similarity with the image to be classified for each of the set reference images is set. Is set, and for each classification item, the similarity between each reference image and the image to be classified is obtained using the feature amount of the set type, and the obtained similarities are summed to obtain a total of the images to be classified. The similarity is obtained, and the classification item to which the classification target image is classified is determined based on the total similarity of the classification target image obtained for each classification item and a preset classification destination determination criterion. Since the intention of the user can be accurately expressed as a classification condition, the user's intention can be accurately transmitted to the device, and the user's intention of the classification can be reliably transmitted to the device. Classification result reflecting can be obtained, it is possible to realize the classification process as the user desires. In other words, even when there is no suitable image as the reference image, for example, an image having a similar color atmosphere to an image desired as a classification result or an image having a similar object shape atmosphere is designated as a reference image. Since the combined image is used as one reference image, the user's viewpoint can be reliably transmitted to the device when specifying the classification condition, and the classification process is performed using such a reference image. Therefore, it is possible to appropriately classify the images into the classification destination desired by the user.

【0556】また、本発明の画像分類装置(請求項1
8)によれば、分類項目を設定し、設定した分類項目毎
に、基準画像を複数設定し、分類項目毎に、設定された
各基準画像および分類対象の画像の類似度を求めると共
に、求めた類似度を合計して分類対象の画像の総合類似
度を求め、分類項目毎に求めた分類対象の画像の総合類
似度および予め設定された分類先決定基準に基づいて、
分類対象の画像の分類先となる分類項目を決定するた
め、AND検索処理を応用した画像分類処理を行うこと
が可能となる。したがって、新たな分類方法で画像を分
類可能な画像分類装置を提供することができる。
Further, the image classification device of the present invention (claim 1)
According to 8), a classification item is set, a plurality of reference images are set for each set classification item, and the similarity between the set reference image and the image to be classified is calculated for each classification item. The similarity is summed to determine the overall similarity of the image to be classified, and based on the overall similarity of the image to be classified determined for each classification item and a preset classification destination determination criterion,
In order to determine the classification item to which the image to be classified is to be classified, it is possible to perform an image classification process using an AND search process. Therefore, it is possible to provide an image classification device capable of classifying images by a new classification method.

【0557】また、本発明の画像分類装置(請求項1
9)によれば、分類項目を設定し、設定した分類項目毎
に、基準画像を複数設定し、分類項目毎に、設定された
各基準画像および分類対象の画像の類似度を求めると共
に、求めた類似度の中から最も高い類似性を示す類似度
を選択して分類対象の画像の総合類似度を求め、分類項
目毎に求めた分類対象の画像の総合類似度および予め設
定された分類先決定基準に基づいて、分類対象の画像の
分類先となる分類項目を決定するため、OR検索処理を
応用した画像分類処理を行うことが可能となる。したが
って、新たな分類方法で画像を分類可能な画像分類装置
を提供することができる。
The image classification device of the present invention (claim 1)
According to 9), a classification item is set, a plurality of reference images are set for each set classification item, and the similarity between each set reference image and the image to be classified is calculated for each classification item. The similarity having the highest similarity is selected from the similarities obtained, and the overall similarity of the image to be classified is obtained, and the overall similarity of the image to be classified obtained for each classification item and a preset classification destination Since the classification item to which the image to be classified is classified is determined based on the determination criterion, it is possible to perform the image classification processing applying the OR search processing. Therefore, it is possible to provide an image classification device capable of classifying images by a new classification method.

【0558】また、本発明の画像分類装置(請求項2
0)によれば、請求項17,18または19に記載の画
像分類装置において、求めた類似度に対し、基準画像の
種類に応じて任意の重み付けを行うことができるよう
に、各基準画像毎に重要度を設定することが可能であ
り、分類項目毎に、各基準画像および分類対象の画像の
類似度を求め、求めた類似度に対し、設定された重要度
に応じた重み付けを行った後、総合類似度を求めること
により、ユーザの意図を分類条件として正確に表現でき
るため、ユーザの意図を正確に装置に伝えることが可能
となると共に、重要度は類似度に対する重み付けとして
反映されるため、ユーザの意図が反映された画像の分類
結果を得ることが可能となる。
The image classification device according to the present invention (Claim 2)
According to (0), in the image classification device according to claim 17, 18 or 19, each of the reference images is assigned such that the obtained similarity can be arbitrarily weighted according to the type of the reference image. It is possible to set the degree of importance, and for each classification item, the similarity between each reference image and the image to be classified is obtained, and the obtained similarity is weighted according to the set importance. Thereafter, by obtaining the overall similarity, the user's intention can be accurately expressed as a classification condition, so that the user's intention can be accurately transmitted to the device, and the importance is reflected as a weight for the similarity. Therefore, it is possible to obtain an image classification result reflecting the user's intention.

【0559】また、本発明の画像分類装置(請求項2
1)によれば、請求項18または19に記載の画像分類
装置において、複数種類の特徴量を用いて基準画像およ
び分類対象の画像の類似度を求める場合に、求めた類似
度に対し、基準画像および特徴量の種類に応じて任意の
重み付けを行うことができるように、各種類の特徴量毎
の重要度を各基準画像毎に設定することが可能であり、
分類項目それぞれについて、各種類の特徴量毎に各基準
画像および分類対象の画像の類似度を求め、各種類の特
徴量毎に求めた類似度に対し、設定された重要度に応じ
た重み付けを行った後、総合類似度を求めることによ
り、ユーザの意図を分類条件として正確に表現できるた
め、ユーザの意図を正確に装置に伝えることが可能とな
ると共に、重要度は類似度に対する重み付けとして反映
されるため、ユーザの意図が反映された画像の分類結果
を得ることが可能となる。
Also, the image classification device of the present invention (Claim 2)
According to 1), in the image classification device according to claim 18 or 19, when the similarity between the reference image and the image to be classified is determined using a plurality of types of feature amounts, the reference similarity is determined based on the determined similarity. It is possible to set the importance for each type of feature amount for each reference image so that any weight can be given according to the type of image and feature amount,
For each classification item, the similarity between each reference image and the image to be classified is obtained for each type of feature amount, and the similarity obtained for each type of feature amount is weighted according to the set importance. After that, by calculating the overall similarity, the user's intention can be accurately expressed as a classification condition, so that the user's intention can be accurately conveyed to the device, and the importance is reflected as a weight for the similarity. Therefore, it is possible to obtain an image classification result reflecting the user's intention.

【0560】また、本発明の画像分類装置(請求項2
2)によれば、請求項18または19に記載の画像分類
装置において、さらに、複数種類の特徴量を用いて基準
画像および分類対象の画像の類似度を求める場合に、求
めた類似度に対し、特徴量の種類に応じて任意の重み付
けを行うことができるように、分類項目毎に、設定され
た各基準画像間の類似度を各種類の特徴量毎に求め、各
種類の特徴量毎に求めた類似度に基づいて各基準画像間
における各特徴量毎の重要度を決定し、分類項目それぞ
れについて、各種類の特徴量毎に各基準画像および分類
対象の画像の類似度を求め、各種類の特徴量毎に求めた
類似度に対し、決定された重要度に応じた重み付けを行
った後、総合類似度を求めることにより、装置側でユー
ザが指定した基準画像間における各種類の特徴量の重要
度を判断し、判断した重要度を画像間の類似度に反映さ
せるため、ユーザの意図に合った画像の分類結果を返す
ことが可能となる。したがって、ユーザが望む通りの分
類処理を実現することができ、ユーザが望む分類結果を
得ることができる。
The image classification device of the present invention (claim 2)
According to 2), in the image classification device according to claim 18 or 19, when the similarity between the reference image and the image to be classified is further determined using a plurality of types of feature values, The similarity between each set reference image is determined for each type of feature amount for each classification item so that arbitrary weighting can be performed according to the type of feature amount, and for each type of feature amount. Determine the importance of each feature amount between each reference image based on the similarity obtained in, and, for each classification item, obtain the similarity of each reference image and the image to be classified for each type of feature amount, After weighting the similarity obtained for each type of feature amount in accordance with the determined importance, and obtaining the overall similarity, each type of reference image specified by the user on the device side is obtained. Judgment of importance of features and judgment To reflect the importance of the similarity between images, it is possible to return the classification result of the image matching the intention of the user. Therefore, the classification processing desired by the user can be realized, and the classification result desired by the user can be obtained.

【0561】また、本発明の画像分類装置(請求項2
3)によれば、請求項16〜22のいずれか一つに記載
の画像分類装置において、分類項目毎に分類された画像
をさらに分類するための分類項目を設定できるため、詳
細な画像の分類処理を実行することが可能となる。
Also, the image classification device of the present invention (Claim 2)
According to 3), in the image classification device according to any one of claims 16 to 22, a classification item for further classifying an image classified for each classification item can be set, so that detailed image classification is performed. Processing can be executed.

【0562】また、本発明の画像分類装置(請求項2
4)によれば、特徴量の種類が指定されると、指定され
た種類の特徴量を用いて分類対象の各画像間の類似度を
求め、求めた分類対象の各画像間の類似度に基づいて、
分類対象の各画像を類似する画像同士のグループに分類
し、分類された各グループからそれぞれグループを代表
する代表画像を選択して画面表示し、さらに、表示され
た代表画像の一つを指定すると共に、特徴量の種類を指
定すると、指定された種類の特徴量を用いて代表画像の
属するグループに分類された各画像を類似する画像同士
のグループに分類し、分類された各グループからそれぞ
れグループを代表する代表画像を選択して画面表示する
ことにより、画像を分類したい時にユーザが希望する基
準で画像を動的に分類していくことが可能となるため、
画像の分類を利用して所望の画像を探し出すことが可能
となる。したがって、新たな分類方法で画像を分類可能
な画像分類装置を提供することができる。
The image classification device of the present invention (claim 2)
According to 4), when the type of the feature amount is designated, the similarity between the images of the classification target is calculated using the feature amount of the designated type, and the similarity between the images of the classification target is calculated. On the basis of,
The images to be classified are classified into groups of similar images, a representative image representing each group is selected from each of the classified groups, displayed on a screen, and one of the displayed representative images is designated. At the same time, when the type of the feature amount is designated, each image classified into the group to which the representative image belongs is classified into a group of similar images using the feature amount of the designated type, and a group is classified from each of the classified groups. By selecting a representative image representing the image and displaying it on the screen, it becomes possible for the user to dynamically classify the image based on the criteria desired by the user when classifying the image,
It is possible to search for a desired image using the image classification. Therefore, it is possible to provide an image classification device capable of classifying images by a new classification method.

【0563】また、本発明の画像分類装置(請求項2
5)によれば、請求項24に記載の画像分類装置におい
て、指定可能な特徴量の種類を画面表示し、指定された
特徴量の種類に関連付けて各グループの代表画像を画面
表示し、分類対象の複数の画像を分類した結果を木構造
で画面表示するため、ユーザが画像分類処理の様子を一
目で認識でき、動的な画像分類処理の利便性の向上を図
ることができる。
Further, the image classification device of the present invention (Claim 2)
According to the fifth aspect, in the image classification device according to the twenty-fourth aspect, a type of a characteristic amount that can be specified is displayed on a screen, and a representative image of each group is displayed on a screen in association with the type of the specified characteristic amount. Since the result of the classification of the plurality of target images is displayed on the screen in a tree structure, the user can recognize the state of the image classification processing at a glance, and the convenience of the dynamic image classification processing can be improved.

【0564】また、本発明の画像分類装置(請求項2
6)によれば、請求項16〜25のいずれか一つに記載
の画像分類装置において、さらに、分類項目毎に分類さ
れた任意の画像を問合せ画像として用いて、問合せ画像
と同一または類似の画像を検索するため、装置の利便性
の向上を図ることができる。
[0564] The image classification device of the present invention (claim 2)
According to 6), in the image classification device according to any one of claims 16 to 25, an arbitrary image classified for each classification item is used as a query image, and the same or similar to the query image. Since the image is searched, the convenience of the device can be improved.

【0565】また、本発明の画像分類装置(請求項2
7)によれば、請求項26に記載の画像分類装置におい
て、請求項1〜14のいずれか一つに記載の画像検索装
置を用いて検索を行うため、検索条件を指定する際にユ
ーザの視点を確実に装置に伝えることが可能となると共
に、ユーザの視点に合った検索結果を返すことが可能と
なり、装置の利便性の向上を図ることができる。
The image classification device of the present invention (Claim 2)
According to 7), in the image classification device according to claim 26, a search is performed using the image search device according to any one of claims 1 to 14. The viewpoint can be reliably transmitted to the device, and a search result that matches the user's viewpoint can be returned, so that the convenience of the device can be improved.

【0566】また、本発明の画像分類装置(請求項2
8)によれば、請求項16〜25のいずれか一つに記載
の画像分類装置において、分類対象の画像が検索結果の
画像であるため、例えば、画像の分類を検索結果の絞込
みに応用することが可能となる。
Also, the image classification device of the present invention (Claim 2)
According to 8), in the image classification device according to any one of claims 16 to 25, since the image to be classified is a search result image, for example, image classification is applied to narrow down the search result. It becomes possible.

【0567】さらに、本発明のコンピュータ読み取り可
能な記録媒体(請求項29)によれば、請求項16〜2
8のいずれか一つに記載の画像分類装置の各手段として
コンピュータを機能させるためのプログラムを記録した
ため、このプログラムを実行することにより、分類条件
を指定する際にユーザの視点を確実に装置に伝えること
を可能とすると共に、ユーザの視点に合った分類項目に
画像を分類することを可能とする画像分類装置を実現す
ることが可能となる。すなわち、ユーザの望む分類先に
画像を適切に分類することが可能となる画像分類装置を
実現することができる。
Further, according to the computer-readable recording medium of the present invention (claim 29),
8. Since a program for causing a computer to function as each means of the image classification device according to any one of 8 is recorded, by executing this program, the user's viewpoint can be surely provided to the device when specifying classification conditions. It is possible to realize an image classifying device that can convey information and classify images into classification items that match the user's viewpoint. That is, it is possible to realize an image classification device that can appropriately classify images into classification destinations desired by the user.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1に係る画像検索装置のブ
ロック構成図である。
FIG. 1 is a block configuration diagram of an image search device according to Embodiment 1 of the present invention.

【図2】本発明の実施の形態1に係る画像検索装置にお
いて実行される処理を示すブロック図である。
FIG. 2 is a block diagram showing processing executed in the image search device according to Embodiment 1 of the present invention.

【図3】本発明の実施の形態1に係る画像検索装置にお
いて実行される画像登録処理の概略を示すフローチャー
トである。
FIG. 3 is a flowchart illustrating an outline of an image registration process executed in the image search device according to the first embodiment of the present invention.

【図4】本発明に係る画像検索装置において、画像から
抽出した特徴量に応じて各画像を特徴空間にマップした
様子を示す説明図である。
FIG. 4 is an explanatory diagram showing a state in which each image is mapped to a feature space according to a feature amount extracted from the image in the image search device according to the present invention.

【図5】本発明の実施の形態1に係る画像検索装置にお
いて検索時に使用される検索ウインドウを示す説明図で
ある。
FIG. 5 is an explanatory diagram showing a search window used at the time of a search in the image search device according to the first embodiment of the present invention.

【図6】本発明の実施の形態1に係る画像検索装置にお
いて実行される画像検索処理を示すフローチャートであ
る。
FIG. 6 is a flowchart illustrating an image search process executed in the image search device according to the first embodiment of the present invention.

【図7】本発明の実施の形態2に係る画像検索装置にお
いて検索時に使用される検索ウインドウを示す説明図で
ある。
FIG. 7 is an explanatory diagram showing a search window used at the time of a search in the image search device according to the second embodiment of the present invention.

【図8】本発明の実施の形態2に係る画像検索装置にお
いて実行される画像検索処理を示すフローチャートであ
る。
FIG. 8 is a flowchart showing an image search process executed in the image search device according to the second embodiment of the present invention.

【図9】本発明の実施の形態3に係る画像検索装置にお
いて検索時に使用される検索ウインドウを示す説明図で
ある。
FIG. 9 is an explanatory diagram showing a search window used at the time of a search in the image search device according to the third embodiment of the present invention.

【図10】本発明の実施の形態3に係る画像検索装置に
おいて実行される画像検索処理を示すフローチャートで
ある。
FIG. 10 is a flowchart showing an image search process executed in the image search device according to Embodiment 3 of the present invention.

【図11】本発明の実施の形態4に係る画像検索装置に
おいて検索時に使用される検索ウインドウを示す説明図
である。
FIG. 11 is an explanatory diagram showing a search window used at the time of a search in the image search device according to the fourth embodiment of the present invention.

【図12】本発明の実施の形態4に係る画像検索装置に
おいて実行される画像検索処理を示すフローチャートで
ある。
FIG. 12 is a flowchart showing an image search process executed in the image search device according to Embodiment 4 of the present invention.

【図13】本発明の実施の形態5に係る画像検索装置に
おいて検索時に使用される検索ウインドウを示す説明図
である。
FIG. 13 is an explanatory diagram showing a search window used at the time of a search in the image search device according to the fifth embodiment of the present invention.

【図14】本発明の実施の形態5に係る画像検索装置に
おいて実行される画像検索処理を示すフローチャートで
ある。
FIG. 14 is a flowchart showing an image search process executed in the image search device according to Embodiment 5 of the present invention.

【図15】本発明の実施の形態6に係る画像検索装置に
おいて検索時に使用される検索ウインドウを示す説明図
である。
FIG. 15 is an explanatory diagram showing a search window used at the time of a search in the image search device according to the sixth embodiment of the present invention.

【図16】本発明の実施の形態6に係る画像検索装置に
おいて実行される画像検索処理を示すフローチャートで
ある。
FIG. 16 is a flowchart showing an image search process executed in the image search device according to Embodiment 6 of the present invention.

【図17】本発明の実施の形態7に係る画像検索装置に
おいて実行される画像検索処理を示すフローチャートで
ある。
FIG. 17 is a flowchart showing an image search process executed in the image search device according to the seventh embodiment of the present invention.

【図18】本発明の実施の形態8に係る画像検索装置に
おいて実行される画像検索処理を示すフローチャートで
ある。
FIG. 18 is a flowchart showing an image search process executed in the image search device according to the eighth embodiment of the present invention.

【図19】本発明の実施の形態9に係る画像検索装置に
おいて実行される画像検索処理を示すフローチャートで
ある。
FIG. 19 is a flowchart showing an image search process executed in the image search device according to Embodiment 9 of the present invention.

【図20】本発明の実施の形態10に係る画像検索装置
において実行される画像検索処理を示すフローチャート
である。
FIG. 20 is a flowchart showing an image search process executed in the image search device according to Embodiment 10 of the present invention.

【図21】本発明の実施の形態11に係る画像検索装置
において実行される画像検索処理を示すフローチャート
である。
FIG. 21 is a flowchart showing an image search process executed in the image search device according to Embodiment 11 of the present invention.

【図22】本発明の実施の形態12に係る画像検索装置
において、問合せ画像および検索対象の画像から抽出す
る特徴量の粗さのレベルを説明する説明図である。
FIG. 22 is an explanatory diagram illustrating a level of roughness of a feature extracted from an inquiry image and an image to be searched in the image search device according to Embodiment 12 of the present invention;

【図23】本発明の実施の形態12に係る画像検索装置
における特徴量抽出処理(エッジ特徴の抽出)を説明す
る説明図である。
FIG. 23 is an explanatory diagram illustrating a feature amount extraction process (extraction of edge features) in the image search device according to the twelfth embodiment of the present invention.

【図24】本発明の実施の形態12に係る画像検索装置
における特徴量抽出処理(エッジ特徴の抽出)を説明す
る説明図である。
FIG. 24 is an explanatory diagram illustrating a feature amount extraction process (edge feature extraction) in the image search device according to the twelfth embodiment of the present invention.

【図25】本発明の実施の形態12に係る画像検索装置
において検索時に使用される検索ウインドウを示す説明
図である。
FIG. 25 is an explanatory diagram showing a search window used at the time of search in the image search device according to Embodiment 12 of the present invention.

【図26】本発明の実施の形態12に係る画像検索装置
において実行される画像検索処理を示すフローチャート
である。
FIG. 26 is a flowchart showing an image search process executed in the image search device according to Embodiment 12 of the present invention.

【図27】本発明の実施の形態12に係る画像検索装置
において実行される画像検索処理の変形例1を示す説明
図である。
FIG. 27 is an explanatory diagram showing a first modification of the image search process executed in the image search device according to the twelfth embodiment of the present invention.

【図28】本発明の実施の形態12に係る画像検索装置
において実行される画像検索処理の変形例2を示す説明
図である。
FIG. 28 is an explanatory diagram showing a second modification of the image search process executed in the image search device according to the twelfth embodiment of the present invention.

【図29】本発明の実施の形態13に係る画像検索装置
において実行される画像検索処理の概略を説明するため
の説明図である。
FIG. 29 is an explanatory diagram for describing an outline of an image search process executed in the image search device according to Embodiment 13 of the present invention;

【図30】本発明の実施の形態13に係る画像検索装置
において実行される画像検索処理の概略を説明するため
の説明図である。
FIG. 30 is an explanatory diagram for describing an outline of an image search process executed in the image search device according to the thirteenth embodiment of the present invention.

【図31】本発明の実施の形態13に係る画像検索装置
において実行される画像検索処理を示すフローチャート
である。
FIG. 31 is a flowchart showing an image search process executed in the image search device according to Embodiment 13 of the present invention.

【図32】本発明の実施の形態13に係る画像検索装置
において検索時に使用される検索ウインドウを示す説明
図である。
FIG. 32 is an explanatory diagram showing a search window used at the time of search in the image search device according to Embodiment 13 of the present invention.

【図33】本発明の実施の形態14に係る画像分類装置
のブロック構成図である。
FIG. 33 is a block diagram of an image classification device according to Embodiment 14 of the present invention.

【図34】本発明の実施の形態14に係る画像分類装置
において実行される処理を示すブロック図である。
FIG. 34 is a block diagram showing processing executed in the image classification device according to Embodiment 14 of the present invention.

【図35】本発明の実施の形態14に係る画像分類装置
において、画像の分類項目の設定処理や分類後の画像の
表示を行うための画像分類ウインドウの一例を示す説明
図である。
FIG. 35 is an explanatory diagram showing an example of an image classification window for performing an image classification item setting process and displaying images after classification in the image classification device according to Embodiment 14 of the present invention;

【図36】本発明の実施の形態14に係る画像分類装置
において実行される画像分類処理を示すフローチャート
である。
FIG. 36 is a flowchart showing an image classification process executed in the image classification device according to Embodiment 14 of the present invention.

【図37】本発明の実施の形態14に係る画像分類装置
において、画像が分類された後の画像分類ウインドウの
様子を示す説明図である。
FIG. 37 is an explanatory diagram illustrating a state of an image classification window after images are classified in the image classification device according to Embodiment 14 of the present invention;

【図38】本発明の実施の形態15に係る画像分類装置
において、画像の分類項目の設定処理や分類後の画像の
表示を行うための画像分類ウインドウの一例を示す説明
図である。
FIG. 38 is an explanatory diagram showing an example of an image classification window for performing an image classification item setting process and displaying images after classification in the image classification device according to Embodiment 15 of the present invention;

【図39】本発明の実施の形態16に係る画像分類装置
において、画像の分類項目の設定処理や分類後の画像の
表示を行うための画像分類ウインドウの一例を示す説明
図である。
FIG. 39 is an explanatory diagram showing an example of an image classification window for performing image classification item setting processing and display of images after classification in the image classification device according to Embodiment 16 of the present invention;

【図40】本発明の実施の形態16に係る画像分類装置
において実行される画像分類処理を示すフローチャート
である。
FIG. 40 is a flowchart showing an image classification process executed in the image classification device according to Embodiment 16 of the present invention.

【図41】本発明の実施の形態17に係る画像分類装置
において、画像の分類項目の設定処理や分類後の画像の
表示を行うための画像分類ウインドウの一例を示す説明
図である。
FIG. 41 is an explanatory diagram showing an example of an image classification window for performing image classification item setting processing and displaying classified images in the image classification device according to Embodiment 17 of the present invention;

【図42】本発明の実施の形態18に係る画像分類装置
において、画像の分類項目の設定処理や分類後の画像の
表示を行うための画像分類ウインドウの一例を示す説明
図である。
FIG. 42 is an explanatory diagram showing an example of an image classification window for performing image classification item setting processing and classified image display in the image classification device according to Embodiment 18 of the present invention;

【図43】本発明の実施の形態19に係る画像分類装置
において、画像の分類項目の設定処理や分類後の画像の
表示を行うための画像分類ウインドウの一例を示す説明
図である。
FIG. 43 is an explanatory diagram showing an example of an image classification window for performing an image classification item setting process and displaying images after classification in the image classification device according to Embodiment 19 of the present invention;

【図44】本発明の実施の形態21に係る画像分類装置
において実行される画像分類処理を示すフローチャート
である。
FIG. 44 is a flowchart showing an image classification process executed in the image classification device according to Embodiment 21 of the present invention.

【図45】本発明の実施の形態22に係る画像分類装置
において実行される画像分類処理を示すフローチャート
である。
FIG. 45 is a flowchart showing an image classification process executed in the image classification device according to Embodiment 22 of the present invention.

【図46】本発明の実施の形態25に係る画像分類装置
において実行される画像分類処理を示す説明図である。
FIG. 46 is an explanatory diagram showing an image classification process executed in the image classification device according to Embodiment 25 of the present invention.

【図47】本発明の実施の形態25に係る画像分類装置
において実行される画像分類処理を示す説明図である。
FIG. 47 is an explanatory diagram showing an image classification process executed in the image classification device according to Embodiment 25 of the present invention.

【図48】本発明の実施の形態25に係る画像分類装置
において実行される画像分類処理を示す説明図である。
FIG. 48 is an explanatory diagram showing an image classification process executed in the image classification device according to Embodiment 25 of the present invention.

【図49】本発明に係る画像検索装置および/または画
像分類装置を実現するプログラムを記録した記録媒体お
よびプログラムの配布形態を示す説明図である。
FIG. 49 is an explanatory diagram showing a recording medium on which a program for realizing the image search device and / or the image classification device according to the present invention is recorded, and a distribution form of the program.

【符号の説明】[Explanation of symbols]

100 コンピュータ 107 画像検索ソフト 108 画像DB 109 画像特徴DB 151 U/I部 152 特徴抽出エンジン 153 マッチング・エンジン 200a〜200h 検索ウインドウ 201 検索ボタン 202 画像表示欄 203,362 特徴量指定ボタン 204,207,208,363,366,367
重要度指定バー 205,364 AND指定ボタン 206,365 OR指定ボタン 209 特徴指定欄 210 粗さレベル指定欄 301 画像分類ソフト 302 分類木DB 350a〜350f 画像分類ウインドウ 351〜358 フォルダ 360a〜360f 分類条件設定ウィンドウ 361 設定ボタン 400 画像分類ウインドウ 401,402a〜404a,402b〜404b
分類項目 405〜412 代表画像 450 記録媒体 451 サーバ
REFERENCE SIGNS LIST 100 computer 107 image search software 108 image DB 109 image feature DB 151 U / I section 152 feature extraction engine 153 matching engine 200a to 200h search window 201 search button 202 image display column 203,362 feature amount designation button 204,207,208 , 363, 366, 367
Importance designation bar 205, 364 AND designation button 206, 365 OR designation button 209 Feature designation column 210 Roughness level designation column 301 Image classification software 302 Classification tree DB 350a-350f Image classification window 351-358 Folder 360a-360f Classification condition setting Window 361 setting button 400 image classification window 401, 402a to 404a, 402b to 404b
Classification item 405-412 Representative image 450 Recording medium 451 Server

Claims (29)

【特許請求の範囲】[Claims] 【請求項1】 問合せ画像および複数の検索対象の画像
から画像の特徴を表す特徴量を少なくとも一種類抽出
し、抽出した少なくとも一種類の特徴量を用いて前記問
合せ画像および検索対象の画像の類似度を求めることに
より、前記複数の検索対象の画像から前記問合せ画像と
同一または類似の画像を検索する画像検索装置におい
て、 前記問合せ画像および検索対象の画像の類似度を求める
際に使用される各種類の特徴量毎にそれぞれ一つの問合
せ画像を指定する指定手段と、 前記検索対象の画像毎に、前記指定手段で指定された各
問合せ画像との類似度を対応する種類の特徴量を用いて
求めると共に、求めた各問合せ画像との類似度を合計し
て前記検索対象の画像の総合類似度を求める検索手段
と、 前記検索手段で前記検索対象の画像毎に求めた総合類似
度に基づいて、検索結果を出力する出力手段と、 を備えたことを特徴とする画像検索装置。
1. A method for extracting at least one type of feature quantity representing a feature of an image from a query image and a plurality of search target images, and using the extracted at least one type of feature quantity to determine a similarity between the query image and the search target image. In an image search device that searches for images that are the same as or similar to the query image from the plurality of search target images by determining the degrees of search, each of the plurality of images to be used when calculating the similarity between the query image and the search target image A designating unit that designates one query image for each type of feature amount, and a type of feature amount corresponding to the degree of similarity with each query image designated by the designating unit for each image to be searched. A search means for obtaining the total similarity of the images to be searched by summing up the similarities with each of the obtained query images, and for each of the images to be searched by the search means An output means for outputting a search result based on the obtained overall similarity, and an image search device.
【請求項2】 問合せ画像および複数の検索対象の画像
から画像の特徴を表す特徴量を少なくとも一種類抽出
し、抽出した少なくとも一種類の特徴量を用いて前記問
合せ画像および検索対象の画像の類似度を求めることに
より、前記複数の検索対象の画像から前記問合せ画像と
同一または類似の画像を検索する画像検索装置におい
て、 前記問合せ画像を複数指定すると共に、指定した各問合
せ画像毎に前記検索対象の画像との類似度を求める際に
使用する特徴量の種類を指定する指定手段と、 前記検索対象の画像毎に、前記指定手段で指定された種
類の特徴量を用いて各問合せ画像との類似度を求めると
共に、求めた各問合せ画像との類似度を合計して前記検
索対象の画像の総合類似度を求める検索手段と、 前記検索手段で前記検索対象の画像毎に求めた総合類似
度に基づいて、検索結果を出力する出力手段と、 を備えたことを特徴とする画像検索装置。
2. A method for extracting at least one kind of feature quantity representing a feature of an image from a query image and a plurality of search target images, and using the extracted at least one kind of feature quantity to obtain a similarity between the query image and the search target image. An image search device that searches for the same or similar image as the query image from the plurality of search target images by calculating degrees, the query target is specified for each of the specified query images, and A designating unit for designating a type of a feature amount to be used when obtaining a degree of similarity with the image of the image, and for each image to be searched, a feature amount of the type designated by the designating unit is used for each query image. Searching means for obtaining the similarity and summing up the obtained similarities with the query images to obtain an overall similarity of the image to be searched; Output means for outputting a search result based on the overall similarity obtained for each image.
【請求項3】 問合せ画像および複数の検索対象の画像
から画像の特徴を表す特徴量を少なくとも一種類抽出
し、抽出した少なくとも一種類の特徴量を用いて前記問
合せ画像および検索対象の画像の類似度を求めることに
より、前記複数の検索対象の画像から前記問合せ画像と
同一または類似の画像を検索する画像検索装置におい
て、 前記問合せ画像を複数指定する指定手段と、 前記検索対象の画像毎に、前記指定手段で指定された各
問合せ画像との類似度を求めると共に、求めた各問合せ
画像との類似度を合計して前記検索対象の画像の総合類
似度を求める検索手段と、 前記検索手段で前記検索対象の画像毎に求めた総合類似
度に基づいて、検索結果を出力する出力手段と、 を備えたことを特徴とする画像検索装置。
3. Extracting at least one kind of feature quantity representing a feature of an image from a query image and a plurality of search target images, and using the extracted at least one kind of feature quantity, resembling the query image and the search target image. In an image search device that searches for the same or similar image as the query image from the plurality of search target images by obtaining degrees, a specifying unit that specifies a plurality of query images, for each of the search target images, A search unit that calculates the similarity with each of the query images specified by the specifying unit, sums up the obtained similarities with each of the query images, and obtains the overall similarity of the search target image; An output unit that outputs a search result based on the overall similarity obtained for each of the images to be searched.
【請求項4】 問合せ画像および複数の検索対象の画像
から画像の特徴を表す特徴量を少なくとも一種類抽出
し、抽出した少なくとも一種類の特徴量を用いて前記問
合せ画像および検索対象の画像の類似度を求めることに
より、前記複数の検索対象の画像から前記問合せ画像と
同一または類似の画像を検索する画像検索装置におい
て、 前記問合せ画像を複数指定する指定手段と、 前記検索対象の画像毎に、前記指定手段で指定された各
問合せ画像との類似度を求めると共に、求めた各問合せ
画像との類似度の中から最も高い類似性を示す類似度を
選択して前記検索対象の画像の総合類似度を求める検索
手段と、 前記検索手段で前記検索対象の画像毎に求めた総合類似
度に基づいて、検索結果を出力する出力手段と、 を備えたことを特徴とする画像検索装置。
4. A method for extracting at least one kind of feature quantity representing a feature of an image from a query image and a plurality of search target images, and using the extracted at least one kind of feature quantity to obtain a similarity between the query image and the search target image. In an image search device that searches for the same or similar image as the query image from the plurality of search target images by obtaining degrees, a specifying unit that specifies a plurality of query images, for each of the search target images, The similarity to each query image specified by the specifying means is obtained, and the similarity indicating the highest similarity is selected from the obtained similarities to each query image to determine the overall similarity of the search target image. Search means for obtaining a degree, and output means for outputting a search result based on the overall similarity obtained for each of the images to be searched by the search means. Image search apparatus.
【請求項5】 前記指定手段は、前記検索手段で求める
類似度に対し、前記問合せ画像の種類に応じて任意の重
み付けを行うことができるように、前記各問合せ画像毎
に重要度を指定することが可能であり、 前記検索手段は、前記検索対象の画像毎に、前記各問合
せ画像との類似度を求め、求めた各問合せ画像との類似
度に対して前記指定手段で指定された重要度に応じた重
み付けを行った後、前記総合類似度を求めることを特徴
とする請求項2,3または4に記載の画像検索装置。
5. The designating means designates a degree of importance for each query image so that the similarity obtained by the search means can be arbitrarily weighted according to the type of the query image. The search means obtains a similarity with each of the query images for each of the search target images, and determines the similarity with each of the obtained query images by the importance specified by the specification means. 5. The image search device according to claim 2, wherein the overall similarity is obtained after performing weighting according to the degree.
【請求項6】 前記指定手段は、複数種類の特徴量を用
いて前記問合せ画像および検索対象の画像の類似度を求
める場合に、前記検索手段で求める類似度に対し、前記
問合せ画像および特徴量の種類に応じて任意の重み付け
を行うことができるように、各種類の特徴量毎の重要度
を各問合せ画像毎に指定することが可能であり、 前記検索手段は、前記検索対象の画像それぞれについ
て、前記各種類の特徴量毎に前記各問合せ画像との類似
度を求め、前記各種類の特徴量毎に求めた各問合せ画像
との類似度に対して前記指定手段で指定された重要度に
応じた重み付けを行った後、前記総合類似度を求めるこ
とを特徴とする請求項3または4に記載の画像検索装
置。
6. When the similarity between the query image and the image to be searched for is determined using a plurality of types of feature amounts, the specifying unit compares the query image and the feature amount with the similarity determined by the search unit. It is possible to specify the importance for each type of feature amount for each query image so that any weighting can be performed in accordance with the type of the search target image. For each of the types of feature amounts, a similarity with each of the query images is obtained, and the similarity with each of the query images obtained for each of the types of feature amounts is assigned a degree of importance specified by the specifying unit. The image retrieval apparatus according to claim 3, wherein the total similarity is obtained after performing weighting according to the following.
【請求項7】 さらに、複数種類の特徴量を用いて前記
問合せ画像および検索対象の画像の類似度を求める場合
に、前記検索手段で求める類似度に対し、前記特徴量の
種類に応じて任意の重み付けを行うことができるよう
に、前記指定手段で指定された各問合せ画像間の類似度
を各種類の特徴量毎に求め、求めた各種類の特徴量毎の
類似度に基づいて前記各問合せ画像間における各種類の
特徴量毎の重要度を決定する重要度決定手段を備え、 前記検索手段は、前記検索対象の画像それぞれについ
て、前記各種類の特徴量毎に各問合せ画像との類似度を
求め、前記各種類の特徴量毎に求めた各問合せ画像との
類似度に対して前記重要度決定手段で決定した各種類の
特徴量毎の重要度に応じた重み付けを行った後、前記総
合類似度を求めることを特徴とする請求項3または4に
記載の画像検索装置。
7. When the similarity between the query image and the image to be searched is determined using a plurality of types of feature amounts, the similarity determined by the search means may be arbitrarily determined according to the type of the feature amount. So that the similarity between the query images specified by the specifying means is obtained for each type of feature amount, and the similarity between each type of obtained feature amount is determined based on the obtained similarity degree for each type of feature amount. The image processing apparatus further includes an importance determination unit that determines importance of each type of feature amount between query images, wherein the search unit determines, for each of the search target images, a similarity to each query image for each type of feature amount. After determining the degree, the similarity with each query image obtained for each type of feature amount is weighted according to the importance level for each type of feature amount determined by the importance level determination unit, Calculating the overall similarity Image retrieval apparatus according to claim 3 or 4, symptom.
【請求項8】 問合せ画像および複数の検索対象の画像
から画像の特徴を表す特徴量を少なくとも一種類抽出
し、抽出した少なくとも一種類の特徴量を用いて前記問
合せ画像および検索対象の画像の類似度を求めることに
より、前記複数の検索対象の画像から前記問合せ画像と
同一または類似の画像を検索する画像検索装置におい
て、 前記問合せ画像を少なくとも一つ指定すると共に、画像
から抽出する特徴量の粗さのレベルを粗から細に向かっ
て段階的に定義した抽出基準に基づいて、検索に利用す
る特徴量の粗さのレベルを少なくとも一つ指定する指定
手段と、 前記抽出基準に基づいて、前記問合せ画像および複数の
検索対象の画像から少なくとも前記指定手段で指定され
た粗さのレベルに該当する特徴量を所定のタイミングで
抽出する特徴抽出手段と、 前記検索対象の画像毎に、前記指定手段で指定された粗
さのレベルに応じた特徴量を用いて前記問合せ画像との
類似度を求める検索手段と、 前記検索手段で前記検索対象の画像毎に求めた類似度に
基づいて、検索結果を出力する出力手段と、 を備えたことを特徴とする画像検索装置。
8. A method for extracting at least one kind of feature quantity representing a feature of an image from a query image and a plurality of search target images, and using the extracted at least one kind of feature quantity to obtain a similarity between the query image and the search target image. An image search device that searches the plurality of search target images for an image that is the same as or similar to the query image, by specifying at least one of the query images and a rough feature amount to be extracted from the image. Specifying means for specifying at least one level of roughness of a feature used in a search, based on an extraction criterion that defines a level of roughness stepwise from coarse to fine, and based on the extraction criterion, A feature amount corresponding to at least the roughness level specified by the specifying unit is extracted at a predetermined timing from the query image and the plurality of search target images. Symbol extraction means, for each of the images to be searched, search means for obtaining a degree of similarity with the query image using a feature amount corresponding to a roughness level specified by the specification means, Output means for outputting a search result based on the degree of similarity obtained for each image to be searched.
【請求項9】 前記抽出基準は、少なくとも画像を何分
割するかを表す分割数を前記粗さのレベルとして段階的
に定義しており、 前記特徴抽出手段は、前記段階的に定義された粗さのレ
ベルのいずれか一つに応じて前記特徴量を抽出する場
合、該当する分割数に基づいて画像を分割して複数の分
割画像を生成し、生成した各分割画像から前記特徴量を
それぞれ抽出することにより、前記問合せ画像および検
索対象の画像から分割画像単位の特徴量からなる特徴量
群を抽出し、 前記検索手段は、前記特徴量群を利用して前記問合せ画
像および検索対象の画像の類似度を求める場合、前記問
合せ画像および検索対象の画像の対応する分割画像毎の
類似度を該当する特徴量を用いてそれぞれ求めることに
より、前記問合せ画像および検索対象の画像の類似度を
求めることを特徴とする請求項8に記載の画像検索装
置。
9. The extraction criterion defines stepwise the number of divisions indicating at least how many parts of an image are to be divided as the level of roughness, and the feature extracting means defines the stepwise defined roughness. When extracting the feature amount according to any one of the following levels, the image is divided based on the corresponding number of divisions to generate a plurality of divided images, and the feature amounts are respectively extracted from the generated divided images. By extracting, a feature group consisting of feature amounts in divided image units is extracted from the query image and the search target image, and the search means uses the feature amount group to extract the query image and the search target image. When the similarity of the query image and the search target image is obtained, the similarity of each of the corresponding divided images of the query image and the search target image is obtained using the corresponding feature amount. Image retrieval apparatus according to claim 8, characterized in that to determine the degree of similarity.
【請求項10】 前記抽出基準は、前記段階的に定義さ
れた粗さのレベル中の最も粗い特徴量を示すレベルとし
て、画像を分割することなく、画像全体を特徴量の抽出
対象とするレベルを含み、 前記特徴抽出手段は、前記画像全体を特徴量の抽出対象
とするレベルに応じて特徴量を抽出する場合、前記問合
せ画像および検索対象の画像から画像全体を対象として
特徴量を抽出することを特徴とする請求項9に記載の画
像検索装置。
10. The extraction criterion is a level indicating the coarsest feature amount among the stepwise defined roughness levels, and is a level at which the entire image is extracted as a feature amount without dividing the image. The feature extraction means extracts the feature amount from the query image and the image to be searched for the entire image when extracting the feature amount according to the level at which the entire image is to be extracted. The image search device according to claim 9, wherein:
【請求項11】 前記抽出基準は、画像中に存在するオ
ブジェクトを特徴量の抽出対象とする場合に、前記オブ
ジェクトから抽出する特徴量の粗さのレベルの定義を含
むことを特徴とする請求項8,9または10のいずれか
一つに記載の画像検索装置。
11. The method according to claim 1, wherein the extraction criterion includes a definition of a roughness level of the feature extracted from the object when the object existing in the image is a feature extraction target. The image search device according to any one of 8, 9, and 10.
【請求項12】 前記特徴抽出手段は、前記複数の検索
対象の画像については前記抽出基準で定義された全ての
粗さのレベルに応じた特徴量を予め抽出しておき、前記
指定手段で指定された問合せ画像のうち、前記特徴量が
抽出されていない問合せ画像については前記検索手段が
類似度を求める処理を実行する前に前記指定手段で指定
された粗さのレベルに応じた特徴量を抽出することを特
徴とする請求項8〜11のいずれか一つに記載の画像検
索装置。
12. The feature extracting unit extracts feature amounts corresponding to all roughness levels defined by the extraction criterion for the plurality of search target images in advance, and designates the feature amounts by the designation unit. Of the query images obtained, for a query image from which the feature value has not been extracted, a feature value corresponding to the roughness level specified by the specifying device before the search unit executes the process of obtaining the similarity. The image retrieval apparatus according to any one of claims 8 to 11, wherein the image retrieval is performed.
【請求項13】 問合せ画像および複数の検索対象の画
像から画像の特徴を表す特徴量を少なくとも一種類抽出
し、抽出した少なくとも一種類の特徴量を用いて前記問
合せ画像および検索対象の画像の類似度を求めることに
より、前記複数の検索対象の画像から前記問合せ画像と
同一または類似の画像を検索する画像検索装置におい
て、 前記問合せ画像を少なくとも一つ指定する指定手段と、 前記検索対象の画像毎に、前記検索対象の画像中の所定
のサイズの領域と前記指定手段で指定された問合せ画像
との類似度を予め抽出した所定の特徴量を用いて求める
処理を前記検索対象の画像全体にわたって繰り返し実行
する検索手段と、 前記検索手段で前記検索対象の画像毎に求めた類似度に
基づいて、検索結果を出力する出力手段と、 を備えたことを特徴とする画像検索装置。
13. A method for extracting at least one type of feature quantity representing a feature of an image from a query image and a plurality of search target images, and using the extracted at least one type of feature quantity to obtain a similarity between the query image and the search target image. An image search device that searches for the same or similar image as the query image from the plurality of search target images by determining the degree; a specifying unit that specifies at least one of the query images; A process of obtaining a similarity between a region of a predetermined size in the image to be searched and the query image specified by the specifying unit by using a predetermined feature amount extracted in advance is repeated over the entire image to be searched. A search unit to be executed, and an output unit that outputs a search result based on the similarity obtained for each image to be searched by the search unit. Image retrieval apparatus characterized by.
【請求項14】 前記指定手段は、検索結果の画像を前
記問合せ画像として指定可能であることを特徴とする請
求項1〜13のいずれか一つに記載の画像検索装置。
14. The image search device according to claim 1, wherein the specifying unit can specify an image of a search result as the query image.
【請求項15】 前記請求項1〜14のいずれか一つに
記載の画像検索装置の各手段としてコンピュータを機能
させるためのプログラムを記録したことを特徴とするコ
ンピュータ読み取り可能な記録媒体。
15. A computer-readable recording medium on which is recorded a program for causing a computer to function as each means of the image search device according to claim 1. Description:
【請求項16】 分類対象の画像の分類先となる分類項
目毎に前記分類対象の画像の分類基準となる基準画像を
設定し、前記各分類項目毎に設定された基準画像および
前記分類対象の画像からそれぞれ抽出した画像の特徴を
表す少なくとも一種類の特徴量を用いることにより、前
記各分類項目毎に前記基準画像および分類対象の画像の
類似度を求め、求めた類似度に基づいて前記分類対象の
画像を前記分類項目のいずれかに分類する画像分類装置
であって、 前記分類項目を設定し、設定した分類項目それぞれに対
し、前記基準画像および分類対象の画像の類似度を求め
る際に使用される各種類の特徴量毎にそれぞれ一つの基
準画像を設定する設定手段と、 前記分類項目毎に、前記設定手段で設定された各基準画
像および分類対象の画像の類似度を対応する種類の特徴
量を用いて求めると共に、求めた類似度を合計して前記
分類対象の画像の総合類似度を求める演算手段と、 前記演算手段で前記分類項目毎に求めた前記分類対象の
画像の総合類似度および予め設定された分類先決定基準
に基づいて、前記分類対象の画像の分類先となる分類項
目を決定する決定手段と、 を備えたことを特徴とする画像分類装置。
16. A reference image serving as a classification reference of the classification target image is set for each classification item to which the classification target image is to be classified, and the reference image set for each of the classification items and the classification target The similarity between the reference image and the image to be classified is obtained for each of the classification items by using at least one type of feature amount representing the characteristics of the image extracted from the image, and the classification is performed based on the obtained similarity. An image classification device for classifying a target image into one of the classification items, wherein the classification item is set, and for each set classification item, the similarity between the reference image and the classification target image is obtained. Setting means for setting one reference image for each type of feature amount to be used; and similarity of each reference image and the image to be classified set by the setting means for each of the classification items. Calculating means for calculating the overall similarity of the image to be classified by summing up the obtained similarities and the classification target obtained for each of the classification items by the calculating means. Determining means for determining a classification item to which the image to be classified is to be classified based on the overall similarity of the images and a preset classification destination determination criterion.
【請求項17】 分類対象の画像の分類先となる分類項
目毎に前記分類対象の画像の分類基準となる基準画像を
設定し、前記各分類項目毎に設定された基準画像および
前記分類対象の画像からそれぞれ抽出した画像の特徴を
表す少なくとも一種類の特徴量を用いることにより、前
記各分類項目毎に前記基準画像および分類対象の画像の
類似度を求め、求めた類似度に基づいて前記分類対象の
画像を前記分類項目のいずれかに分類する画像分類装置
であって、 前記分類項目を設定し、設定した分類項目毎に、前記基
準画像を複数設定すると共に、設定した各基準画像毎に
前記分類対象の画像との類似度を求める際に使用する特
徴量の種類を設定する設定手段と、 前記分類項目毎に、前記設定手段で設定された種類の特
徴量を用いて各基準画像および分類対象の画像の類似度
を求めると共に、求めた類似度を合計して前記分類対象
の画像の総合類似度を求める演算手段と、 前記演算手段で前記分類項目毎に求めた前記分類対象の
画像の総合類似度および予め設定された分類先決定基準
に基づいて、前記分類対象の画像の分類先となる分類項
目を決定する決定手段と、 を備えたことを特徴とする画像分類装置。
17. A reference image serving as a classification reference of the classification target image is set for each classification item to which the classification target image is to be classified, and the reference image set for each of the classification items and the classification target The similarity between the reference image and the image to be classified is obtained for each of the classification items by using at least one type of feature amount representing the characteristics of the image extracted from the image, and the classification is performed based on the obtained similarity. An image classification device that classifies a target image into any of the classification items, wherein the classification items are set, and for each set classification item, a plurality of the reference images are set, and for each of the set reference images. Setting means for setting the type of feature amount used when obtaining the degree of similarity with the image to be classified; and, for each of the classification items, the reference image and the reference image using the type of feature amount set by the setting means. Calculating means for calculating the similarity of the images to be classified and calculating the total similarity of the images to be classified by summing the obtained similarities; and calculating the classification target for each of the classification items by the calculating means. Determining means for determining a classification item to which the image to be classified is to be classified based on the overall similarity of the images and a preset classification destination determination criterion.
【請求項18】 分類対象の画像の分類先となる分類項
目毎に前記分類対象の画像の分類基準となる基準画像を
設定し、前記各分類項目毎に設定された基準画像および
前記分類対象の画像からそれぞれ抽出した画像の特徴を
表す少なくとも一種類の特徴量を用いることにより、前
記各分類項目毎に前記基準画像および分類対象の画像の
類似度を求め、求めた類似度に基づいて前記分類対象の
画像を前記分類項目のいずれかに分類する画像分類装置
であって、 前記分類項目を設定し、設定した分類項目毎に、前記基
準画像を複数設定する設定手段と、 前記分類項目毎に、前記設定手段で設定された各基準画
像および前記分類対象の画像の類似度を求めると共に、
求めた類似度を合計して前記分類対象の画像の総合類似
度を求める演算手段と、 前記演算手段で前記分類項目毎に求めた前記分類対象の
画像の総合類似度および予め設定された分類先決定基準
に基づいて、前記分類対象の画像の分類先となる分類項
目を決定する決定手段と、 を備えたことを特徴とする画像分類装置。
18. A reference image serving as a classification reference of the classification target image is set for each classification item to which the classification target image is classified, and the reference image set for each of the classification items and the classification target The similarity between the reference image and the image to be classified is obtained for each of the classification items by using at least one type of feature amount representing the characteristics of the image extracted from the image, and the classification is performed based on the obtained similarity. An image classification device for classifying a target image into any of the classification items, wherein the classification item is set, and for each set classification item, setting means for setting a plurality of the reference images; Calculating the similarity between each reference image set by the setting means and the image to be classified,
Calculating means for summing up the obtained similarities to obtain an overall similarity of the images to be classified; and a total similarity of the images to be classified obtained for each of the classification items by the arithmetic means and a preset classification destination. Determining means for determining a classification item to which the image to be classified is to be classified based on a determination criterion.
【請求項19】 分類対象の画像の分類先となる分類項
目毎に前記分類対象の画像の分類基準となる基準画像を
設定し、前記各分類項目毎に設定された基準画像および
前記分類対象の画像からそれぞれ抽出した画像の特徴を
表す少なくとも一種類の特徴量を用いることにより、前
記各分類項目毎に前記基準画像および分類対象の画像の
類似度を求め、求めた類似度に基づいて前記分類対象の
画像を前記分類項目のいずれかに分類する画像分類装置
であって、 前記分類項目を設定し、設定した分類項目毎に、前記基
準画像を複数設定する設定手段と、 前記分類項目毎に、前記設定手段で設定された各基準画
像および前記分類対象の画像の類似度を求めると共に、
求めた類似度の中から最も高い類似性を示す類似度を選
択して前記分類対象の画像の総合類似度を求める演算手
段と、 前記演算手段で前記分類項目毎に求めた前記分類対象の
画像の総合類似度および予め設定された分類先決定基準
に基づいて、前記分類対象の画像の分類先となる分類項
目を決定する決定手段と、 を備えたことを特徴とする画像分類装置。
19. A reference image serving as a classification reference of the classification target image is set for each classification item to which the classification target image is classified, and the reference image set for each of the classification items and the classification target The similarity between the reference image and the image to be classified is obtained for each of the classification items by using at least one type of feature amount representing the characteristics of the image extracted from the image, and the classification is performed based on the obtained similarity. An image classification device for classifying a target image into any of the classification items, wherein the classification item is set, and for each set classification item, setting means for setting a plurality of the reference images; Calculating the similarity between each reference image set by the setting means and the image to be classified,
Calculating means for selecting a similarity having the highest similarity from the obtained similarities to determine the overall similarity of the classification target image; and the classification target image obtained for each of the classification items by the calculation means. Determining means for determining a classification item to which the image to be classified is to be classified, based on the overall similarity of the image and a preset classification destination determination criterion.
【請求項20】 前記設定手段は、前記演算手段で求め
る類似度に対し、前記基準画像の種類に応じて任意の重
み付けを行うことができるように、前記各基準画像毎に
重要度を設定することが可能であり、 前記演算手段は、前記分類項目毎に、前記各基準画像お
よび分類対象の画像の類似度を求め、求めた類似度に対
して前記設定手段で設定された重要度に応じた重み付け
を行った後、前記総合類似度を求めることを特徴とする
請求項17,18または19に記載の画像分類装置。
20. The setting means sets the importance for each of the reference images so that the similarity obtained by the calculation means can be arbitrarily weighted according to the type of the reference image. It is possible that, for each of the classification items, the calculating means calculates the similarity between each of the reference images and the image to be classified, and calculates the similarity according to the importance set by the setting means with respect to the obtained similarity. 20. The image classification device according to claim 17, wherein the total similarity is obtained after performing the weighting.
【請求項21】 前記設定手段は、複数種類の特徴量を
用いて前記基準画像および分類対象の画像の類似度を求
める場合に、前記演算手段で求める類似度に対し、前記
基準画像および特徴量の種類に応じて任意の重み付けを
行うことができるように、各種類の特徴量毎の重要度を
各基準画像毎に設定することが可能であり、 前記演算手段は、前記分類項目それぞれについて、前記
各種類の特徴量毎に前記各基準画像および分類対象の画
像の類似度を求め、前記各種類の特徴量毎に求めた類似
度に対して前記設定手段で設定された重要度に応じた重
み付けを行った後、前記総合類似度を求めることを特徴
とする請求項18または19に記載の画像分類装置。
21. The method according to claim 19, wherein the setting unit calculates the similarity between the reference image and the image to be classified using a plurality of types of feature amounts. It is possible to set the degree of importance for each type of feature amount for each reference image so that any weighting can be performed according to the type of The similarity between the reference image and the image to be classified is obtained for each type of feature amount, and the similarity obtained for each type of feature amount is determined according to the importance set by the setting unit. 20. The image classification device according to claim 18, wherein the total similarity is obtained after performing weighting.
【請求項22】 さらに、複数種類の特徴量を用いて前
記基準画像および分類対象の画像の類似度を求める場合
に、前記演算手段で求める類似度に対し、前記特徴量の
種類に応じて任意の重み付けを行うことができるよう
に、前記分類項目毎に、前記設定手段で設定された各基
準画像間の類似度を各種類の特徴量毎に求め、前記各種
類の特徴量毎に求めた類似度に基づいて前記各基準画像
間における各特徴量毎の重要度を決定する重要度決定手
段を備え、 前記演算手段は、前記分類項目それぞれについて、前記
各種類の特徴量毎に前記各基準画像および分類対象の画
像の類似度を求め、前記各種類の特徴量毎に求めた類似
度に対して前記重要度決定手段で決定された重要度に応
じた重み付けを行った後、前記総合類似度を求めること
を特徴とする請求項18または19に記載の画像分類装
置。
22. When calculating the similarity between the reference image and the image to be classified using a plurality of types of feature amounts, the similarity determined by the calculation means may be arbitrarily determined according to the type of the feature amount. For each of the classification items, the similarity between the reference images set by the setting means is obtained for each type of feature amount, and the similarity between the reference images is obtained for each type of feature amount. An importance determining unit that determines an importance for each feature amount between the reference images based on the similarity; wherein the calculation unit includes, for each of the classification items, each of the types of feature amounts; The similarity between the image and the image to be classified is obtained, and the similarity obtained for each type of feature amount is weighted in accordance with the importance determined by the importance determining means, and then the overall similarity is calculated. It is characterized by seeking the degree Image classification apparatus according to claim 18 or 19 that.
【請求項23】 前記設定手段は、前記分類項目毎に分
類された画像をさらに分類するための分類項目を設定可
能であることを特徴とする請求項16〜22のいずれか
一つに記載の画像分類装置。
23. The apparatus according to claim 16, wherein the setting unit can set a classification item for further classifying the images classified for each of the classification items. Image classification device.
【請求項24】 分類対象の複数の画像から画像の特徴
を表す少なくとも一種類の特徴量を抽出し、抽出した特
徴量を用いて前記分類対象の各画像を類似する画像同士
のグループに分類する画像分類装置であって、 前記特徴量の種類を指定する指定手段と、 前記指定手段で特徴量の種類が指定された場合に、指定
された種類の特徴量を用いて前記分類対象の各画像間の
類似度を求め、求めた分類対象の各画像間の類似度に基
づいて、前記分類対象の各画像を類似する画像同士のグ
ループに分類する分類手段と、 前記分類手段で分類された各グループからそれぞれグル
ープを代表する代表画像を選択して画面表示する表示手
段と、を備え、 前記指定手段は、さらに、前記表示手段によって表示さ
れた代表画像の一つを指定すると共に、前記特徴量の種
類を指定可能であり、 前記分類手段は、前記指定手段で前記代表画像および前
記特徴量の種類が指定された場合に、指定された種類の
特徴量を用いて前記代表画像の属するグループに分類さ
れた各画像を類似する画像同士のグループに分類し、 前記表示手段は、前記分類手段で分類された各グループ
からそれぞれグループを代表する代表画像を選択して画
面表示することを特徴とする画像分類装置。
24. At least one kind of feature amount representing a feature of an image is extracted from a plurality of images to be classified, and each image to be classified is classified into a group of similar images using the extracted feature amount. An image classification device, comprising: a designation unit that designates a type of the feature amount; and when the type of the feature amount is designated by the designation unit, each image to be classified using the designated type of feature amount. Classifying means for classifying each image of the classification target into a group of similar images based on the obtained degree of similarity between the images of the classification target; and Display means for selecting a representative image representative of each group from the group and displaying the selected image on a screen, wherein the specifying means further specifies one of the representative images displayed by the display means, and The type of quantity can be specified, and when the type of the representative image and the characteristic amount is specified by the specifying means, the group to which the representative image belongs by using the specified type of characteristic amount Classifying each image classified into a group of similar images, wherein the display unit selects a representative image representing each group from each group classified by the classification unit and displays the selected image on a screen. Image classification device.
【請求項25】 前記表示手段は、前記指定手段で指定
可能な特徴量の種類を画面表示し、前記指定手段で指定
された特徴量の種類に関連付けて前記分類手段で分類さ
れた各グループの代表画像を画面表示して、前記分類対
象の複数の画像を分類した結果を木構造で画面表示する
ことを特徴とする請求項24に記載の画像分類装置。
25. The display means displays on a screen the types of feature amounts that can be designated by the designation means, and associates each of the groups classified by the classification means with the type of feature quantity designated by the designation means. 25. The image classification device according to claim 24, wherein a representative image is displayed on a screen, and a result of classification of the plurality of images to be classified is displayed on a screen in a tree structure.
【請求項26】 さらに、前記分類項目毎に分類された
任意の画像を問合せ画像として用いることにより、前記
問合せ画像と同一または類似の画像を検索する検索手段
を備えたことを特徴とする請求項16〜25のいずれか
一つに記載の画像分類装置。
26. The image processing apparatus according to claim 26, further comprising a search unit that searches for an image that is the same as or similar to the query image by using an arbitrary image classified for each classification item as a query image. The image classification device according to any one of 16 to 25.
【請求項27】 前記検索手段は、前記請求項1〜14
のいずれか一つに記載の画像検索装置であることを特徴
とする請求項26に記載の画像分類装置。
27. The search device according to claim 1, wherein
The image classification device according to claim 26, wherein the image classification device is the image search device according to any one of the above.
【請求項28】 前記分類対象の画像は、前記請求項2
6に記載の検索手段または前記請求項1〜14のいずれ
か一つに記載の画像検索装置で検索された画像であるこ
とを特徴とする請求項16〜25のいずれか一つに記載
の画像分類装置。
28. The classification target image according to claim 2,
The image according to any one of claims 16 to 25, wherein the image is an image retrieved by the retrieval means according to claim 6 or the image retrieval device according to any one of claims 1 to 14. Classifier.
【請求項29】 前記請求項16〜28のいずれか一つ
に記載の画像分類装置の各手段としてコンピュータを機
能させるためのプログラムを記録したことを特徴とする
コンピュータ読み取り可能な記録媒体。
29. A computer-readable recording medium having recorded thereon a program for causing a computer to function as each means of the image classification device according to any one of claims 16 to 28.
JP35993999A 1999-01-27 1999-12-17 Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus Expired - Fee Related JP4340367B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35993999A JP4340367B2 (en) 1999-01-27 1999-12-17 Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP1910599 1999-01-27
JP11-19105 1999-01-27
JP35993999A JP4340367B2 (en) 1999-01-27 1999-12-17 Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009005055A Division JP4674257B2 (en) 1999-01-27 2009-01-13 Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus

Publications (2)

Publication Number Publication Date
JP2000285141A true JP2000285141A (en) 2000-10-13
JP4340367B2 JP4340367B2 (en) 2009-10-07

Family

ID=26355916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35993999A Expired - Fee Related JP4340367B2 (en) 1999-01-27 1999-12-17 Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus

Country Status (1)

Country Link
JP (1) JP4340367B2 (en)

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003076717A (en) * 2001-09-04 2003-03-14 Nippon Telegr & Teleph Corp <Ntt> System and method for information retrieval, information retrieval program and recording medium
JP2005354134A (en) * 2004-06-08 2005-12-22 Sony Corp Image management method and device, recording medium, and program
JP2006040085A (en) * 2004-07-29 2006-02-09 Sony Corp Information processing device and method therefor, storage medium, and program
US7027644B1 (en) 1999-02-01 2006-04-11 Lg Electronics Inc. Multilevel image grid data structure and image search method using the same
JP2006146730A (en) * 2004-11-24 2006-06-08 Casio Comput Co Ltd Image retrieval device, image retrieval method and image retrieval device
JP2006209260A (en) * 2005-01-25 2006-08-10 Fuji Xerox Co Ltd System and method for retrieving articles and computer program
JP2007094691A (en) * 2005-09-28 2007-04-12 Canon Inc Information retrieval device, its control method, computer program, and storage medium
US7206779B2 (en) 2001-06-15 2007-04-17 Olympus Corporation Method and apparatus for retrieving similar objects
JP2007164648A (en) * 2005-12-16 2007-06-28 Ricoh Co Ltd Similar image search device, similar image search method, program and information recording medium
JPWO2005046942A1 (en) * 2003-11-13 2007-08-23 独立行政法人科学技術振興機構 Robot driving method
JP2007527065A (en) * 2004-03-02 2007-09-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method for generating an icon representing an image group, a computer system configured to perform the method, a computer program product and a data carrier
JP2009059133A (en) * 2007-08-31 2009-03-19 Sony Corp Image retrieval device, image retrieval method and program
JP2009123124A (en) * 2007-11-16 2009-06-04 National Institute Of Advanced Industrial & Technology Musical composition search system, method and program
JP2009129279A (en) * 2007-11-26 2009-06-11 Yahoo Japan Corp Machine learning apparatus and machine learning method
JP2009297365A (en) * 2008-06-16 2009-12-24 Olympus Corp Image processor, image processing method, and image processing program
JP2010212932A (en) * 2009-03-10 2010-09-24 Nikon Corp Image display device
JP2011018238A (en) * 2009-07-09 2011-01-27 Hitachi Ltd Image retrieval system and image retrieval method
JP2011507083A (en) * 2007-12-12 2011-03-03 インターナショナル・ビジネス・マシーンズ・コーポレーション Method, system and computer program for searching digital content based on metadata of sample elements
JP2011081819A (en) * 2010-11-08 2011-04-21 Sony Corp Image management method and device, recording medium, and program
JP2011138222A (en) * 2009-12-25 2011-07-14 Canon Inc Object identifying device, object identifying method, and program
US8086045B2 (en) 2006-04-17 2011-12-27 Ricoh Company, Ltd. Image processing device with classification key selection unit and image processing method
JP2013054523A (en) * 2011-09-02 2013-03-21 Olympus Medical Systems Corp Image processing system
CN103038768A (en) * 2010-08-16 2013-04-10 皇家飞利浦电子股份有限公司 Method and apparatus for selecting at least one media item
WO2015136716A1 (en) * 2014-03-14 2015-09-17 オムロン株式会社 Image processing device, image sensor, and image processing method
KR20150108099A (en) * 2014-03-17 2015-09-25 에스케이플래닛 주식회사 Apparatus for providing a search result based on posture of object, method thereof and computer readable medium having computer program recorded therefor
WO2015146520A1 (en) * 2014-03-27 2015-10-01 富士フイルム株式会社 Similar medical case search device, similar medical case search method, and similar medical case search program
WO2015146519A1 (en) * 2014-03-27 2015-10-01 富士フイルム株式会社 Similar medical case search device, similar medical case search method, and similar medical case search program
US9514127B2 (en) 2012-09-13 2016-12-06 International Business Machines Corporation Computer implemented method, program, and system for identifying non-text element suitable for communication in multi-language environment
US9519660B2 (en) 2012-11-26 2016-12-13 Ricoh Company, Ltd. Information processing apparatus, clustering method, and recording medium storing clustering program
CN106354885A (en) * 2016-10-14 2017-01-25 百度在线网络技术(北京)有限公司 Searching method and device
JP2017520877A (en) * 2015-06-10 2017-07-27 シャオミ・インコーポレイテッド SEARCH METHOD, SEARCH DEVICE, PROGRAM, AND RECORDING MEDIUM
JP2019125114A (en) * 2018-01-15 2019-07-25 凸版印刷株式会社 Content classification device, content classification method, and program
WO2020261634A1 (en) * 2019-06-25 2020-12-30 三菱電機株式会社 Boundary line detection device and water level measurement device
JP2022516898A (en) * 2018-12-29 2022-03-03 豊疆智能科技股▲ふん▼有限公司 Harvester and its automatic driving method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06309377A (en) * 1993-04-23 1994-11-04 Nec Corp Picture retrieving method and device
JPH07146871A (en) * 1993-11-24 1995-06-06 Hitachi Ltd Still picture retrieval device and method therefor
JPH08249351A (en) * 1995-03-15 1996-09-27 Omron Corp Method and device for image retrieval
JPH09204440A (en) * 1996-01-29 1997-08-05 Fujitsu Ltd System and method for retrieving image and recording medium
JPH10198683A (en) * 1997-01-07 1998-07-31 Ricoh Co Ltd Method for sorting document picture
JPH10240765A (en) * 1997-03-03 1998-09-11 Nippon Telegr & Teleph Corp <Ntt> Method for retrieving similar object and device therefor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06309377A (en) * 1993-04-23 1994-11-04 Nec Corp Picture retrieving method and device
JPH07146871A (en) * 1993-11-24 1995-06-06 Hitachi Ltd Still picture retrieval device and method therefor
JPH08249351A (en) * 1995-03-15 1996-09-27 Omron Corp Method and device for image retrieval
JPH09204440A (en) * 1996-01-29 1997-08-05 Fujitsu Ltd System and method for retrieving image and recording medium
JPH10198683A (en) * 1997-01-07 1998-07-31 Ricoh Co Ltd Method for sorting document picture
JPH10240765A (en) * 1997-03-03 1998-09-11 Nippon Telegr & Teleph Corp <Ntt> Method for retrieving similar object and device therefor

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
坂本 弘章: "複数のキー画像の部分的な特徴を使用する静止画像検索方式の提案", 電子情報通信学会技術研究報告, vol. 93, no. 319, JPN6008056875, 12 November 1993 (1993-11-12), JP, pages 31 - 36, ISSN: 0001175264 *
広池 敦: "VR空間を用いた画像特徴量空間の可視化−画像データベースの検索・ブラウジングのためのユーザインターフ", 電子情報通信学会技術研究報告, vol. 98, no. 275, JPN6008056871, 18 September 1998 (1998-09-18), JP, pages 17 - 24, ISSN: 0001175263 *

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7027644B1 (en) 1999-02-01 2006-04-11 Lg Electronics Inc. Multilevel image grid data structure and image search method using the same
US7206779B2 (en) 2001-06-15 2007-04-17 Olympus Corporation Method and apparatus for retrieving similar objects
JP2003076717A (en) * 2001-09-04 2003-03-14 Nippon Telegr & Teleph Corp <Ntt> System and method for information retrieval, information retrieval program and recording medium
JPWO2005046942A1 (en) * 2003-11-13 2007-08-23 独立行政法人科学技術振興機構 Robot driving method
JP2007527065A (en) * 2004-03-02 2007-09-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method for generating an icon representing an image group, a computer system configured to perform the method, a computer program product and a data carrier
JP2005354134A (en) * 2004-06-08 2005-12-22 Sony Corp Image management method and device, recording medium, and program
JP2006040085A (en) * 2004-07-29 2006-02-09 Sony Corp Information processing device and method therefor, storage medium, and program
US8015186B2 (en) 2004-07-29 2011-09-06 Sony Corporation Information processing apparatus and method, recording medium, and program
JP2006146730A (en) * 2004-11-24 2006-06-08 Casio Comput Co Ltd Image retrieval device, image retrieval method and image retrieval device
JP2006209260A (en) * 2005-01-25 2006-08-10 Fuji Xerox Co Ltd System and method for retrieving articles and computer program
JP2007094691A (en) * 2005-09-28 2007-04-12 Canon Inc Information retrieval device, its control method, computer program, and storage medium
JP2007164648A (en) * 2005-12-16 2007-06-28 Ricoh Co Ltd Similar image search device, similar image search method, program and information recording medium
US8086045B2 (en) 2006-04-17 2011-12-27 Ricoh Company, Ltd. Image processing device with classification key selection unit and image processing method
JP2009059133A (en) * 2007-08-31 2009-03-19 Sony Corp Image retrieval device, image retrieval method and program
JP2009123124A (en) * 2007-11-16 2009-06-04 National Institute Of Advanced Industrial & Technology Musical composition search system, method and program
JP2009129279A (en) * 2007-11-26 2009-06-11 Yahoo Japan Corp Machine learning apparatus and machine learning method
JP2011507083A (en) * 2007-12-12 2011-03-03 インターナショナル・ビジネス・マシーンズ・コーポレーション Method, system and computer program for searching digital content based on metadata of sample elements
JP2009297365A (en) * 2008-06-16 2009-12-24 Olympus Corp Image processor, image processing method, and image processing program
US9076078B2 (en) 2008-06-16 2015-07-07 Olympus Corporation Image processing apparatus, method and program for determining arrangement of vectors on a distribution map
JP2010212932A (en) * 2009-03-10 2010-09-24 Nikon Corp Image display device
JP2011018238A (en) * 2009-07-09 2011-01-27 Hitachi Ltd Image retrieval system and image retrieval method
JP2011138222A (en) * 2009-12-25 2011-07-14 Canon Inc Object identifying device, object identifying method, and program
US10382819B2 (en) 2010-08-16 2019-08-13 S.I.Sv.El. Societa Italiana Per Lo Sviluppo Dell'elettronica S.P.A. Method and apparatus for selecting at least one media item
CN103038768A (en) * 2010-08-16 2013-04-10 皇家飞利浦电子股份有限公司 Method and apparatus for selecting at least one media item
JP2013536509A (en) * 2010-08-16 2013-09-19 コーニンクレッカ フィリップス エヌ ヴェ Method and apparatus for selecting at least one media item
JP2011081819A (en) * 2010-11-08 2011-04-21 Sony Corp Image management method and device, recording medium, and program
JP2013054523A (en) * 2011-09-02 2013-03-21 Olympus Medical Systems Corp Image processing system
US9514127B2 (en) 2012-09-13 2016-12-06 International Business Machines Corporation Computer implemented method, program, and system for identifying non-text element suitable for communication in multi-language environment
US9519660B2 (en) 2012-11-26 2016-12-13 Ricoh Company, Ltd. Information processing apparatus, clustering method, and recording medium storing clustering program
WO2015136716A1 (en) * 2014-03-14 2015-09-17 オムロン株式会社 Image processing device, image sensor, and image processing method
KR102256057B1 (en) 2014-03-17 2021-05-25 에스케이플래닛 주식회사 Apparatus for providing a search result based on posture of object, method thereof and computer readable medium having computer program recorded therefor
KR20150108099A (en) * 2014-03-17 2015-09-25 에스케이플래닛 주식회사 Apparatus for providing a search result based on posture of object, method thereof and computer readable medium having computer program recorded therefor
WO2015146520A1 (en) * 2014-03-27 2015-10-01 富士フイルム株式会社 Similar medical case search device, similar medical case search method, and similar medical case search program
WO2015146519A1 (en) * 2014-03-27 2015-10-01 富士フイルム株式会社 Similar medical case search device, similar medical case search method, and similar medical case search program
JP2015191286A (en) * 2014-03-27 2015-11-02 富士フイルム株式会社 Similar case retrieval device, similar case retrieval method and similar case retrieval program
JP2015191285A (en) * 2014-03-27 2015-11-02 富士フイルム株式会社 Similar case retrieval device, similar case retrieval method and similar case retrieval program
JP2017520877A (en) * 2015-06-10 2017-07-27 シャオミ・インコーポレイテッド SEARCH METHOD, SEARCH DEVICE, PROGRAM, AND RECORDING MEDIUM
US10496696B2 (en) 2016-10-14 2019-12-03 Baidu Online Network Technology (Beijing) Co., Ltd Search method and apparatus
CN106354885A (en) * 2016-10-14 2017-01-25 百度在线网络技术(北京)有限公司 Searching method and device
JP2019125114A (en) * 2018-01-15 2019-07-25 凸版印刷株式会社 Content classification device, content classification method, and program
JP7077624B2 (en) 2018-01-15 2022-05-31 凸版印刷株式会社 Content classification device, content classification method, and program
JP2022516898A (en) * 2018-12-29 2022-03-03 豊疆智能科技股▲ふん▼有限公司 Harvester and its automatic driving method
WO2020261634A1 (en) * 2019-06-25 2020-12-30 三菱電機株式会社 Boundary line detection device and water level measurement device
JP2021005158A (en) * 2019-06-25 2021-01-14 三菱電機株式会社 Boundary line detection device and water level measurement device

Also Published As

Publication number Publication date
JP4340367B2 (en) 2009-10-07

Similar Documents

Publication Publication Date Title
JP2000285141A (en) Image retrieval device, image classifying device, and computer readable recording medium recorded with program for functioning computer as these devices
JP4674257B2 (en) Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus
JP5229744B2 (en) Image classification device and image classification program
US8913853B2 (en) Image retrieval system and method
JP5830784B2 (en) Interest graph collection system by relevance search with image recognition system
US6711287B1 (en) Image-feature extraction method and computer-readable record medium with a program for making a computer execute steps of the method recorded therein
US7801893B2 (en) Similarity detection and clustering of images
US6556710B2 (en) Image searching techniques
US6353823B1 (en) Method and system for using associative metadata
US6522782B2 (en) Image and text searching techniques
US20040215660A1 (en) Image search method and apparatus
JP2001202523A (en) Method and device for image processing
US20150178321A1 (en) Image-based 3d model search and retrieval
US6522780B1 (en) Indexing of images and/or text
JP6173754B2 (en) Image search system, image search apparatus, and image search method
US20110200260A1 (en) Image retrieval using texture data
US7755646B2 (en) Image management through lexical representations
US6522779B2 (en) Representing an image with a posterized joint histogram
JP2005353101A (en) Image-feature extraction method and computer-readable recording medium stored with program for executing on computer each step of the method
JP2007102362A (en) Automatic classification category forming device, automatic digital image content classification device and digital image content management system
JP2011043954A (en) Image processor, image processing method, and image processing program
Tusk et al. Automated feature selection through relevance feedback
US6671402B1 (en) Representing an image with weighted joint histogram
TWI425372B (en) System and method for searching images
Farooque Image indexing and retrieval

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090630

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090706

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120710

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120710

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130710

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees