JP4674257B2 - Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus - Google Patents

Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus Download PDF

Info

Publication number
JP4674257B2
JP4674257B2 JP2009005055A JP2009005055A JP4674257B2 JP 4674257 B2 JP4674257 B2 JP 4674257B2 JP 2009005055 A JP2009005055 A JP 2009005055A JP 2009005055 A JP2009005055 A JP 2009005055A JP 4674257 B2 JP4674257 B2 JP 4674257B2
Authority
JP
Japan
Prior art keywords
image
search
classification
similarity
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009005055A
Other languages
Japanese (ja)
Other versions
JP2009134735A (en
Inventor
雅二郎 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2009005055A priority Critical patent/JP4674257B2/en
Publication of JP2009134735A publication Critical patent/JP2009134735A/en
Application granted granted Critical
Publication of JP4674257B2 publication Critical patent/JP4674257B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、大量の画像の中からユーザが希望する画像を探し出すための画像検索装置および大量の画像を所定の分類先に分類する画像分類装置に関し、ユーザが望む通りの方法で精度の高い画像検索処理および画像分類処理を行うことが可能な画像分類装置に関する。   The present invention relates to an image search device for searching for an image desired by a user from a large number of images and an image classification device for classifying a large number of images into a predetermined classification destination. The present invention relates to an image classification apparatus capable of performing search processing and image classification processing.

近年、コンピュータ技術や画像処理技術の発達に伴って、大量の電子画像を蓄積して画像データベースを構築する試みが盛んに行われている。画像データベースを構築する際に重要となるのは、大量に蓄積した画像の中から利用したい画像を簡単に得ることができるようにするための画像検索装置である。   In recent years, with the development of computer technology and image processing technology, attempts to build an image database by accumulating a large amount of electronic images have been actively conducted. What is important when constructing an image database is an image search device for easily obtaining an image to be used from among a large amount of accumulated images.

画像検索装置の一つとして、各画像に言葉を用いた検索キーを付与し、文書の検索と同様な方法で、入力されたキーワードと画像に付された検索キーとを照合し、キーワードと一致する検索キーが付された画像を検索結果として返すというものがある。   As one of the image search devices, a search key using words is assigned to each image, and the input keyword is matched with the search key attached to the image in the same way as the document search to match the keyword. In some cases, an image with a search key to be returned is returned as a search result.

ところが、人間が画像から受ける印象は人によって異なるため、画像に付された検索キーがその画像から人間が受ける印象を全て言い表しているとは言えず、従って言葉による検索キーを用いた画像検索では満足な画像を得ることができない場合が多い。なぜなら、画像中に登場する人間,動物,建物等の事物(以下「オブジェクト」と定義する)の形状特徴や位置関係については、適切な言葉で表現することができない場合が多いからである。   However, since the impression that a person receives from an image varies from person to person, it cannot be said that the search key attached to the image expresses all the impression that the person receives from the image. Therefore, in the image search using the search key by words, In many cases, a satisfactory image cannot be obtained. This is because the shape features and positional relationships of things (hereinafter referred to as “objects”) such as humans, animals, and buildings that appear in the image cannot often be expressed in appropriate words.

そのため、キーワードと言葉による検索キーとを照合することによって画像を検索するのではなく、検索条件として特定の画像(以下「問合せ画像」と記述する)を与え、問合せ画像に類似する画像を画像データベースの中から検索できるようにすることが望ましい。このような検索装置を実現するために、問合せ画像および検索対象の画像からそれぞれ画像の特徴を表す特徴量を抽出し、問合せ画像の特徴量と検索対象の画像の特徴量との類似性を判定し、問合せ画像の特徴量と類似する特徴量を有する画像を検索結果として返すという方法が提案されている。つまり、この画像検索装置は、特徴間の類似性を画像自体の類似性と考えることによって、類似する画像を検索するというものである。   Therefore, instead of searching for an image by matching a keyword with a search key by words, a specific image (hereinafter referred to as “query image”) is given as a search condition, and an image similar to the query image is stored in the image database. It is desirable to be able to search from within. In order to realize such a search device, feature quantities representing image features are extracted from the query image and the search target image, respectively, and the similarity between the query image feature quantity and the search target image feature quantity is determined. A method has been proposed in which an image having a feature amount similar to the feature amount of the inquiry image is returned as a search result. That is, this image search apparatus searches for similar images by regarding the similarity between features as the similarity of the images themselves.

また、画像そのものを問合せ画像とするのではなく、各画像の特徴量として画像の色(色のヒストグラム),テクスチャ,オブジェクトの形状等を抽出してデータベース化しておき、画像を検索する際に、データベース化した画像の特徴量を検索条件として指定することによって、指定した特徴量を有する画像を検索するという検索装置も提案されている(Myron Flickner et al, “Query by Imageand Video Content: The QBIC System,” Computer, September 1995, pp23-32)。   Also, instead of using the image itself as an inquiry image, the image color (color histogram), texture, object shape, etc. are extracted as a database and stored in a database, and when searching for an image, A search device that searches for an image having a specified feature amount by specifying the feature amount of the image in the database as a search condition has also been proposed (Myron Flickner et al, “Query by Imageand Video Content: The QBIC System , ”Computer, September 1995, pp23-32).

しかしながら、上記問合せ画像を指定して、問合せ画像に類似する画像を検索する画像検索装置においては、例えば、ユーザが検索結果として望む画像に類似した問合せ画像が存在しない場合、問合せ画像として指定するための画像を検索する処理が必要となり、検索作業の利便性に欠けるという問題点があった。   However, in an image search apparatus that searches for an image similar to the query image by specifying the query image, for example, if there is no query image similar to the image that the user wants as a search result, it is specified as the query image. Therefore, there is a problem in that it is difficult to perform the search operation.

また、画像の特徴量を指定して画像を検索する画像検索装置にあっても、例えば、ユーザが検索結果として望む画像の配色を選択したり、検索結果として望む画像中に存在するオブジェクトの形状を描いたりすることによって画像の特徴量を検索条件として指定する必要があるため、検索を実行する際のユーザの負担が大きいという問題点があった。また、画像の特徴量を検索条件として指定するため、ユーザが検索結果として希望する画像を検索条件において的確に表現することは困難で、検索に対するユーザの意図を適切に装置に伝えられないという問題点があった。その結果、ユーザの望む検索結果を得ることは困難であった。   Further, even in an image search apparatus that searches for an image by designating the feature amount of the image, for example, the user selects a color scheme of the image desired as the search result, or the shape of the object present in the image desired as the search result Since it is necessary to specify the feature amount of the image as a search condition by drawing, there is a problem that the burden on the user when executing the search is large. In addition, since the feature amount of the image is specified as the search condition, it is difficult to accurately express the image desired by the user as the search result in the search condition, and the user's intention for the search cannot be properly transmitted to the apparatus. There was a point. As a result, it is difficult to obtain a search result desired by the user.

すなわち、上記従来の画像検索装置においては、検索条件の指定に自由度がなく、ユーザの意図を検索条件として正確に表現することができないという点で不便であった。したがって、ユーザの意図を装置側に正確に伝えることができず、ユーザの望む画像を精度良く得ることは困難であった。さらに、ユーザの意図を装置側に正確に伝え、ユーザの意図通りの検索処理を行うことを可能にするためには、ユーザが望む方法で検索処理を行えるように様々な検索手法が用意されていなければならない。   In other words, the conventional image search apparatus is inconvenient in that there is no degree of freedom in specifying search conditions, and the user's intention cannot be accurately expressed as search conditions. Therefore, it is difficult to accurately convey the user's intention to the apparatus side, and it is difficult to accurately obtain an image desired by the user. Furthermore, in order to accurately convey the user's intention to the device side and perform the search process as intended by the user, various search methods are prepared so that the user can perform the search process in a desired manner. There must be.

本発明は、上記のような画像検索装置における画像検索処理を画像分類処理に応用し、新たな方法で画像分類処理を実行可能な画像分類装置を提供することを目的とする。   An object of the present invention is to provide an image classification device that can perform image classification processing by a new method by applying the image retrieval processing in the image retrieval device as described above to image classification processing.

上記目的を達成するため、本発明の画像分類装置は、分類対象の画像の分類先となる分類項目ごとに、前記分類対象の画像の分類基準となる画像であって、画像の特徴を表す複数の特徴量の種類のうちいずれか1つの特徴量の種類が対応づけられた1以上の基準画像と、画像の類似度に基づいて画像を前記分類項目に分類するか否かを決定する予め定められた閾値と、を設定する設定手段と、前記基準画像のそれぞれについて、対応づけられた種類の特徴量についての前記分類対象の画像に対する類似度を算出する算出手段と、算出された類似度と前記閾値とに基づいて、前記分類対象の画像を前記分類項目に分類するか否かを決定する決定手段と備え、前記設定手段は、分類対象の画像の分類先となる分類項目ごとに、さらに類似度の重要度を設定し、前記決定手段は、前記基準画像のそれぞれについて算出された類似度を前記重要度で重み付けて合計した総合類似度を算出し、前記総合類似度と前記閾値とに基づいて、前記分類対象の画像を前記分類項目に分類するか否かを決定するものである。 In order to achieve the above object, an image classification apparatus according to the present invention is an image that serves as a classification criterion for the classification target image for each classification item that is a classification destination of the classification target image, and represents a plurality of image characteristics. And determining whether or not to classify the image into the classification items based on the similarity between the image and one or more reference images associated with any one of the feature amount types. A setting means for setting the threshold value , a calculating means for calculating the similarity of the type of feature quantity associated with each of the reference images with respect to the image to be classified, and the calculated similarity based on the said threshold value, an image of the classified and a determination unit configured to determine whether to classify the classification items, the setting means, for each category of the grouping destination of the classification target image, Further similarity The determination means calculates a total similarity obtained by weighting and summing the similarities calculated for each of the reference images with the importance, and based on the total similarity and the threshold value, It is determined whether or not the images to be classified are classified into the classification items .

また、本発明の画像分類装置において、さらに、前記設定手段が、前記分類項目毎に分類された画像をさらに分類するための分類項目を設定可能であるものである。   In the image classification device of the present invention, the setting means can set classification items for further classifying the images classified for each classification item.

また、本発明の記録媒体は、本発明の画像分類装置のいずれか一の各手段としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体である。   The recording medium of the present invention is a computer-readable recording medium in which a program for causing a computer to function as each means of any one of the image classification apparatuses of the present invention is recorded.

本発明の画像分類装置によれば、分類項目を設定し、設定した分類項目毎に、基準画像を複数設定し、分類項目毎に、設定された各基準画像および分類対象の画像の類似度を求めると共に、求めた類似度を合計して分類対象の画像の総合類似度を求め、分類項目毎に求めた分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、分類対象の画像の分類先となる分類項目を決定するため、AND検索処理を応用した画像分類処理を行うことが可能となる。   According to the image classification device of the present invention, classification items are set, a plurality of reference images are set for each set classification item, and the similarity between each set reference image and classification target image is set for each classification item. The total similarity of the images to be classified is obtained by summing the obtained similarities, and the classification is performed based on the overall similarity of the images to be classified obtained for each classification item and a preset classification destination determination criterion. In order to determine a classification item to be a classification destination of the target image, it is possible to perform an image classification process using an AND search process.

本発明の実施の形態1に係る画像検索装置のブロック構成図である。1 is a block configuration diagram of an image search device according to Embodiment 1 of the present invention. 本発明の実施の形態1に係る画像検索装置において実行される処理を示すブロック図である。It is a block diagram which shows the process performed in the image search device which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像検索装置において実行される画像登録処理の概略を示すフローチャートである。It is a flowchart which shows the outline of the image registration process performed in the image search device which concerns on Embodiment 1 of this invention. 本発明に係る画像検索装置において、画像から抽出した特徴量に応じて各画像を特徴空間にマップした様子を示す説明図である。It is explanatory drawing which shows a mode that each image was mapped to the feature space according to the feature-value extracted from the image in the image search device which concerns on this invention. 本発明の実施の形態1に係る画像検索装置において検索時に使用される検索ウインドウを示す説明図である。It is explanatory drawing which shows the search window used at the time of a search in the image search device which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像検索装置において実行される画像検索処理を示すフローチャートである。It is a flowchart which shows the image search process performed in the image search device which concerns on Embodiment 1 of this invention. 本発明の実施の形態2に係る画像検索装置において検索時に使用される検索ウインドウを示す説明図である。It is explanatory drawing which shows the search window used at the time of a search in the image search device which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る画像検索装置において実行される画像検索処理を示すフローチャートである。It is a flowchart which shows the image search process performed in the image search device which concerns on Embodiment 2 of this invention. 本発明の実施の形態3に係る画像検索装置において検索時に使用される検索ウインドウを示す説明図である。It is explanatory drawing which shows the search window used at the time of a search in the image search device which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る画像検索装置において実行される画像検索処理を示すフローチャートである。It is a flowchart which shows the image search process performed in the image search device which concerns on Embodiment 3 of this invention. 本発明の実施の形態4に係る画像検索装置において検索時に使用される検索ウインドウを示す説明図である。It is explanatory drawing which shows the search window used at the time of a search in the image search device which concerns on Embodiment 4 of this invention. 本発明の実施の形態4に係る画像検索装置において実行される画像検索処理を示すフローチャートである。It is a flowchart which shows the image search process performed in the image search device which concerns on Embodiment 4 of this invention. 本発明の実施の形態5に係る画像検索装置において検索時に使用される検索ウインドウを示す説明図である。It is explanatory drawing which shows the search window used at the time of a search in the image search device which concerns on Embodiment 5 of this invention. 本発明の実施の形態5に係る画像検索装置において実行される画像検索処理を示すフローチャートである。It is a flowchart which shows the image search process performed in the image search device which concerns on Embodiment 5 of this invention. 本発明の実施の形態6に係る画像検索装置において検索時に使用される検索ウインドウを示す説明図である。It is explanatory drawing which shows the search window used at the time of a search in the image search device which concerns on Embodiment 6 of this invention. 本発明の実施の形態6に係る画像検索装置において実行される画像検索処理を示すフローチャートである。It is a flowchart which shows the image search process performed in the image search device which concerns on Embodiment 6 of this invention. 本発明の実施の形態7に係る画像検索装置において実行される画像検索処理を示すフローチャートである。It is a flowchart which shows the image search process performed in the image search device which concerns on Embodiment 7 of this invention. 本発明の実施の形態8に係る画像検索装置において実行される画像検索処理を示すフローチャートである。It is a flowchart which shows the image search process performed in the image search device which concerns on Embodiment 8 of this invention. 本発明の実施の形態9に係る画像検索装置において実行される画像検索処理を示すフローチャートである。It is a flowchart which shows the image search process performed in the image search device which concerns on Embodiment 9 of this invention. 本発明の実施の形態10に係る画像検索装置において実行される画像検索処理を示すフローチャートである。It is a flowchart which shows the image search process performed in the image search device which concerns on Embodiment 10 of this invention. 本発明の実施の形態11に係る画像検索装置において実行される画像検索処理を示すフローチャートである。It is a flowchart which shows the image search process performed in the image search device which concerns on Embodiment 11 of this invention. 本発明の実施の形態12に係る画像検索装置において、問合せ画像および検索対象の画像から抽出する特徴量の粗さのレベルを説明する説明図である。In the image search device concerning Embodiment 12 of this invention, it is explanatory drawing explaining the level of the roughness of the feature-value extracted from a query image and the image of search object. 本発明の実施の形態12に係る画像検索装置における特徴量抽出処理(エッジ特徴の抽出)を説明する説明図である。It is explanatory drawing explaining the feature-value extraction process (extraction of an edge feature) in the image search device which concerns on Embodiment 12 of this invention. 本発明の実施の形態12に係る画像検索装置における特徴量抽出処理(エッジ特徴の抽出)を説明する説明図である。It is explanatory drawing explaining the feature-value extraction process (extraction of an edge feature) in the image search device which concerns on Embodiment 12 of this invention. 本発明の実施の形態12に係る画像検索装置において検索時に使用される検索ウインドウを示す説明図である。It is explanatory drawing which shows the search window used at the time of the search in the image search device concerning Embodiment 12 of this invention. 本発明の実施の形態12に係る画像検索装置において実行される画像検索処理を示すフローチャートである。It is a flowchart which shows the image search process performed in the image search device which concerns on Embodiment 12 of this invention. 本発明の実施の形態12に係る画像検索装置において実行される画像検索処理の変形例1を示す説明図である。It is explanatory drawing which shows the modification 1 of the image search process performed in the image search device which concerns on Embodiment 12 of this invention. 本発明の実施の形態12に係る画像検索装置において実行される画像検索処理の変形例2を示す説明図である。It is explanatory drawing which shows the modification 2 of the image search process performed in the image search device which concerns on Embodiment 12 of this invention. 本発明の実施の形態13に係る画像検索装置において実行される画像検索処理の概略を説明するための説明図である。It is explanatory drawing for demonstrating the outline of the image search process performed in the image search device concerning Embodiment 13 of this invention. 本発明の実施の形態13に係る画像検索装置において実行される画像検索処理の概略を説明するための説明図である。It is explanatory drawing for demonstrating the outline of the image search process performed in the image search device concerning Embodiment 13 of this invention. 本発明の実施の形態13に係る画像検索装置において実行される画像検索処理を示すフローチャートである。It is a flowchart which shows the image search process performed in the image search device which concerns on Embodiment 13 of this invention. 本発明の実施の形態13に係る画像検索装置において検索時に使用される検索ウインドウを示す説明図である。It is explanatory drawing which shows the search window used at the time of a search in the image search device which concerns on Embodiment 13 of this invention. 本発明の実施の形態14に係る画像分類装置のブロック構成図である。It is a block block diagram of the image classification device based on Embodiment 14 of this invention. 本発明の実施の形態14に係る画像分類装置において実行される処理を示すブロック図である。It is a block diagram which shows the process performed in the image classification device which concerns on Embodiment 14 of this invention. 本発明の実施の形態14に係る画像分類装置において、画像の分類項目の設定処理や分類後の画像の表示を行うための画像分類ウインドウの一例を示す説明図である。It is explanatory drawing which shows an example of the image classification window for performing the setting process of the classification item of an image, and the display of the image after a classification | category in the image classification device based on Embodiment 14 of this invention. 本発明の実施の形態14に係る画像分類装置において実行される画像分類処理を示すフローチャートである。It is a flowchart which shows the image classification process performed in the image classification device based on Embodiment 14 of this invention. 本発明の実施の形態14に係る画像分類装置において、画像が分類された後の画像分類ウインドウの様子を示す説明図である。It is explanatory drawing which shows the mode of the image classification | category window after the image is classified in the image classification device based on Embodiment 14 of this invention. 本発明の実施の形態15に係る画像分類装置において、画像の分類項目の設定処理や分類後の画像の表示を行うための画像分類ウインドウの一例を示す説明図である。In the image classification device according to the fifteenth embodiment of the present invention, it is an explanatory diagram showing an example of an image classification window for performing image classification item setting processing and display of images after classification. 本発明の実施の形態16に係る画像分類装置において、画像の分類項目の設定処理や分類後の画像の表示を行うための画像分類ウインドウの一例を示す説明図である。It is explanatory drawing which shows an example of the image classification window for performing the setting process of the classification item of an image, and the display of the image after a classification | category in the image classification device based on Embodiment 16 of this invention. 本発明の実施の形態16に係る画像分類装置において実行される画像分類処理を示すフローチャートである。It is a flowchart which shows the image classification process performed in the image classification device based on Embodiment 16 of this invention. 本発明の実施の形態17に係る画像分類装置において、画像の分類項目の設定処理や分類後の画像の表示を行うための画像分類ウインドウの一例を示す説明図である。In the image classification device according to the seventeenth embodiment of the present invention, it is an explanatory diagram showing an example of an image classification window for performing processing for setting image classification items and displaying images after classification. 本発明の実施の形態18に係る画像分類装置において、画像の分類項目の設定処理や分類後の画像の表示を行うための画像分類ウインドウの一例を示す説明図である。In the image classification device according to the eighteenth embodiment of the present invention, it is an explanatory diagram showing an example of an image classification window for performing image classification item setting processing and display of images after classification. 本発明の実施の形態19に係る画像分類装置において、画像の分類項目の設定処理や分類後の画像の表示を行うための画像分類ウインドウの一例を示す説明図である。In the image classification device according to the nineteenth embodiment of the present invention, it is an explanatory diagram showing an example of an image classification window for performing image classification item setting processing and display of images after classification. 本発明の実施の形態21に係る画像分類装置において実行される画像分類処理を示すフローチャートである。It is a flowchart which shows the image classification process performed in the image classification device based on Embodiment 21 of this invention. 本発明の実施の形態22に係る画像分類装置において実行される画像分類処理を示すフローチャートである。It is a flowchart which shows the image classification process performed in the image classification device based on Embodiment 22 of this invention. 本発明の実施の形態25に係る画像分類装置において実行される画像分類処理を示す説明図である。It is explanatory drawing which shows the image classification process performed in the image classification device based on Embodiment 25 of this invention. 本発明の実施の形態25に係る画像分類装置において実行される画像分類処理を示す説明図である。It is explanatory drawing which shows the image classification process performed in the image classification device based on Embodiment 25 of this invention. 本発明の実施の形態25に係る画像分類装置において実行される画像分類処理を示す説明図である。It is explanatory drawing which shows the image classification process performed in the image classification device based on Embodiment 25 of this invention. 本発明に係る画像検索装置および/または画像分類装置を実現するプログラムを記録した記録媒体およびプログラムの配布形態を示す説明図である。It is explanatory drawing which shows the distribution form of the recording medium which recorded the program which implement | achieves the image search device and / or image classification device based on this invention, and a program.

以下、本発明に係る画像検索装置および画像分類装置の実施の形態について、添付の図面を参照しつつ詳細に説明する。   Embodiments of an image search device and an image classification device according to the present invention will be described below in detail with reference to the accompanying drawings.

〔実施の形態1〕
まず、本発明に係る画像検索装置について説明する。図1は、実施の形態1に係る画像検索装置のブロック構成図である。図1に示す画像検索装置は、パーソナルコンピュータやワークステーション等のコンピュータ100で構成されており、全体を制御するCPU101と、ブートプログラム等を記憶したROM102と、CPU101のワークエリアとして使用されるRAM103と、問合せ画像,検索実行命令等の入力を行うためのキーボード104およびマウス105と、例えば検索結果の画像を表示するためのCRTや液晶ディスプレイ等のモニタ106と、本発明に係る画像検索装置としての機能をCPU101(コンピュータ100)に実行させるための画像検索ソフト107,複数の画像が登録された画像DB108,画像DB108中の画像から抽出した特徴量が登録された画像特徴DB109等を記憶したハードディスク110と、画像を入力するためのスキャナやディジタルカメラを接続するためのインターフェイス(I/F)111と、インターネットやLANのようなネットワーク112にコンピュータ100(画像検索装置)を接続するためのネットワーク・アダプタ113と、上記各部を接続するバス114と、を備えている。
[Embodiment 1]
First, an image search apparatus according to the present invention will be described. FIG. 1 is a block configuration diagram of an image search apparatus according to the first embodiment. The image search apparatus shown in FIG. 1 includes a computer 100 such as a personal computer or a workstation, and includes a CPU 101 that controls the whole, a ROM 102 that stores a boot program, and a RAM 103 that is used as a work area of the CPU 101. A keyboard 104 and a mouse 105 for inputting an inquiry image, a search execution command, etc., a monitor 106 such as a CRT or a liquid crystal display for displaying an image of a search result, and the image search apparatus according to the present invention Image search software 107 for causing the CPU 101 (computer 100) to execute a function, an image DB 108 in which a plurality of images are registered, an image feature DB 109 in which feature amounts extracted from images in the image DB 108 are stored, and the like Enter the image An interface (I / F) 111 for connecting a scanner or a digital camera for performing the operation, a network adapter 113 for connecting the computer 100 (image search device) to a network 112 such as the Internet or a LAN, and each of the above components And a bus 114 for connecting the two.

図2は、図1に示した画像検索装置において実行される処理を示すブロック図である。処理の詳細な内容については後述するが、図2において、ユーザ・インターフェイス(U/I)部151(本発明の指定手段および出力手段に該当する)は、ユーザに対して画像検索を行うための検索条件入力画面,検索結果表示画面等を表示して、検索条件の入力,検索結果の出力処理等を実行する。特徴抽出エンジン152(本発明の重要度決定手段および特徴抽出手段に該当する)は、画像DB108に登録する画像(検索対象の画像)および検索時に指定される問合せ画像から画像の特徴量を抽出する処理を実行する。さらに、マッチング・エンジン153(本発明の検索手段に該当する)は、問合せ画像から抽出された特徴量と画像特徴DB109に登録された画像DB108中の画像の特徴量とを比較し、問合せ画像の特徴に該当する特徴を有する画像を検索する処理を実行する。   FIG. 2 is a block diagram showing processing executed in the image search apparatus shown in FIG. Although details of the processing will be described later, in FIG. 2, a user interface (U / I) unit 151 (corresponding to the designation unit and output unit of the present invention) A search condition input screen, a search result display screen, etc. are displayed, and search condition input, search result output processing, etc. are executed. The feature extraction engine 152 (corresponding to the importance determination unit and the feature extraction unit of the present invention) extracts the feature amount of the image from the image (search target image) registered in the image DB 108 and the query image specified at the time of the search. Execute the process. Further, the matching engine 153 (corresponding to the search means of the present invention) compares the feature quantity extracted from the query image with the feature quantity of the image in the image DB 108 registered in the image feature DB 109, and determines the query image. A process of searching for an image having a feature corresponding to the feature is executed.

なお、図2において、U/I部151,特徴抽出エンジン152およびマッチング・エンジン153は、図1に示した画像検索ソフト107を構成するモジュールを意味している。これら各部による処理は、図1に示したCPU101が画像検索ソフト107を実行することによって実現される。   In FIG. 2, a U / I unit 151, a feature extraction engine 152, and a matching engine 153 mean modules that constitute the image search software 107 shown in FIG. The processing by these units is realized by the CPU 101 shown in FIG.

つぎに、前述した構成を有する画像検索装置によって実行される処理について、
(1)特徴量抽出処理
(2)画像検索処理
の順で説明する。
Next, regarding processing executed by the image search apparatus having the above-described configuration,
(1) Feature amount extraction processing (2) Image search processing will be described in this order.

(1)特徴量抽出処理
まず、検索対象の画像を画像DB108に登録する処理を例にとって、画像の特徴を表す特徴量を各画像から抽出する処理を説明する。ここでは、一例として、従来から良く知られている画像の色特徴(色ヒストグラム),画像のエッジ特徴および画像中のテクスチャ特徴を特徴量として抽出するものとする。
(1) Feature Amount Extraction Processing First, processing for extracting feature amounts representing image features from each image will be described by taking as an example processing for registering an image to be searched in the image DB 108. Here, as an example, it is assumed that color features (color histogram) of images, edge features of images, and texture features in images that are well known in the past are extracted as feature amounts.

図3は、実施の形態1に係る画像検索装置において実行される画像登録処理の概略を示すフローチャートである。図2に示した特徴抽出エンジン152は、U/I部151を介して登録対象となる画像を入力する(S11)。入力する画像は、例えば、スキャナで読み取った画像,ディジタルカメラで撮像した画像,ネットワーク112を介してダウンロードした画像,予めハードディスク110に記憶されていた画像等、いかなるものであっても良い。   FIG. 3 is a flowchart showing an outline of an image registration process executed in the image search apparatus according to the first embodiment. The feature extraction engine 152 shown in FIG. 2 inputs an image to be registered via the U / I unit 151 (S11). The input image may be any image such as an image read by a scanner, an image captured by a digital camera, an image downloaded via the network 112, or an image stored in the hard disk 110 in advance.

そして、特徴抽出エンジン152は、入力した画像から特徴量を抽出する処理を実行する(S12)。このステップS12において、上記3種類の特徴量が各画像から抽出されるものとする。これら3種類の特徴量は、以下に示すように従来から知られている方法を用いて各画像から抽出することができる。   Then, the feature extraction engine 152 executes a process of extracting a feature amount from the input image (S12). In step S12, the three types of feature values are extracted from each image. These three types of feature amounts can be extracted from each image using a conventionally known method as described below.

画像の色ヒストグラム(以下、単に「色」と記述する)は、適当な色空間(例えばLab,Luv,HSVなどが一般的)を選択して複数の領域に分割し、画像の各ピクセルが色空間中のどの領域に対応するかを調べ、領域毎のピクセル数を全体のピクセル数により正規化することによって得ることができる。画像のエッジ(以下、「構造」と記述する)は、例えばsobelのようなエッジ抽出フィルタを用いて得ることができる。さらに、テクスチャは、同時生起行列に基づくテクスチャ抽出によって得ることができる(参考文献:高木幹夫雄,下田陽久監修,「画像解析ハンドブック」,東京大学出版会,1991年)。   An image color histogram (hereinafter simply referred to as “color”) is divided into a plurality of regions by selecting an appropriate color space (eg, Lab, Luv, HSV, etc.), and each pixel of the image is colored. It can be obtained by examining which region in the space corresponds and normalizing the number of pixels in each region by the total number of pixels. An edge of an image (hereinafter referred to as “structure”) can be obtained by using an edge extraction filter such as a sobel. Furthermore, the texture can be obtained by texture extraction based on the co-occurrence matrix (reference: Mikio Takagi, supervised by Yoshihisa Shimoda, “Image Analysis Handbook”, The University of Tokyo Press, 1991).

ステップS12で画像から特徴量を抽出した後、特徴抽出エンジン152は、画像DB108に登録する元の画像に関連付けて、抽出した特徴量を画像特徴DB109に登録する(S13)。また、元の画像も画像DB108に登録される。   After extracting the feature amount from the image in step S12, the feature extraction engine 152 registers the extracted feature amount in the image feature DB 109 in association with the original image registered in the image DB 108 (S13). The original image is also registered in the image DB 108.

なお、画像検索の高速化という観点から、画像DB108に登録する検索対象の画像については、登録時に予め特徴量を抽出して画像特徴DB109に登録しておくことが好ましい。ただし、画像検索時に検索対象の各画像から特徴量を抽出することにする場合には、予め特徴量を抽出しておく必要はない。   From the viewpoint of speeding up the image search, it is preferable to extract the feature amount in advance and register it in the image feature DB 109 at the time of registration for the search target image registered in the image DB 108. However, when feature amounts are to be extracted from each search target image during image search, it is not necessary to extract feature amounts in advance.

図3に示した処理を実行することにより、画像DB108に登録された画像は、抽出した特徴量の種類毎に図4に示すような特徴空間にマップされることになる。画像検索時においては、後述するように問合せ画像から画像の特徴量を抽出し、同じく図4に示す特徴空間にマップする。図4に示すポイント(黒点)は、特徴空間にマップされた画像を示し、問合せ画像のポイントと各画像のポイント間の距離が画像の類似度となる。なお、画像の特徴量の多くはベクトルデータであり、類似度であるポイント間の距離の計算には一般にユークリッド距離などのベクトルの距離定義式が利用される。また、画像の特徴量の種類に合わせて独自の距離を定義することもできる。   By executing the processing shown in FIG. 3, the image registered in the image DB 108 is mapped to a feature space as shown in FIG. 4 for each type of extracted feature quantity. At the time of image search, the feature amount of the image is extracted from the inquiry image as will be described later, and is mapped to the feature space shown in FIG. The points (black dots) shown in FIG. 4 indicate images mapped to the feature space, and the distance between the points of the inquiry image and the points of each image is the image similarity. Note that most image feature amounts are vector data, and vector distance definition formulas such as Euclidean distance are generally used to calculate the distance between points that are similarities. It is also possible to define a unique distance according to the type of feature amount of the image.

(2)画像検索処理
続いて、実施の形態1に係る画像検索装置において実行される画像検索処理について説明する。実施の形態1に係る画像検索装置は、単に問合せ画像を検索条件として指定するのみでは問合せ画像とユーザが検索結果として希望する画像との類似観点を装置に伝えられないという点を考慮したものであって、検索に使用する特徴量の種類毎に問合せ画像を指定することによって、ユーザが適切と考える仮想的な一つの問合せ画像を表現できるようにしたものである。なお、前述したように、ここで使用可能な特徴量の種類としては、色,構造およびテクスチャの3種類であるものとし、検索対象の画像は画像DB108に登録された画像であるものとする。
(2) Image Search Process Next, the image search process executed in the image search apparatus according to Embodiment 1 will be described. The image search device according to the first embodiment takes into consideration that the similarity point between the query image and the image desired by the user as a search result cannot be transmitted to the device simply by specifying the query image as a search condition. By designating an inquiry image for each type of feature amount used for search, a virtual inquiry image considered appropriate by the user can be expressed. As described above, the types of feature quantities that can be used here are three types of color, structure, and texture, and the search target image is an image registered in the image DB 108.

図5は検索時に使用される検索ウインドウを示す説明図であり、図6は実施の形態1に係る画像検索処理を示すフローチャートである。図2のU/I部151は、画像検索処理を実行する際に図5に示す検索ウインドウ200aを図1に示したモニタ106上に画面表示する。検索ウインドウ200aは、画像検索に用いられる色,構造およびテクスチャの特徴量毎にそれぞれ一つの問合せ画像を指定するための画像指定欄A,BおよびCと、画像検索処理の実行を指定するための検索ボタン201と、検索結果の画像を表示する画像表示欄202と、を備えている。   FIG. 5 is an explanatory diagram showing a search window used at the time of search, and FIG. 6 is a flowchart showing image search processing according to the first embodiment. The U / I unit 151 in FIG. 2 displays the search window 200a shown in FIG. 5 on the monitor 106 shown in FIG. 1 when executing the image search process. The search window 200a is used to specify the image designation fields A, B, and C for designating one query image for each color, structure, and texture feature amount used for image retrieval, and to designate execution of image retrieval processing. A search button 201 and an image display field 202 for displaying a search result image are provided.

ユーザは、図5に示した各画像指定欄において、特徴量の種類毎に問合せ画像をそれぞれ指定する(S101)。問合せ画像として指定する画像は、例えば、スキャナで読み取った画像,ディジタルカメラで撮像した画像,ネットワーク112を介してダウンロードした画像,予めハードディスク110に記憶されていた画像等、いかなるものであっても良い。   The user designates an inquiry image for each type of feature amount in each image designation field shown in FIG. 5 (S101). The image designated as the inquiry image may be any image such as an image read by a scanner, an image captured by a digital camera, an image downloaded via the network 112, or an image stored in the hard disk 110 in advance. .

ここで、問合せ画像の指定方法について具体的に説明する。前提として、ユーザが検索結果として希望する画像を適切に表現した一枚の画像は存在しないが、例えば、検索結果として希望する画像に画像の配色の雰囲気が似た画像A,画像の構造(オブジェクトの配置等)の雰囲気が似た画像Bおよび画像中のテクスチャの雰囲気が似た画像Cが見つかったものとする。   Here, a method for specifying an inquiry image will be described in detail. As a premise, there is no single image that appropriately represents an image desired by the user as a search result. For example, an image A, an image structure (object that is similar to the image color desired in the search result, and an object It is assumed that an image B having a similar atmosphere and an image C having a similar texture atmosphere in the image are found.

ユーザは、図5に示すように、これら3枚の画像A,BおよびCをそれぞれ画像指定欄A,BおよびCに問合せ画像として指定する。具体的には、検索結果として希望する画像に画像の配色の雰囲気が似ている問合せ画像Aを特徴量「色」に対応する画像指定欄Aに指定する。同様に、検索結果として希望する画像に画像の構造の雰囲気が似ている問合せ画像Bを特徴量「構造」に対応する画像指定欄Bに、画像中のテクスチャの雰囲気が似ている問合せ画像Cを特徴量「テクスチャ」に対応する画像指定欄Cに指定する。   As shown in FIG. 5, the user designates these three images A, B, and C as inquiry images in the image designation columns A, B, and C, respectively. Specifically, an inquiry image A whose image color atmosphere is similar to the desired image as a search result is designated in the image designation field A corresponding to the feature amount “color”. Similarly, an inquiry image B whose image structure atmosphere is similar to the desired image as a search result is displayed in the image designation field B corresponding to the feature quantity “structure”, and an inquiry image C whose texture atmosphere in the image is similar. Is designated in the image designation field C corresponding to the feature amount “texture”.

なお、以下の説明において、画像指定欄Aに指定された画像を問合せ画像Aと、画像指定欄Bに指定された画像を問合せ画像Bと、画像指定欄Cに指定された画像を問合せ画像Cと呼ぶことにする。   In the following description, the image designated in the image designation field A is the query image A, the image designated in the image designation field B is the query image B, and the image designated in the image designation field C is the query image C. I will call it.

このように、単に問合せ画像を複数指定するだけでなく、画像検索に使用される各種類の特徴量毎に問合せ画像を指定することにより、ユーザが適切と考える仮想的な一つの問合せ画像を表現できると共に、検索に対するユーザの意図を装置側に正確に伝えることが可能となる。したがって、後述する検索処理によって、ユーザの意図が反映された検索結果の画像を得ることが可能となる。   In this way, not only simply specifying multiple query images, but also specifying a query image for each type of feature quantity used for image search, a single virtual query image considered appropriate by the user is expressed. In addition, the user's intention for the search can be accurately transmitted to the device side. Therefore, it is possible to obtain an image of a search result reflecting the user's intention by a search process described later.

図6のフローチャートの説明に戻る。ユーザが図5の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから対応する種類の特徴量を抽出する処理を実行する(S102)。すなわち、特徴抽出エンジン152は、問合せ画像Aから色の特徴量を、問合せ画像Bから構造の特徴量を、問合せ画像Cからテクスチャの特徴量を抽出する。その後、特徴抽出エンジン152は、抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。   Returning to the flowchart of FIG. When the user designates the search button 201 in FIG. 5, the U / I unit 151 inputs the query images A, B, and C to the feature extraction engine 152, and the feature extraction engine 152 extracts the query images A, B, and C from each query image A, B, and C. A process of extracting the corresponding type of feature quantity is executed (S102). That is, the feature extraction engine 152 extracts a color feature amount from the query image A, a structure feature amount from the query image B, and a texture feature amount from the query image C. After that, the feature extraction engine 152 passes the extracted feature amount of each inquiry image to the matching engine 153 (maps to the feature space of FIG. 4).

なお、問合せ画像A,BおよびCから抽出した特徴量が画像特徴DB109に登録されている場合には、図6のステップS102の処理をスキップすることができる。   Note that if the feature amount extracted from the query images A, B, and C is registered in the image feature DB 109, the process of step S102 in FIG. 6 can be skipped.

続いて、マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、該当する特徴量を用いて各問合せ画像A,BおよびCとの類似度を求めると共に、求めた各問合せ画像A,BおよびCとの類似度を合計して、検索対象の画像の総合類似度を求める処理を実行する(S103)。   Subsequently, the matching engine 153 obtains the similarity to each of the query images A, B, and C using the corresponding feature amount for each search target image registered in the image DB 108 and obtains each obtained query. A process of calculating the total similarity of the search target images by summing up the similarities with the images A, B, and C is executed (S103).

このステップS103における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、色の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。この画像間の距離が、二つの画像の類似度に該当し、距離が短いほど二つの画像が色の特徴において類似していることになる。マッチング・エンジン153は、同様に、構造の特徴量に基づいて検索対象の画像と問合せ画像Bとの距離を求めると共に、テクスチャの特徴量に基づいて検索対象の画像と問合せ画像Cとの距離を求める。   The processing in step S103 will be specifically described taking one search target image as an example. The matching engine 153 obtains the similarity between the search target image and the query image A using the color feature amount. That is, the matching engine 153 determines the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. Find using. The distance between the images corresponds to the similarity between the two images, and the shorter the distance is, the more similar the two images are in color characteristics. Similarly, the matching engine 153 obtains the distance between the image to be searched and the query image B based on the feature amount of the structure, and calculates the distance between the image to be searched and the query image C based on the feature amount of the texture. Ask.

その後、マッチング・エンジン153は、検索対象の画像と各問合せ画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする。ここで、特徴量の種類の数をN、特徴量jの問合せ画像をQj、検索対象の画像をIi、特徴量jの画像間の距離式をDj()とすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。 Thereafter, the matching engine 153 sums the distances between the search target image and each of the query images A, B, and C, and sets the total value of the distances as the total similarity. Here, if the number of types of feature quantity is N, the query image of feature quantity j is Q j , the search target image is I i , and the distance formula between the feature quantity j images is D j (), The total similarity S i for each image is expressed as follows.

Figure 0004674257
Figure 0004674257

マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。   In this way, the matching engine 153 obtains the total similarity for each image to be searched, and outputs the total similarity for each image to be searched to the U / I unit 151.

U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図5の画像表示欄202に表示する(S104)。ここでは、総合類似度として、検索対象の画像と問合せ画像A,BおよびCとの特徴量間の距離の合計を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。   The U / I unit 151 refers to the total similarity obtained for each search target image by the matching engine 153, and displays the search target images in the image display column 202 in FIG. (S104). Here, since the total distance between the feature amounts of the image to be searched and the query images A, B, and C is used as the overall similarity, the search target is actually in ascending order of the value of the overall similarity. An image is displayed in the image display field 202. That is, the total similarity has a value of 0 or more, and when the total similarity is 0, it means that the feature amount of each query image and the feature amount of the search target image are equal.

なお、画像表示欄202には検索対象の画像を全て表示する必要はなく、予め定めた数の画像のみを表示したり、予め定めた閾値以下(総合類似度が画像間の距離で表されている場合)の総合類似度を得た画像のみを表示することにしても良い。すなわち、検索結果をどのように表示するかについては任意に設定・変更することが可能である(以下の実施の形態においても同様)。   Note that it is not necessary to display all the images to be searched in the image display field 202. Only a predetermined number of images are displayed, or less than a predetermined threshold (total similarity is represented by the distance between images). Only the images that have obtained the overall similarity may be displayed. That is, it is possible to arbitrarily set / change how the search result is displayed (the same applies to the following embodiments).

また、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。また、画像表示欄202に表示された画像をマウス105でクリックすることにより、画像を拡大して表示する処理を行うことも可能である。   As a result of referring to the image of the search result displayed in the image display field 202, if it is desired to perform a narrowed search, the image displayed in the image display field 202 is designated as an inquiry image and the same search process is performed. You can also. It is also possible to perform a process of enlarging and displaying the image by clicking the image displayed in the image display field 202 with the mouse 105.

このように、実施の形態1に係る画像検索装置によれば、問合せ画像および検索対象の画像の類似度を求める際に使用される各種類の特徴量毎にそれぞれ一つの問合せ画像を指定し、検索対象の画像毎に、指定された各問合せ画像との類似度を対応する種類の特徴量を用いて求めると共に、求めた各問合せ画像との類似度を合計して検索対象の画像の総合類似度を求め、検索対象の画像毎に求めた総合類似度に基づいて検索結果を出力することにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることができると共に、検索に対するユーザの意図を確実に装置に伝えることができるため、検索に対するユーザの意図を正確に反映した検索結果を得ることができ、ユーザが望む通りの精度の高い画像検索処理を行うことができる。   Thus, according to the image search device according to the first embodiment, one query image is designated for each type of feature amount used when obtaining the similarity between the query image and the search target image. For each search target image, the similarity to each specified query image is obtained using the corresponding type of feature amount, and the similarity to each obtained query image is totaled to obtain the overall similarity of the search target image Since the user's intention can be accurately expressed as a search condition by outputting the search result based on the total similarity obtained for each image to be searched, it is possible to accurately convey the user's intention to the device. In addition, the user's intention for the search can be surely communicated to the apparatus, so that a search result accurately reflecting the user's intention for the search can be obtained, and a highly accurate image as desired by the user can be obtained. It is possible to perform the search process.

例えば、問合せ画像として適切な画像が存在しない場合であっても、検索結果として望む画像に色の雰囲気が似た画像やオブジェクトの形状の雰囲気が似た画像を問合せ画像として指定し、これらの画像を合わせたものを一つの問合せとして使用することができる。   For example, even if an appropriate image does not exist as an inquiry image, an image having a color atmosphere similar to an image desired as a search result or an image having an object shape atmosphere is specified as an inquiry image. Can be used as one query.

なお、実施の形態1の説明において、全ての種類の特徴量にそれぞれ対応して問合せ画像を指定することにしたが、必ず全ての種類の特徴量に対応して問合せ画像を指定する必要はない。また、色,構造およびテクスチャの3種類の特徴量を用いることにしたが、これらはあくまでも例示であって、特徴量の種類および数を限定することを意図したものではない。   In the description of the first embodiment, the query image is specified corresponding to all types of feature amounts, but it is not always necessary to specify the query image corresponding to all types of feature amounts. . In addition, although three types of feature quantities of color, structure, and texture are used, these are merely examples, and are not intended to limit the types and number of feature quantities.

〔実施の形態2〕
実施の形態2に係る画像検索装置は、実施の形態1の場合と同様に、単に問合せ画像を検索条件として指定するのみでは問合せ画像とユーザが検索結果として希望する画像との類似観点を装置に伝えられないという点を考慮したものであって、複数の問合せ画像と検索に使用する特徴量の種類とを指定することによって、ユーザが適切と考える仮想的な一つの問合せ画像を表現できるようにしたものである。なお、実施の形態2に係る画像検索装置において、実施の形態1で既に説明した構成については同一の符号を使用して詳細な説明を省略し、画像検索処理についても共通する点については適宜説明を省略する。
[Embodiment 2]
As in the case of the first embodiment, the image search device according to the second embodiment gives the apparatus a similar viewpoint between the query image and the image that the user desires as a search result simply by specifying the query image as a search condition. In consideration of the fact that it cannot be transmitted, by specifying multiple query images and the types of features used for the search, it is possible to express one virtual query image that the user thinks appropriate It is a thing. Note that in the image search device according to the second embodiment, the same reference numerals are used for the configurations already described in the first embodiment, and detailed description thereof is omitted, and common points regarding the image search processing are also described as appropriate. Is omitted.

図7は検索時に使用される検索ウインドウを示す説明図であり、図8は実施の形態2に係る画像検索処理を示すフローチャートである。図2のU/I部151は、画像検索処理を実行する際に図7に示す検索ウインドウ200bを図1に示したモニタ106上に画面表示する。検索ウインドウ200bは、複数の問合せ画像を指定するための画像指定欄A,BおよびCと、各画像指定欄に指定した問合せ画像毎に、検索対象の画像との類似度を求める際に使用する特徴量の種類を指定するための特徴量指定ボタン203と、画像検索処理の実行を指定するための検索ボタン201と、検索結果の画像を表示する画像表示欄202と、を備えている。   FIG. 7 is an explanatory view showing a search window used at the time of search, and FIG. 8 is a flowchart showing image search processing according to the second embodiment. The U / I unit 151 in FIG. 2 displays the search window 200b shown in FIG. 7 on the screen 106 shown in FIG. 1 when executing the image search process. The search window 200b is used to obtain the similarity between the image designation columns A, B, and C for designating a plurality of query images and the query target image for each query image designated in each image designation column. A feature amount designation button 203 for designating the type of feature amount, a search button 201 for designating execution of image search processing, and an image display column 202 for displaying an image of the search result are provided.

実施の形態1で説明したように、前提として、ユーザが検索結果として希望する画像を適切に表現した一枚の画像は存在しないが、例えば、検索結果として希望する画像に画像の配色の雰囲気が似た画像A,画像の構造の雰囲気が似た画像Bおよび画像中のテクスチャの雰囲気が似た画像Cが見つかったものとする。   As described in the first embodiment, as a premise, there is no single image that appropriately represents an image that the user desires as a search result. For example, an image color arrangement atmosphere exists in the image that is desired as a search result. Assume that a similar image A, an image B having a similar image structure atmosphere, and an image C having a similar texture atmosphere in the image are found.

ユーザは、図7に示した各画像指定欄に問合せ画像を複数指定すると共に、指定した各問合せ画像毎に検索対象の画像との類似度を求める際に使用する特徴量の種類を指定する(S201)。   The user designates a plurality of inquiry images in each image designation field shown in FIG. 7 and designates the type of feature amount used for obtaining the similarity with the image to be searched for each designated inquiry image ( S201).

具体的に、ユーザは、図7に示すように3枚の画像A,BおよびCを画像指定欄A,BおよびCに問合せ画像として指定する。そして、ユーザは、検索結果として希望する画像に画像の配色の雰囲気が似ている問合せ画像Aについては、特徴量指定ボタン203において「色」を指定する。同様に、検索結果として希望する画像に画像の構造の雰囲気が似ている問合せ画像Bについては「構造」を、画像中のテクスチャの雰囲気が似ている問合せ画像Cについては「テクスチャ」を指定する。   Specifically, the user designates three images A, B, and C as inquiry images in the image designation fields A, B, and C as shown in FIG. Then, the user designates “color” with the feature amount designation button 203 for the inquiry image A in which the atmosphere of the color arrangement of the image is similar to the desired image as the search result. Similarly, “Structure” is designated for the query image B whose image structure atmosphere is similar to the desired image as the search result, and “Texture” is designated for the query image C whose texture atmosphere in the image is similar. .

このように、単に問合せ画像を複数指定するだけでなく、指定した各問合せ画像毎にユーザが重視する画像の特徴に該当する特徴量を指定することにより、ユーザが適切と考える仮想的な一つの問合せ画像を表現できると共に、検索に対するユーザの意図を装置側に正確に伝えることが可能となる。したがって、後述する検索処理によって、ユーザの意図が反映された検索結果の画像を得ることが可能となる。   In this way, not only simply specifying a plurality of query images, but specifying a feature quantity corresponding to the feature of the image that the user places importance on for each specified query image, a virtual one that the user considers appropriate It is possible to express an inquiry image and accurately convey the user's intention for the search to the apparatus side. Therefore, it is possible to obtain an image of a search result reflecting the user's intention by a search process described later.

ただし、図7においては、各問合せ画像に対してそれぞれ異なる種類の特徴量を指定することにしたが、同一種類の特徴量を指定しても良い。すなわち、複数の問合せ画像全てに同一種類の特徴量を指定しても良い。   However, in FIG. 7, different types of feature amounts are designated for each inquiry image, but the same type of feature amounts may be designated. That is, the same type of feature amount may be specified for all of the plurality of inquiry images.

そして、ユーザが図7の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびC,ならびに特徴量の種類を特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから指定された種類の特徴量を抽出する処理を実行する(S202)。すなわち、特徴抽出エンジン152は、問合せ画像Aから色の特徴量を、問合せ画像Bから構造の特徴量を、問合せ画像Cからテクスチャの特徴量を抽出する。その後、特徴抽出エンジン152は、抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。   Then, when the user designates the search button 201 in FIG. 7, the U / I unit 151 inputs the query images A, B, and C and the type of feature amount to the feature extraction engine 152, and the feature extraction engine 152 A process of extracting a specified type of feature quantity from the query images A, B, and C is executed (S202). That is, the feature extraction engine 152 extracts a color feature amount from the query image A, a structure feature amount from the query image B, and a texture feature amount from the query image C. After that, the feature extraction engine 152 passes the extracted feature amount of each inquiry image to the matching engine 153 (maps to the feature space of FIG. 4).

なお、問合せ画像A,BおよびCから抽出した特徴量が画像特徴DB109に登録されている場合には、図8のステップS202の処理をスキップすることができる。   If the feature amounts extracted from the query images A, B, and C are registered in the image feature DB 109, the process of step S202 in FIG. 8 can be skipped.

続いて、マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、ユーザが指定した種類の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求めると共に、求めた各問合せ画像A,BおよびCとの類似度を合計して検索対象の画像の総合類似度を求める処理を実行する(S203)。   Subsequently, the matching engine 153 obtains the similarity with each of the query images A, B, and C using the type of feature specified by the user for each search target image registered in the image DB 108. A process of calculating the total similarity of the search target images by summing up the similarities with the obtained inquiry images A, B and C (S203).

このステップS203における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、色の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。この画像間の距離が、二つの画像の類似度に該当し、距離が短いほど二つの画像が色の特徴において類似していることになる。マッチング・エンジン153は、同様に、構造の特徴量に基づいて検索対象の画像と問合せ画像Bとの距離を求めると共に、テクスチャの特徴量に基づいて検索対象の画像と問合せ画像Cとの距離を求める。   The processing in step S203 will be specifically described taking one search target image as an example. The matching engine 153 obtains the similarity between the search target image and the query image A using the color feature amount. That is, the matching engine 153 determines the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. Find using. The distance between the images corresponds to the similarity between the two images, and the shorter the distance is, the more similar the two images are in color characteristics. Similarly, the matching engine 153 obtains the distance between the image to be searched and the query image B based on the feature amount of the structure, and calculates the distance between the image to be searched and the query image C based on the feature amount of the texture. Ask.

その後、マッチング・エンジン153は、検索対象の画像と各問合せ画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする。ここで、特徴量の数をN、問合せ画像の数をM、k番目の問合せ画像をQk、検索対象の画像をIi、特徴量jの画像間の距離式をDj()、k番目の画像の特徴量jの指定の有無をtjk(指定されていれば1、指定されていなければ0)とすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。 Thereafter, the matching engine 153 sums the distances between the search target image and each of the query images A, B, and C, and sets the total value of the distances as the total similarity. Here, the number of feature amounts is N, the number of query images is M, the k-th query image is Q k , the search target image is I i , and the distance formula between images of the feature amount j is D j (), k. If the presence / absence of designation of the feature value j of the second image is t jk (1 if designated, 0 if not designated), the total similarity S i for each image to be searched is expressed as follows. It is.

Figure 0004674257
Figure 0004674257

マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。   In this way, the matching engine 153 obtains the total similarity for each image to be searched, and outputs the total similarity for each image to be searched to the U / I unit 151.

U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図7の画像表示欄202に表示する(S204)。ここでは、総合類似度として、検索対象の画像と問合せ画像A,BおよびCとの特徴量間の距離の合計を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。   The U / I unit 151 refers to the overall similarity obtained for each search target image by the matching engine 153, and displays the search target images in the image display column 202 in FIG. (S204). Here, since the total distance between the feature amounts of the image to be searched and the query images A, B, and C is used as the overall similarity, the search target is actually in ascending order of the value of the overall similarity. An image is displayed in the image display field 202. That is, the total similarity has a value of 0 or more, and when the total similarity is 0, it means that the feature amount of each query image and the feature amount of the search target image are equal.

なお、画像表示欄202には検索対象の全ての画像を表示する必要はなく、予め定めた数の画像のみを表示したり、予め定めた閾値以下(総合類似度が画像間の距離で表されている場合)の総合類似度を得た画像のみを表示することにしても良い。   Note that it is not necessary to display all the images to be searched in the image display field 202. Only a predetermined number of images are displayed, or less than a predetermined threshold (total similarity is represented by the distance between images). In this case, it is possible to display only the images that have obtained the overall similarity.

また、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。また、画像表示欄202に表示された画像をマウス105でクリックすることにより、画像を拡大して表示する処理を行うことも可能である。   As a result of referring to the image of the search result displayed in the image display field 202, if it is desired to perform a narrowed search, the image displayed in the image display field 202 is designated as an inquiry image and the same search process is performed. You can also. It is also possible to perform a process of enlarging and displaying the image by clicking the image displayed in the image display field 202 with the mouse 105.

このように、実施の形態2に係る画像検索装置によれば、問合せ画像を複数指定すると共に、指定した各問合せ画像毎に検索対象の画像との類似度を求める際に使用する特徴量の種類を指定し、検索対象の画像毎に、指定された種類の特徴量を用いて各問合せ画像との類似度を求めると共に、求めた各問合せ画像との類似度を合計して総合類似度を求め、検索対象の画像毎に求めた総合類似度に基づいて検索結果を出力することにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることができると共に、検索に対するユーザの意図を確実に装置に伝えることができるため、検索に対するユーザの意図を正確に反映した検索結果を得ることができ、ユーザが望む通りの精度の高い画像検索処理を行うことができる。   As described above, according to the image search device according to the second embodiment, a plurality of query images are specified, and the type of feature amount used when obtaining the similarity with the search target image for each specified query image For each image to be searched, the similarity with each query image is calculated using the specified type of feature amount, and the total similarity is obtained by summing the similarities with each obtained query image. The user's intention can be accurately expressed as a search condition by outputting the search result based on the total similarity obtained for each image to be searched, so that the user's intention can be accurately transmitted to the apparatus, Since the user's intention for the search can be reliably transmitted to the apparatus, a search result that accurately reflects the user's intention for the search can be obtained, and the image search process can be performed with high accuracy as desired by the user. It is possible.

例えば、問合せ画像として適切な画像が存在しない場合であっても、検索結果として望む画像に色の雰囲気が似た画像やオブジェクトの形状の雰囲気が似た画像を問合せ画像として指定し、これらの画像を合わせたものを一つの問合せとして使用することができる。加えて、指定した各問合せ画像毎にユーザが希望する特徴量を指定することができるため、実施の形態1に係る画像検索装置に比べ、検索条件を自由に設定することができる。   For example, even if an appropriate image does not exist as an inquiry image, an image having a color atmosphere similar to an image desired as a search result or an image having an object shape atmosphere is specified as an inquiry image. Can be used as one query. In addition, since the feature quantity desired by the user can be specified for each specified inquiry image, the search condition can be freely set as compared with the image search apparatus according to the first embodiment.

なお、実施の形態2の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。すなわち、問合せ画像を1枚のみ指定しても同様の方法で検索処理を行うことができるが、実施の形態2においては複数枚指定することに意味がある。また、色,構造およびテクスチャの3種類の特徴量を用いることにしたが、これらはあくまでも例示であって、特徴量の種類を限定することを意図したものではない。   In the description of the second embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. That is, even if only one inquiry image is specified, the search process can be performed in the same way, but in the second embodiment, it is meaningful to specify a plurality of images. In addition, although three types of feature quantities of color, structure, and texture are used, these are merely examples and are not intended to limit the types of feature quantities.

〔実施の形態3〕
実施の形態3に係る画像検索装置は、実施の形態2の画像検索装置において、検索に対するユーザの意図をさらに正確に表現できるようにしたものである。
[Embodiment 3]
The image search apparatus according to the third embodiment is configured so that the user's intention for the search can be expressed more accurately in the image search apparatus according to the second embodiment.

図9は、実施の形態3に係る画像検索装置において用いられる検索ウインドウ200cを示す説明図である。図9に示す検索ウインドウ200cは、図7に示した検索ウインドウ200bの構成に加えて、画像指定欄A,BおよびCに指定された問合せ画像毎に相対的な重要度を指定するための重要度指定バー204を備えている。   FIG. 9 is an explanatory diagram showing a search window 200c used in the image search device according to the third embodiment. In addition to the configuration of the search window 200b shown in FIG. 7, the search window 200c shown in FIG. 9 is important for specifying the relative importance for each inquiry image specified in the image specification fields A, B, and C. A degree designation bar 204 is provided.

実施の形態1および2で説明したように、前提として、ユーザが検索結果として希望する画像を適切に表現した一枚の画像は存在しないが、例えば、検索結果として希望する画像に画像の配色の雰囲気が似た画像A,画像の構造の雰囲気が似た画像Bおよび画像中のテクスチャの雰囲気が似た画像Cが見つかったものとする。   As described in the first and second embodiments, as a premise, there is no single image that appropriately represents an image desired by the user as a search result. Assume that an image A having a similar atmosphere, an image B having a similar image structure atmosphere, and an image C having a similar texture atmosphere in the image are found.

ユーザは、図9に示すように、これら3枚の画像をそれぞれ画像指定欄A,BおよびCに問合せ画像A,BおよびCとして指定する。つぎにユーザは、検索結果として希望する画像に画像の配色の雰囲気が似ている問合せ画像Aについては特徴量指定ボタン203において「色」を指定する。同様に、検索結果として希望する画像に画像の構造の雰囲気が似ている問合せ画像Bについては「構造」を、画像中のテクスチャの雰囲気が似ている問合せ画像Cについては「テクスチャ」を指定する。   The user designates these three images as inquiry images A, B, and C in the image designation columns A, B, and C, respectively, as shown in FIG. Next, the user designates “color” with the feature amount designation button 203 for the inquiry image A in which the atmosphere of the color scheme of the image is similar to the desired image as the search result. Similarly, “Structure” is designated for the query image B whose image structure atmosphere is similar to the desired image as the search result, and “Texture” is designated for the query image C whose texture atmosphere in the image is similar. .

続いて、ユーザは重要度指定バー204を用いて各問合せ画像に重要度を指定する。この重要度指定バー204は、一例として、各問合せ画像毎に「0」を中心にして「+」の重要度および「−」の重要度を指定することができるように構成されている。なお、重要度として「+」方向および「−」方向の両方ではなく、「+」方向のみ、または「−」方向のみを指定できるようにしても良い。   Subsequently, the user uses the importance designation bar 204 to designate the importance for each inquiry image. As an example, the importance level designation bar 204 is configured so that the importance level of “+” and the importance level of “−” can be designated centering on “0” for each inquiry image. Note that it is possible to designate not only both the “+” direction and the “−” direction but also the “+” direction or the “−” direction as the importance.

例えば、問合せ画像A,BおよびCのうち、検索結果として希望する画像に類似する配色を持った問合せ画像Aが最も重要である、即ち、検索結果として問合せ画像Aのような配色の画像が特に欲しいとユーザが感じる場合、ユーザは重要度指定バー204を「+」方向の所望の位置に移動させ、問合せ画像Aは重要であることを指定する。このようにして重要度が指定されると、後述する検索時において、検索対象の画像と問合せ画像Aとの類似度に対し、問合せ画像Aに対して指定された重要度に応じた「+」の重み付けが行われる。   For example, among the query images A, B, and C, the query image A having a color scheme similar to the desired image as the search result is the most important, that is, an image with a color scheme such as the query image A as the search result is particularly important. If the user feels desired, the user moves the importance designation bar 204 to a desired position in the “+” direction and designates that the inquiry image A is important. When the importance is specified in this way, “+” corresponding to the importance specified for the query image A is used for the similarity between the image to be searched and the query image A at the time of a search described later. Is weighted.

なお、例えば、問合せ画像Cのようなテクスチャの画像は検索結果として欲しくないとユーザが感じる場合、ユーザは重要度指定バー204を「−」方向の所望の位置に移動させる。すなわち、「−」方向の重要度を指定することによりNOT条件を問合せ画像に付与することができる。したがって、こんな特徴を有する画像は検索結果として欲しくないとユーザが考える画像を問合せ画像として指定することも可能である。この場合、検索対象の画像と問合せ画像Cとの類似度に対し、問合せ画像Cに対して指定された重要度に応じた「−」の重み付けが行われることになる。   For example, when the user feels that a texture image such as the query image C is not desired as a search result, the user moves the importance designation bar 204 to a desired position in the “−” direction. That is, the NOT condition can be given to the inquiry image by designating the importance in the “−” direction. Therefore, an image that the user thinks that an image having such characteristics is not desired as a search result can be designated as an inquiry image. In this case, the similarity between the search target image and the query image C is weighted with “−” according to the importance specified for the query image C.

このように、問合せ画像毎にユーザが重要度を指定することを可能にすることにより、検索に対するユーザの意図を検索条件として正確に表現することが可能となる。すなわち、後述する検索処理によって、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。なお、必ず重要度を指定しなければならないわけではなく、ユーザが希望する場合に、希望する問合せ画像に対して指定すれば良い。   As described above, by enabling the user to designate the importance level for each inquiry image, the user's intention for the search can be accurately expressed as the search condition. That is, since the importance is reflected as a weighting on the similarity by a search process described later, it is possible to obtain a search result image reflecting the user's intention. Note that it is not always necessary to specify the degree of importance. When the user desires, the degree of importance may be specified for the desired inquiry image.

つぎに、実施の形態3に係る画像検索装置による画像検索処理について説明する。図10は、実施の形態3に係る検索処理を示すフローチャートである。ユーザは、図9に示した各画像指定欄に問合せ画像を複数指定し、指定した各問合せ画像毎に検索対象の画像との類似度を求める際に使用する特徴量の種類を指定すると共に、必要に応じて重要度を指定する(S301)。図9に示したように、ユーザは、問合せ画像A,BおよびCを指定し、各問合せ画像A,BおよびC毎に特徴量の種類および重要度を指定したものとする。   Next, image search processing by the image search apparatus according to Embodiment 3 will be described. FIG. 10 is a flowchart showing search processing according to the third embodiment. The user designates a plurality of inquiry images in each image designation field shown in FIG. 9 and designates the type of feature amount used when obtaining the similarity with the image to be searched for each designated inquiry image, The importance is designated as necessary (S301). As shown in FIG. 9, it is assumed that the user designates inquiry images A, B, and C, and designates the type and importance of the feature amount for each inquiry image A, B, and C.

続いて、ユーザが図9の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびC,ならびに特徴量の種類を特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから指定された種類の特徴量を抽出する処理を実行する(S302)。すなわち、特徴抽出エンジン152は、問合せ画像Aから色の特徴量を、問合せ画像Bから構造の特徴量を、問合せ画像Cからテクスチャの特徴量を抽出する。その後、特徴抽出エンジン152は、抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。   Subsequently, when the user designates the search button 201 in FIG. 9, the U / I unit 151 inputs the query images A, B, and C and the type of feature quantity to the feature extraction engine 152. A process of extracting a specified type of feature amount from each of the query images A, B, and C is executed (S302). That is, the feature extraction engine 152 extracts a color feature amount from the query image A, a structure feature amount from the query image B, and a texture feature amount from the query image C. After that, the feature extraction engine 152 passes the extracted feature amount of each inquiry image to the matching engine 153 (maps to the feature space of FIG. 4).

続いて、マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、ユーザが指定した種類の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各問合せ画像A,BおよびCとの類似度を合計して検索対象の画像の総合類似度を求める処理を実行する(S303)。   Subsequently, the matching engine 153 obtains the degree of similarity with each of the query images A, B, and C using the type of feature amount designated by the user for each image to be searched that is registered in the image DB 108. Then, weighting is performed on each similarity according to the importance, and a process of obtaining the total similarity of the search target images by summing the similarities with the query images A, B, and C is executed (S303).

このステップS303における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、色の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、重要度指定バー204で指定された問合せ画像Aの重要度に応じて重み付けを行う。マッチング・エンジン153は、同様に、構造の特徴量に基づいて検索対象の画像と問合せ画像Bとの距離を求め、求めた距離に対して問合せ画像Bの重要度に応じた重み付けを行うと共に、テクスチャの特徴量に基づいて検索対象の画像と問合せ画像Cとの距離を求め、求めた距離に対して問合せ画像Cの重要度に応じた重み付けを行う。   The processing in step S303 will be specifically described taking one search target image as an example. The matching engine 153 obtains the similarity between the search target image and the query image A using the color feature amount. That is, the matching engine 153 determines the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. Find using. Subsequently, the matching engine 153 weights the obtained distance according to the importance of the inquiry image A designated by the importance designation bar 204. Similarly, the matching engine 153 obtains the distance between the image to be searched and the query image B based on the feature amount of the structure, weights the obtained distance according to the importance of the query image B, and The distance between the image to be searched and the inquiry image C is obtained based on the feature amount of the texture, and the obtained distance is weighted according to the importance of the inquiry image C.

なお、重み付けの対象となる類似度は画像同士の特徴量間の距離であるため、「+」の重要度に基づく「+」の重み付けは画像間の距離を短くする方向に働き、「−」の重要度に基づく「−」の重み付けは画像間の距離を長くする方向に働くことになる。   Since the similarity to be weighted is the distance between the feature amounts of the images, the weighting of “+” based on the importance of “+” works in the direction of shortening the distance between the images, and “−”. The weighting of “−” based on the importance level of the function works in the direction of increasing the distance between images.

その後、マッチング・エンジン153は、検索対象の画像と各問合せ画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする。ここで、特徴量の数をN、問合せ画像の数をM、k番目の問合せ画像をQk、検索対象の画像をIi、特徴量jの画像間の距離式をDj()、k番目の画像の特徴量jの重要度をwjk(該当する特徴が指定されていなければ0)とすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。 Thereafter, the matching engine 153 sums the distances between the search target image and each of the query images A, B, and C, and sets the total value of the distances as the total similarity. Here, the number of feature amounts is N, the number of query images is M, the k-th query image is Q k , the search target image is I i , and the distance formula between images of the feature amount j is D j (), k. If the importance of the feature quantity j of the second image is w jk (0 if the corresponding feature is not specified), the total similarity S i for each image to be searched is expressed as follows.

Figure 0004674257
Figure 0004674257

マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。   In this way, the matching engine 153 obtains the total similarity for each image to be searched, and outputs the total similarity for each image to be searched to the U / I unit 151.

U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図9の画像表示欄202に表示する(S304)。ここでは、総合類似度として、検索対象の画像と問合せ画像A,BおよびCとの特徴量間の距離の合計を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。   The U / I unit 151 refers to the total similarity obtained for each search target image by the matching engine 153, and displays the search target images in the image display column 202 in FIG. (S304). Here, since the total distance between the feature amounts of the image to be searched and the query images A, B, and C is used as the total similarity, in practice, the search targets are actually searched in ascending order of the value of the total similarity. An image is displayed in the image display field 202. That is, the total similarity has a value of 0 or more, and when the total similarity is 0, it means that the feature amount of each query image and the feature amount of the search target image are equal.

なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。また、画像表示欄202に表示された画像をマウス105でクリックすることにより、画像を拡大して表示する処理を行うことも可能である。   As a result of referring to the image of the search result displayed in the image display column 202, if a narrowed search is desired, the image displayed in the image display column 202 is designated as an inquiry image and the same search process is performed. You can also. It is also possible to perform a process of enlarging and displaying the image by clicking the image displayed in the image display field 202 with the mouse 105.

このように、実施の形態3に係る画像検索装置によれば、求めた類似度に対し、問合せ画像の種類に応じて任意の重み付けを行うことができるように、各問合せ画像毎に重要度を指定することが可能であり、検索対象の画像毎に、各問合せ画像との類似度を求め、求めた各問合せ画像との類似度に対し、指定された重要度に応じた重み付けを行うことにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。   As described above, according to the image search device according to the third embodiment, the degree of importance is set for each inquiry image so that the obtained similarity can be arbitrarily weighted according to the type of inquiry image. By specifying the degree of similarity with each query image for each image to be searched and weighting the degree of similarity with each obtained query image according to the specified importance Since the user's intention can be accurately expressed as a search condition, it is possible to accurately convey the user's intention to the apparatus, and the importance is reflected as a weight for the similarity, so the user's intention is reflected. An image as a search result can be obtained.

なお、実施の形態3の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。ただし、実施の形態3においては、問合せ画像毎に重要度を指定するため、複数枚の問合せ画像を指定することに意味がある。   In the description of the third embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. However, in the third embodiment, it is meaningful to specify a plurality of inquiry images because the importance is specified for each inquiry image.

また、詳細な説明については省略するが、実施の形態1で説明した画像検索装置においても、実施の形態3で説明したように各問合せ画像毎に重要度を指定することができるようにしても良い。   Although detailed description is omitted, the image search apparatus described in the first embodiment can also specify the importance for each inquiry image as described in the third embodiment. good.

〔実施の形態4〕
実施の形態4に係る画像検索装置は、ユーザの意図を検索条件として正確に表現するための一つの手法として、AND検索を実行可能にするものである。なお、実施の形態4に係る画像検索装置において、実施の形態1で既に説明した構成については同一の符号を使用して詳細な説明を省略し、画像検索処理についても共通する点については適宜説明を省略する。
[Embodiment 4]
The image search device according to the fourth embodiment enables AND search to be executed as one technique for accurately expressing the user's intention as a search condition. Note that in the image search device according to the fourth embodiment, the same reference numerals are used for the configurations already described in the first embodiment, and detailed description thereof is omitted, and common points regarding the image search processing are also described as appropriate. Is omitted.

図11は、実施の形態4に係る画像検索装置において用いられる検索ウインドウ200dを示す説明図である。この検索ウインドウ200dは、画像指定欄A,BおよびC,検索ボタン201ならびに画像表示欄202に加え、AND検索の実行を指定するためのAND指定ボタン205およびOR検索の実行を指定するためのOR指定ボタン206を備えている。OR検索については、後述する実施の形態8において詳細に説明することにし、ここではAND検索についてのみ説明する。また、検索の際に用いる特徴量は一種類であるものとするが、当然、複数種類の特徴量を用いることにしても良い。   FIG. 11 is an explanatory diagram showing a search window 200d used in the image search device according to the fourth embodiment. The search window 200d includes an AND designation button 205 for designating execution of an AND search and an OR for designating execution of an OR search in addition to the image designation columns A, B and C, the search button 201 and the image display column 202. A designation button 206 is provided. The OR search will be described in detail in an embodiment 8 to be described later, and only the AND search will be described here. In addition, although the feature amount used in the search is assumed to be one type, naturally, a plurality of types of feature amounts may be used.

続いて、実施の形態4に係る画像検索装置による画像検索処理について説明する。図12は、実施の形態4に係る画像検索処理を示すフローチャートである。ユーザは、図11に示した各画像指定欄に問合せ画像を複数指定し、AND指定ボタン205を選択してAND条件による画像検索処理を指定する(S401)。図11に示したように、ユーザは、3枚の問合せ画像A,BおよびCを指定したものとする。   Next, image search processing by the image search apparatus according to Embodiment 4 will be described. FIG. 12 is a flowchart showing image search processing according to the fourth embodiment. The user designates a plurality of inquiry images in each image designation field shown in FIG. 11, selects the AND designation button 205, and designates an image search process based on an AND condition (S401). As shown in FIG. 11, it is assumed that the user designates three inquiry images A, B, and C.

続いて、ユーザが図11の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから所定の特徴量を抽出する処理を実行する(S402)。その後、特徴抽出エンジン152は、抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。   Subsequently, when the user designates the search button 201 in FIG. 11, the U / I unit 151 inputs the query images A, B, and C to the feature extraction engine 152, and the feature extraction engine 152 selects each query image A, B. And a process of extracting a predetermined feature amount from C (S402). After that, the feature extraction engine 152 passes the extracted feature amount of each inquiry image to the matching engine 153 (maps to the feature space of FIG. 4).

マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、所定の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求めると共に、求めた各問合せ画像A,BおよびCとの類似度を合計して検索対象の画像の総合類似度を求める処理を実行する(S403)。   The matching engine 153 obtains a similarity to each of the query images A, B, and C using a predetermined feature amount for each search target image registered in the image DB 108, and obtains each query image A, A process of calculating the total similarity of the search target images by summing the similarities with B and C is executed (S403).

このステップS403における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、所定の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、所定の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。マッチング・エンジン153は、同様に、所定の特徴量に基づいて検索対象の画像と問合せ画像Bとの距離を求めると共に、検索対象の画像と問合せ画像Cとの距離を求める。   The processing in step S403 will be specifically described by taking one image to be searched as an example. The matching engine 153 obtains a similarity between the search target image and the query image A using a predetermined feature amount. That is, the matching engine 153 determines the distance between the search target image plotted in the feature amount space shown in FIG. 4 and the query image A based on a predetermined feature amount, for example, a vector distance definition formula such as a Euclidean distance. Find using. Similarly, the matching engine 153 obtains the distance between the image to be searched and the inquiry image B based on a predetermined feature amount, and obtains the distance between the image to be searched and the inquiry image C.

その後、マッチング・エンジン153は、検索対象の画像と各問合せ画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする。ここで、問合せ画像の数をM、k番目の問合せ画像をQk、検索対象の画像をIi、画像間の距離式をD()とすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。 Thereafter, the matching engine 153 sums the distances between the search target image and each of the query images A, B, and C, and sets the total value of the distances as the total similarity. Here, if the number of query images is M, the k-th query image is Q k , the search target image is I i , and the distance formula between the images is D (), the total similarity S for each search target image is S. i is expressed as follows.

Figure 0004674257
Figure 0004674257

マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。   In this way, the matching engine 153 obtains the total similarity for each image to be searched, and outputs the total similarity for each image to be searched to the U / I unit 151.

なお、複数種類の特徴量を用いて検索を行う場合は、各種類の特徴量毎に検索対象の画像および各問合せ画像の類似度(距離)を求め、検索対象の画像毎に、特徴量毎に求めた各問合せ画像との類似度の全てを合計して総合類似度を求めれば良い。   When performing a search using a plurality of types of feature amounts, the similarity (distance) between the search target image and each query image is obtained for each type of feature amount, and for each feature amount for each search target image. The total similarity can be obtained by summing all the similarities with the respective query images obtained in the above.

続いて、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図11の画像表示欄202に表示する(S404)。ここでの総合類似度は、問合せ画像A,BおよびCの全てに対する検索対象の各画像の類似度を意味しているため、画像のAND検索が実行されたことになる。ただし、ここでは総合類似度として検索対象の画像と問合せ画像A,BおよびCとの特徴量間の距離の合計を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。   Subsequently, the U / I unit 151 refers to the overall similarity obtained for each image to be searched by the matching engine 153, and for example, the images to be searched are displayed in the image display column 202 in FIG. (S404). The total similarity here means the similarity of each image to be searched with respect to all of the query images A, B, and C. Therefore, an AND search of the images is executed. However, since the total distance between the feature amounts of the image to be searched and the query images A, B, and C is used as the total similarity here, the search target is actually in ascending order of the value of the total similarity. An image is displayed in the image display field 202. That is, the total similarity has a value of 0 or more, and when the total similarity is 0, it means that the feature amount of each query image and the feature amount of the search target image are equal.

そして、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。   As a result of referring to the image of the search result displayed in the image display column 202, if a narrow search is to be performed, the image displayed in the image display column 202 is designated as an inquiry image and the same search process is performed. You can also.

このように、実施の形態4に係る画像検索装置によれば、問合せ画像を複数指定し、検索対象の画像毎に、指定された各問合せ画像との類似度を求めると共に、求めた各問合せ画像との類似度を合計して総合類似度を求め、検索対象の画像毎に求めた総合類似度に基づいて検索結果を出力することにより、AND検索を行うことが可能となるため、ユーザの意図を検索条件として正確に表現するための一つの手法を提供することができる。   As described above, according to the image search device according to the fourth embodiment, a plurality of query images are specified, and for each search target image, the similarity with each specified query image is obtained, and each obtained query image is obtained. Since the total similarity is obtained by summing the similarities and the search result is output based on the overall similarity obtained for each image to be searched, an AND search can be performed. Can be provided as a search condition.

なお、実施の形態4の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。また、特徴量の種類を特に示さなかったが、色,構造およびテクスチャ等、いかなる種類の特徴量であっても単独でまたは複数組み合わせて用いることができる。   In the description of the fourth embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. Further, although the type of feature quantity is not particularly shown, any type of feature quantity such as color, structure, texture, etc. can be used alone or in combination.

〔実施の形態5〕
実施の形態5に係る画像検索装置は、実施の形態4の画像検索装置において、検索に対するユーザの意図をさらに正確に表現できるようにしたものである。
[Embodiment 5]
The image search device according to the fifth embodiment is the image search device according to the fourth embodiment, in which the user's intention for the search can be expressed more accurately.

図13は、実施の形態5に係る画像検索装置において用いられる検索ウインドウ200eを示す説明図である。図13に示す検索ウインドウ200eは、図11に示した検索ウインドウ200dに加えて、画像指定欄A,BおよびCに指定された各問合せ画像毎に相対的な重要度を指定する重要度指定バー207を備えている。   FIG. 13 is an explanatory diagram showing a search window 200e used in the image search device according to the fifth embodiment. In addition to the search window 200d shown in FIG. 11, the search window 200e shown in FIG. 13 is an importance designation bar for designating relative importance for each inquiry image designated in the image designation fields A, B and C. 207.

この重要度指定バー207は、実施の形態3で説明したように、各問合せ画像毎に「0」を中心にして「+」の重要度および「−」の重要度を指定することを可能にするものである。したがって、ユーザが重要と考える問合せ画像に対して「+」の重要度を指定し、このような画像に類似する画像は検索結果として欲しくないと考える場合は該当する問合せ画像に対して「−」の重要度を指定することができる。指定した重要度は、求めた類似度に対する重み付けとして検索結果に反映される。なお、重要度として「+」方向および「−」方向の両方ではなく、「+」方向のみ、または「−」方向のみを指定できるようにしても良い。   As described in the third embodiment, the importance designation bar 207 can designate the importance of “+” and the importance of “−” with “0” as the center for each inquiry image. To do. Therefore, when an importance level of “+” is designated for an inquiry image that the user considers important, and when an image similar to such an image is not desired as a search result, “−” is obtained for the corresponding inquiry image. The importance of can be specified. The designated importance is reflected in the search result as a weight for the obtained similarity. Note that it is possible to designate not only both the “+” direction and the “−” direction but also the “+” direction or the “−” direction as the importance.

つぎに、実施の形態5に係る画像検索装置による画像検索処理について説明する。図14は、実施の形態5に係る検索処理を示すフローチャートである。ユーザは、図13に示した各画像指定欄に問合せ画像を複数指定すると共に、指定した各問合せ画像毎に必要に応じて重要度を指定し、さらにAND指定ボタン205を選択してAND条件による画像検索処理を指定する(S501)。図13に示したように、ユーザは、問合せ画像A,BおよびCを指定し、指定した各問合せ画像A,BおよびC毎に任意の重要度を指定したものとする。   Next, image search processing by the image search apparatus according to Embodiment 5 will be described. FIG. 14 is a flowchart showing search processing according to the fifth embodiment. The user designates a plurality of inquiry images in each image designation field shown in FIG. 13 and designates the importance as necessary for each designated inquiry image. Further, the user selects an AND designation button 205 and selects the AND condition. An image search process is designated (S501). As shown in FIG. 13, it is assumed that the user designates inquiry images A, B, and C, and designates an arbitrary importance degree for each designated inquiry image A, B, and C.

そして、ユーザが図13の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから所定の特徴量を抽出する処理を実行する(S502)。その後、特徴抽出エンジン152は、抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。   When the user designates the search button 201 in FIG. 13, the U / I unit 151 inputs the query images A, B, and C to the feature extraction engine 152, and the feature extraction engine 152 A process of extracting a predetermined feature amount from C is executed (S502). After that, the feature extraction engine 152 passes the extracted feature amount of each inquiry image to the matching engine 153 (maps to the feature space of FIG. 4).

マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、所定の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各問合せ画像A,BおよびCとの類似度を合計して検索対象の画像の総合類似度を求める処理を実行する(S503)。   The matching engine 153 obtains the similarity with each of the query images A, B, and C using a predetermined feature amount for each search target image registered in the image DB 108, and for each obtained similarity Weighting is performed in accordance with the importance, and the processing for obtaining the total similarity of the search target images by summing the similarities with the query images A, B, and C is executed (S503).

このステップS503における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、所定の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、所定の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、検索ウインドウ200eにおいて指定された問合せ画像Aの重要度に応じて重み付けを行う。マッチング・エンジン153は、同様に、検索対象の画像と問合せ画像Bとの距離を求め、求めた距離に対して問合せ画像Bの重要度に応じた重み付けを行うと共に、検索対象の画像と問合せ画像Cとの距離を求め、求めた距離に対して問合せ画像Cの重要度に応じた重み付けを行う。   The processing in step S503 will be specifically described taking one search target image as an example. The matching engine 153 obtains a similarity between the search target image and the query image A using a predetermined feature amount. That is, the matching engine 153 determines the distance between the search target image plotted in the feature amount space shown in FIG. 4 and the query image A based on a predetermined feature amount, for example, a vector distance definition formula such as a Euclidean distance. Find using. Subsequently, the matching engine 153 weights the obtained distance according to the importance of the query image A specified in the search window 200e. Similarly, the matching engine 153 obtains the distance between the image to be searched and the query image B, weights the obtained distance according to the importance of the query image B, and also searches the image to be searched and the query image. The distance to C is obtained, and the obtained distance is weighted according to the importance of the inquiry image C.

その後、マッチング・エンジン153は、検索対象の画像と各問合せ画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする。ここで、問合せ画像の数をM、k番目の問合せ画像をQk、検索対象の画像をIi、画像間の距離式をD()、k番目の画像の重要度をwkとすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。 Thereafter, the matching engine 153 sums the distances between the search target image and each of the query images A, B, and C, and sets the total value of the distances as the total similarity. Here, if the number of query images is M, the k-th query image is Q k , the search target image is I i , the distance formula between the images is D (), and the importance of the k-th image is w k , The total similarity S i for each image to be searched is expressed as follows.

Figure 0004674257
Figure 0004674257

マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。   In this way, the matching engine 153 obtains the total similarity for each image to be searched, and outputs the total similarity for each image to be searched to the U / I unit 151.

続いて、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図13の画像表示欄202に表示する(S504)。ここでは総合類似度として検索対象の画像と問合せ画像A,BおよびCとの特徴量間の距離の合計を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。   Subsequently, the U / I unit 151 refers to the overall similarity obtained for each image to be searched by the matching engine 153, and for example, the images to be searched are displayed in the image display column 202 in FIG. (S504). Since the total distance between the feature amounts of the image to be searched and the query images A, B, and C is used as the overall similarity here, the images to be searched are actually in ascending order of the value of the overall similarity. It will be displayed in the image display field 202. That is, the total similarity has a value of 0 or more, and when the total similarity is 0, it means that the feature amount of each query image and the feature amount of the search target image are equal.

なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。   As a result of referring to the image of the search result displayed in the image display column 202, if a narrowed search is desired, the image displayed in the image display column 202 is designated as an inquiry image and the same search process is performed. You can also.

このように、実施の形態5に係る画像検索装置によれば、求めた類似度に対し、問合せ画像の種類に応じて任意の重み付けを行うことができるように、各問合せ画像毎に重要度を指定することが可能であり、検索対象の画像毎に、各問合せ画像との類似度を求め、求めた各問合せ画像との類似度に対し、指定された重要度に応じた重み付けを行うことにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。   As described above, according to the image search device according to the fifth embodiment, the importance is set for each inquiry image so that the obtained similarity can be arbitrarily weighted according to the type of the inquiry image. By specifying the degree of similarity with each query image for each image to be searched and weighting the degree of similarity with each obtained query image according to the specified importance Since the user's intention can be accurately expressed as a search condition, it is possible to accurately convey the user's intention to the apparatus, and the importance is reflected as a weight for the similarity, so the user's intention is reflected. An image as a search result can be obtained.

なお、実施の形態5の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。また、特徴量の種類を特に示さなかったが、色,構造およびテクスチャ等、いかなる種類の特徴量であっても単独でまたは複数組み合わせて用いることができる。   In the description of the fifth embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. Further, although the type of feature quantity is not particularly shown, any type of feature quantity such as color, structure, texture, etc. can be used alone or in combination.

〔実施の形態6〕
実施の形態6に係る画像検索装置は、実施の形態4の画像検索装置において、検索に対するユーザの意図をさらに正確に表現できるようにしたものである。
[Embodiment 6]
The image search device according to the sixth embodiment is such that the user's intention for the search can be expressed more accurately in the image search device of the fourth embodiment.

図15は、実施の形態6に係る画像検索装置において用いられる検索ウインドウ200fを示す説明図である。図15に示す検索ウインドウ200fは、図11に示した検索ウインドウ200dに加えて、画像指定欄A,BおよびCに指定された各問合せ画像A,BおよびC毎に、検索に使用される特徴量の種類毎の重要度を指定する重要度指定バー208を備えている。なお、検索に使用される特徴量としては、一例として、色,構造およびテクスチャの3種類を用いるものとする。   FIG. 15 is an explanatory diagram showing a search window 200f used in the image search apparatus according to the sixth embodiment. The search window 200f shown in FIG. 15 is a feature used for the search for each of the inquiry images A, B, and C specified in the image specification fields A, B, and C in addition to the search window 200d shown in FIG. An importance level designation bar 208 for designating the importance level for each type of quantity is provided. Note that, as an example of the feature amount used for the search, three types of color, structure, and texture are used.

重要度指定バー208は、各種類の特徴量毎の重要度を各問合せ画像毎に指定することを可能とするものであって、実施の形態3の重要度指定バー204(図9参照)で説明したように「0」を中心にして「+」の重要度および「−」の重要度を指定することを可能にするものである。なお、重要度として「+」方向および「−」方向の両方ではなく、「+」方向のみ、または「−」方向のみを指定できるようにしても良い。   The importance level designation bar 208 enables designation of the importance level for each type of feature amount for each inquiry image. The importance level designation bar 204 (see FIG. 9) of the third embodiment is used. As described above, it is possible to designate the importance of “+” and the importance of “−” around “0”. Note that it is possible to designate not only both the “+” direction and the “−” direction but also the “+” direction or the “−” direction as the importance.

具体的に、この重要度の指定方法を図15の問合せ画像Aを例にとって説明する。例えば、問合せ画像Aにおける配色は検索結果として希望する画像に近いと考える場合、ユーザは色の重要度指定バー208を操作して「+」の重要度を指定する。一方、問合せ画像Aにおける構造は検索結果として希望する画像とはほとんど似ていないと考える場合、ユーザは構造の重要度指定バー208を操作して「−」の重要度を指定する。   Specifically, the importance designation method will be described with reference to the inquiry image A in FIG. For example, when it is considered that the color arrangement in the inquiry image A is close to the desired image as a search result, the user operates the color importance designation bar 208 to designate the importance of “+”. On the other hand, when the structure in the query image A is considered to be almost similar to the desired image as a search result, the user operates the structure importance designation bar 208 to designate the importance of “−”.

そして、後に説明する検索処理において、問合せ画像Aと検索対象の画像の類似度が色の特徴量,構造の特徴量およびテクスチャの特徴量毎に求められる。上記例においては、色の特徴量に「+」の重要度が、構造の特徴量に「−」の特徴量が指定されているため、色の特徴量を用いて求めた類似度に対して「+」の重要度に応じた「+」の重み付けが行われ、構造の特徴量を用いて求めた類似度に対して「−」の重要度に応じた「−」の重み付けが行われる。この処理は、検索対象の各画像との類似度に対して実行される。   In the search processing described later, the similarity between the query image A and the search target image is obtained for each color feature, structure feature, and texture feature. In the above example, the importance level of “+” is specified for the color feature amount, and the feature amount of “−” is specified for the structure feature amount. “+” Is weighted according to the importance of “+”, and “−” is weighted according to the importance of “−” with respect to the similarity obtained using the structural feature amount. This process is executed for the similarity to each image to be searched.

問合せ画像BおよびCについても、上述した特徴量毎の重要度を指定することにより、問合せ画像Aのような処理が実行されることになる。   As for the query images B and C, the process like the query image A is executed by designating the importance for each feature amount described above.

このように、各種類の特徴量毎の重要度を各問合せ画像毎に指定することにより、検索に対するユーザの意図を確実に装置側に伝えることが可能となる。そして、検索処理によって、重要度は各種類の特徴量毎に求めた類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。なお、必ず重要度を指定しなければならないわけではなく、ユーザが希望する場合に、希望する問合せ画像の任意の特徴量に対して指定すれば良い。   In this way, by specifying the importance for each type of feature amount for each inquiry image, it is possible to reliably convey the user's intention for the search to the apparatus side. Then, since the importance is reflected as a weighting on the similarity obtained for each type of feature amount by the search process, it is possible to obtain an image of a search result reflecting the user's intention. Note that it is not always necessary to specify the importance level. If the user desires, the importance level may be specified for an arbitrary feature amount of the desired query image.

つぎに、実施の形態6に係る画像検索装置による画像検索処理について説明する。図16は、実施の形態6に係る検索処理を示すフローチャートである。ユーザは、図15に示した各画像指定欄に問合せ画像を複数指定すると共に、指定した各問合せ画像毎に特徴量の種類毎の重要度を指定し、さらにAND指定ボタン205を選択してAND条件による画像検索処理を指定する(S601)。図15に示したように、ユーザは、問合せ画像A,BおよびCを指定し、各種類の特徴量毎の重要度を各問合せ画像A,BおよびC毎に指定したものとする。   Next, image search processing by the image search apparatus according to Embodiment 6 will be described. FIG. 16 is a flowchart showing search processing according to the sixth embodiment. The user designates a plurality of inquiry images in each image designation field shown in FIG. 15, designates the importance for each type of feature amount for each designated inquiry image, and further selects an AND designation button 205 to select AND. An image search process according to a condition is designated (S601). As shown in FIG. 15, it is assumed that the user designates inquiry images A, B, and C, and designates the importance for each type of feature amount for each inquiry image A, B, and C.

そして、ユーザが図15の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから色,構造およびテクスチャの3種類の特徴量を抽出する処理を実行する(S602)。その後、特徴抽出エンジン152は、3種類の特徴量毎に抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。   Then, when the user designates the search button 201 in FIG. 15, the U / I unit 151 inputs the query images A, B, and C to the feature extraction engine 152. Processing for extracting three types of feature values of color, structure, and texture from C is executed (S602). Thereafter, the feature extraction engine 152 passes the feature amounts of each inquiry image extracted for each of the three types of feature amounts to the matching engine 153 (each mapped to the feature space of FIG. 4).

続いて、マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、3種類の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各問合せ画像A,BおよびCとの類似度を合計して検索対象の画像の総合類似度を求める処理を実行する(S603)。   Subsequently, the matching engine 153 obtains similarities between the query images A, B, and C using the three types of feature amounts for each search target image registered in the image DB 108, and obtains each similarity obtained. The degree of importance is weighted according to the degree of importance, and the degree of similarity between each of the query images A, B, and C is summed up to obtain the total degree of similarity of the search target images (S603).

このステップS603における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、色の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、検索ウインドウ200fにおいて問合せ画像Aに対して指定された色の特徴量の重要度に応じて重み付けを行う。さらに、マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、構造の特徴量およびテクスチャの特徴量を用いた距離をそれぞれ求め、求めた各距離に対し、検索ウインドウ200fで問合せ画像Aに対して指定された構造の特徴量の重要度およびテクスチャの特徴量の重要度に応じて重み付けを行う。   The processing in step S603 will be specifically described taking one search target image as an example. The matching engine 153 obtains the similarity between the search target image and the query image A using the color feature amount. That is, the matching engine 153 determines the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. Find using. Subsequently, the matching engine 153 weights the obtained distance according to the importance of the color feature amount designated for the inquiry image A in the search window 200f. Further, the matching engine 153 obtains the distance using the structural feature amount and the texture feature amount for the image to be searched and the query image A, and the search window 200f for the obtained distance to the query image A. On the other hand, weighting is performed in accordance with the importance of the feature quantity of the designated structure and the importance of the feature quantity of the texture.

マッチング・エンジン153は、同様に、検索対象の画像と問合せ画像Bとの距離を3種類の特徴量毎に求め、求めた各距離に対し、問合せ画像Bに対して指定された各特徴量毎の重要度に応じた重み付けを行う。また、検索対象の画像と問合せ画像Cとの距離を3種類の特徴量毎に求め、求めた各距離に対し、問合せ画像Cに対して指定された各特徴量毎の重要度に応じた重み付けを行う。   Similarly, the matching engine 153 obtains the distance between the image to be searched and the query image B for each of the three types of feature amounts, and for each feature amount designated for the query image B for each of the obtained distances. Weighting is performed according to the importance of. Further, the distance between the image to be searched and the inquiry image C is obtained for each of the three types of feature amounts, and the obtained distances are weighted according to the importance for each feature amount designated for the inquiry image C. I do.

その後、マッチング・エンジン153は、3種類の特徴量毎に求めた検索対象の画像と各問合せ画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする。ここで、特徴量の数をN、問合せ画像の数をM、k番目の問合せ画像をQk、検索対象の画像をIi、特徴量jの画像間の距離式をDj()、k番目の画像の特徴量jの重要度をwjkとすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。 Thereafter, the matching engine 153 sums the distances between the search target images obtained for each of the three types of feature quantities and the query images A, B, and C, and sets the total distance as the total similarity. Here, the number of feature amounts is N, the number of query images is M, the k-th query image is Q k , the search target image is I i , and the distance formula between images of the feature amount j is D j (), k. When the importance of the feature quantity j of the second image is w jk , the total similarity S i for each image to be searched is expressed as follows.

Figure 0004674257
Figure 0004674257

マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。   In this way, the matching engine 153 obtains the total similarity for each image to be searched, and outputs the total similarity for each image to be searched to the U / I unit 151.

U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図15の画像表示欄202に表示する(S604)。ここでは総合類似度として検索対象の画像と問合せ画像A,BおよびCとの特徴量間の距離の合計を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。   The U / I unit 151 refers to the total similarity obtained for each search target image by the matching engine 153, and displays the search target images in the image display column 202 in FIG. (S604). Since the total distance between the feature amounts of the image to be searched and the query images A, B, and C is used as the overall similarity here, the images to be searched are actually in ascending order of the value of the overall similarity. It will be displayed in the image display field 202. That is, the total similarity has a value of 0 or more, and when the total similarity is 0, it means that the feature amount of each query image and the feature amount of the search target image are equal.

なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。   As a result of referring to the image of the search result displayed in the image display column 202, if a narrowed search is desired, the image displayed in the image display column 202 is designated as an inquiry image and the same search process is performed. You can also.

このように、実施の形態6に係る画像検索装置によれば、複数種類の特徴量を用いて問合せ画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、問合せ画像および特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎の重要度を各問合せ画像毎に指定することが可能であり、検索対象の画像それぞれについて、各種類の特徴量毎に各問合せ画像との類似度を求め、各種類の特徴量毎に求めた各問合せ画像との類似度に対し、指定された重要度に応じた重み付けを行うことにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。   As described above, according to the image search device according to the sixth embodiment, when the similarity between the query image and the search target image is determined using a plurality of types of feature amounts, the query image and Importance for each feature type can be specified for each query image so that arbitrary weighting can be performed according to the type of feature amount. By calculating the similarity with each query image for each feature amount, and weighting the similarity with each query image determined for each type of feature amount according to the specified importance, Since the intention can be accurately expressed as a search condition, it is possible to accurately convey the user's intention to the apparatus, and the importance is reflected as a weight for the similarity, so that the search result reflecting the user's intention is reflected. Images can be obtained of.

なお、実施の形態6の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。また、特徴量の種類は、色,構造およびテクスチャの3種類に限定されるものではなく、いかなる種類の特徴量の組み合わせであっても良い。   In the description of the sixth embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. Also, the types of feature values are not limited to the three types of color, structure, and texture, and any kind of combination of feature values may be used.

〔実施の形態7〕
実施の形態7に係る画像検索装置は、実施の形態4の画像検索装置において、検索に対するユーザの意図を装置側が汲み取ることができるようにしたものである。
[Embodiment 7]
The image search device according to the seventh embodiment is the image search device according to the fourth embodiment, in which the device side can capture the user's intention for the search.

前述した実施の形態5および6においては、ユーザが問合せ画像の重要度または問合せ画像毎に各特徴量の重要度を指定する必要があったが、実施の形態7に係る画像検索装置においては、画像検索に使用する特徴量を用いてユーザによって指定された問合せ画像間の類似度を求め、求めた特徴量毎の類似度に基づいて各問合せ画像間における特徴量毎の重要度を装置側で決定し、類似度に対する重み付けとして反映するという点が特徴となる。ここでは、例として、色,構造およびテクスチャの3種類の特徴量を用いて検索処理を行うものとし、検索条件を指定するための検索ウインドウは図11に示した検索ウインドウ200dと同一であるものとする。   In Embodiments 5 and 6 described above, the user needs to specify the importance of the query image or the importance of each feature amount for each query image. In the image search apparatus according to Embodiment 7, The similarity between the query images specified by the user is obtained using the feature amount used for the image search, and the importance for each feature amount between the query images is calculated on the device side based on the obtained similarity for each feature amount. This is characterized in that it is determined and reflected as a weight for similarity. Here, as an example, it is assumed that search processing is performed using three types of feature quantities of color, structure, and texture, and the search window for specifying search conditions is the same as the search window 200d shown in FIG. And

つぎに、実施の形態7に係る画像検索装置による画像検索処理について説明する。図17は、実施の形態7に係る検索処理を示すフローチャートである。ユーザは、図11に示した検索ウインドウ200dを表示させ、各画像指定欄に問合せ画像を複数指定すると共に、AND指定ボタン205を選択してAND条件による画像検索処理を指定する(S701)。ユーザは、問合せ画像A,BおよびCを指定したものとする。   Next, image search processing by the image search apparatus according to Embodiment 7 will be described. FIG. 17 is a flowchart showing search processing according to the seventh embodiment. The user displays the search window 200d shown in FIG. 11, designates a plurality of inquiry images in each image designation field, and selects an AND designation button 205 to designate an image search process based on an AND condition (S701). It is assumed that the user designates inquiry images A, B, and C.

そして、ユーザが図11の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから色,構造およびテクスチャの3種類の特徴量を抽出する処理を実行する(S702)。   When the user designates the search button 201 in FIG. 11, the U / I unit 151 inputs the query images A, B, and C to the feature extraction engine 152, and the feature extraction engine 152 Processing for extracting three types of feature values of color, structure, and texture from C is executed (S702).

続いて、特徴抽出エンジン152は、抽出した3種類の特徴量毎に、各問合せ画像A,BおよびC同士の距離(類似度)を求め、求めた各特徴量毎の距離に基づいて各問合せ画像A,BおよびC間における特徴量毎の重要度を決定する(S703)。   Subsequently, the feature extraction engine 152 obtains the distance (similarity) between the query images A, B, and C for each of the extracted three types of feature amounts, and performs each query based on the obtained distance for each feature amount. The importance for each feature amount between the images A, B and C is determined (S703).

具体的に、特徴抽出エンジン152は、3種類の特徴量毎に、問合せ画像同士の特徴間距離を求める。各特徴量毎に求めた距離の分散が大きい場合にはその特徴量についてはユーザは関知していないことを意味し、分散が小さい場合にはユーザはその特徴量を重視していると判断できる。したがって、分散が大きい特徴量の場合には重要度を小さくし、分散が小さい場合には重要度を大きくするように設定する。   Specifically, the feature extraction engine 152 obtains the inter-feature distance between the query images for each of the three types of feature amounts. If the variance of the distance obtained for each feature quantity is large, it means that the user is not aware of the feature quantity, and if the variance is small, it can be judged that the user attaches importance to the feature quantity. . Therefore, the importance is set to be small when the feature amount is large and the importance is set to be large when the variance is small.

例えば、σ2を特徴iにおける全ての問合せ画像間の距離の分散とするとi番目の特徴量の重要度wkは以下の式で決定することができる。kはwkが適正な値に収まるようにするための任意の係数である。 For example, if σ 2 is the variance of the distance between all the query images in the feature i, the importance w k of the i-th feature amount can be determined by the following equation. k is an arbitrary coefficient for making w k fall within an appropriate value.

Figure 0004674257
Figure 0004674257

なお、距離の分散の程度に応じて、前述した実施の形態3,5および6で説明したように、「+」の重要度や「−」の重要度を設定することも可能である。   Note that, as described in the third, fifth, and sixth embodiments, the importance level of “+” and the importance level of “−” can be set according to the degree of dispersion of the distance.

その後、特徴抽出エンジン152は、3種類の特徴量毎に抽出した各問合せ画像の特徴量および対応する重要度をマッチング・エンジン153に渡す。   Thereafter, the feature extraction engine 152 passes the feature amount of each inquiry image extracted for each of the three types of feature amounts and the corresponding importance to the matching engine 153.

マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、3種類の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各問合せ画像A,BおよびCとの類似度を合計して検索対象の画像の総合類似度を求める処理を実行する(S704)。   The matching engine 153 obtains the similarity to each of the query images A, B, and C using three types of feature amounts for each search target image registered in the image DB 108, and for each obtained similarity Then, weighting is performed in accordance with the importance, and the similarity with each of the query images A, B, and C is summed to execute processing for obtaining the total similarity of the search target images (S704).

このステップS704における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて色の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、特徴抽出エンジン152で色の特徴量について決定した重要度に応じて重み付けを行う。さらに、マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、構造の特徴量およびテクスチャの特徴量を用いた距離をそれぞれ求め、求めた各距離に対し、特徴抽出エンジン152で決定した構造の特徴量の重要度およびテクスチャの特徴量の重要度に応じて重み付けを行う。   The processing in step S704 will be specifically described by taking one image to be searched as an example. The matching engine 153 obtains the similarity between the search target image and the query image A using the color feature amount. That is, the matching engine 153 determines the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. Find using. Subsequently, the matching engine 153 performs weighting on the obtained distance according to the importance determined by the feature extraction engine 152 for the color feature amount. Further, the matching engine 153 obtains the distance using the structural feature amount and the texture feature amount for the search target image and the query image A, and the structure determined by the feature extraction engine 152 for each obtained distance. The weighting is performed according to the importance of the feature quantity and the importance of the texture feature quantity.

マッチング・エンジン153は、同様に、検索対象の画像と問合せ画像Bとの距離を3種類の特徴量毎に求め、求めた各距離に対し、各種類の特徴量毎に決定された重要度に応じた重み付けを行う。また、検索対象の画像と問合せ画像Cとの距離を3種類の特徴量毎に求め、求めた各距離に対し、各種類の特徴量毎に決定された重要度に応じた重み付けを行う。   Similarly, the matching engine 153 obtains the distance between the image to be searched and the inquiry image B for each of the three types of feature amounts, and sets the importance determined for each type of feature amount for each of the obtained distances. Perform the corresponding weighting. Further, the distance between the image to be searched and the inquiry image C is determined for each of the three types of feature amounts, and the determined distances are weighted according to the importance determined for each type of feature amount.

その後、マッチング・エンジン153は、3種類の特徴量毎に求めた検索対象の画像と各問合せ画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする。マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。   Thereafter, the matching engine 153 sums the distances between the search target images obtained for each of the three types of feature quantities and the query images A, B, and C, and sets the total distance as the total similarity. In this way, the matching engine 153 obtains the total similarity for each image to be searched, and outputs the total similarity for each image to be searched to the U / I unit 151.

続いて、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図11の画像表示欄202に表示する(S705)。ここでは総合類似度として検索対象の画像と問合せ画像A,BおよびCとの特徴量間の距離の合計を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。   Subsequently, the U / I unit 151 refers to the overall similarity obtained for each image to be searched by the matching engine 153, and for example, the images to be searched are displayed in the image display column 202 in FIG. (S705). Since the total distance between the feature amounts of the image to be searched and the query images A, B, and C is used as the overall similarity here, the images to be searched are actually in ascending order of the value of the overall similarity. It will be displayed in the image display field 202. That is, the total similarity has a value of 0 or more, and when the total similarity is 0, it means that the feature amount of each query image and the feature amount of the search target image are equal.

なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。   As a result of referring to the image of the search result displayed in the image display column 202, if a narrowed search is desired, the image displayed in the image display column 202 is designated as an inquiry image and the same search process is performed. You can also.

このように、実施の形態7に係る画像検索装置によれば、複数種類の特徴量を用いて問合せ画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎に各問合せ画像間の類似度を求め、求めた各種類の特徴量毎の類似度に基づいて各問合せ画像間における各種類の特徴量毎の重要度を決定し、検索対象の画像それぞれについて、各種類の特徴量毎に各問合せ画像との類似度を求め、各種類の特徴量毎に求めた各問合せ画像との類似度に対し、決定した各種類の特徴量毎の重要度に応じた重み付けを行うことにより、装置側でユーザが指定した問合せ画像間における各種類の特徴量の重要度を判断し、判断した重要度を画像間の類似度に反映させるため、ユーザの意図に合った検索結果を返すことが可能となる。したがって、ユーザが望む通りの検索処理を実現することができ、ユーザが望む検索結果を得ることができる。   As described above, according to the image search device according to the seventh embodiment, when the similarity between the query image and the search target image is obtained using a plurality of types of feature amounts, the feature amount is compared with the obtained similarity. The degree of similarity between each query image is calculated for each type of feature quantity so that arbitrary weighting can be performed according to the type, and between each query image based on the obtained degree of similarity for each type of feature quantity The degree of importance for each type of feature quantity is determined, and for each search target image, the similarity to each query image is obtained for each type of feature quantity, and each query image obtained for each type of feature quantity is obtained. By determining the importance of each type of feature amount between the query images specified by the user on the device side, by weighting the degree of similarity with the degree of importance for each type of feature amount determined, Reflect the importance of the judgment in the similarity between images Thereby Therefore, it is possible to return search results that match the user's intention. Therefore, the search process as desired by the user can be realized, and the search result desired by the user can be obtained.

なお、実施の形態7の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。また、特徴量の種類は、色,構造およびテクスチャの3種類に限定されるものではなく、いかなる種類の特徴量の組み合わせであっても良い。   In the description of the seventh embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. Also, the types of feature values are not limited to the three types of color, structure, and texture, and any kind of combination of feature values may be used.

〔実施の形態8〕
実施の形態8に係る画像検索装置は、ユーザの意図を検索条件として正確に表現するための一つの手法として、OR検索を実行可能にするものである。実施の形態8に係る画像検索装置による画像検索処理は、実施の形態4で説明に用いた図11の検索ウインドウ200dにおいて、AND指定ボタン205ではなく、OR指定ボタン206が指定された場合に実行される。
[Embodiment 8]
The image search device according to the eighth embodiment enables an OR search to be executed as one technique for accurately expressing the user's intention as a search condition. The image search process by the image search apparatus according to the eighth embodiment is executed when the OR specification button 206 is specified instead of the AND specification button 205 in the search window 200d of FIG. 11 used in the description of the fourth embodiment. Is done.

図18は、実施の形態8に係る画像検索処理を示すフローチャートである。ユーザは、図11に示した各画像指定欄に問合せ画像を複数指定し、OR指定ボタン206を選択してOR条件による画像検索処理を指定する(S801)。ユーザは、図11に示すように3枚の問合せ画像A,BおよびCを指定したものとする。   FIG. 18 is a flowchart illustrating image search processing according to the eighth embodiment. The user designates a plurality of inquiry images in each image designation field shown in FIG. 11, selects the OR designation button 206, and designates an image search process based on the OR condition (S801). Assume that the user designates three inquiry images A, B, and C as shown in FIG.

そして、ユーザが図11の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから所定の特徴量を抽出する処理を実行する(S802)。その後、特徴抽出エンジン152は、抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。   When the user designates the search button 201 in FIG. 11, the U / I unit 151 inputs the query images A, B, and C to the feature extraction engine 152, and the feature extraction engine 152 A process of extracting a predetermined feature amount from C is executed (S802). After that, the feature extraction engine 152 passes the extracted feature amount of each inquiry image to the matching engine 153 (maps to the feature space of FIG. 4).

マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、所定の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求めると共に、求めた各問合せ画像A,BおよびCとの類似度の中から最も高い類似性を示す類似度を選択して検索対象の画像の総合類似度を求める処理を実行する(S803)。   The matching engine 153 obtains a similarity to each of the query images A, B, and C using a predetermined feature amount for each search target image registered in the image DB 108, and obtains each query image A, A process of selecting the similarity indicating the highest similarity from the similarities to B and C and executing the process of obtaining the total similarity of the search target images is executed (S803).

このステップS803における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、所定の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、所定の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。マッチング・エンジン153は、同様に、所定の特徴量に基づいて検索対象の画像と問合せ画像Bとの距離を求めると共に、検索対象の画像と問合せ画像Cとの距離を求める。   The processing in step S803 will be specifically described taking one search target image as an example. The matching engine 153 obtains a similarity between the search target image and the query image A using a predetermined feature amount. That is, the matching engine 153 determines the distance between the search target image plotted in the feature amount space shown in FIG. 4 and the query image A based on a predetermined feature amount, for example, a vector distance definition formula such as a Euclidean distance. Find using. Similarly, the matching engine 153 obtains the distance between the image to be searched and the inquiry image B based on a predetermined feature amount, and obtains the distance between the image to be searched and the inquiry image C.

その後、マッチング・エンジン153は、検索対象の画像と各問合せ画像A,BおよびCとの距離の中から最も短い距離を選択して総合類似度とする。換言すれば、マッチング・エンジン153は、検索対象の画像と各問合せ画像A,BおよびCとの類似度の中から最も高い類似性を示す類似度を選択する。ここで、問合せ画像の数をM、k番目の問合せ画像をQk、検索対象の画像をIi、画像間の距離式をD()とすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。 Thereafter, the matching engine 153 selects the shortest distance from the distances between the search target image and each of the query images A, B, and C to obtain the overall similarity. In other words, the matching engine 153 selects the similarity indicating the highest similarity from the similarities between the search target image and each of the query images A, B, and C. Here, if the number of query images is M, the k-th query image is Q k , the search target image is I i , and the distance formula between the images is D (), the total similarity S for each search target image is S. i is expressed as follows.

Figure 0004674257
Figure 0004674257

マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。   In this way, the matching engine 153 obtains the total similarity for each image to be searched, and outputs the total similarity for each image to be searched to the U / I unit 151.

なお、複数種類の特徴量を用いて検索を行う場合は、各種類の特徴量毎に検索対象の画像および各問合せ画像の類似度(距離)を求め、検索対象の画像毎に、各種類の特徴量毎に求めた各問合せ画像との類似度の中から最も高い類似性を示す類似度(最も短い距離)を選択して総合類似度とすれば良い。   When searching using a plurality of types of feature amounts, the similarity (distance) between the search target image and each query image is obtained for each type of feature amount, and each type of feature amount is determined for each search target image. What is necessary is just to select the similarity (shortest distance) which shows the highest similarity from the similarity with each inquiry image calculated | required for every feature-value, and let it be a total similarity.

続いて、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図11の画像表示欄202に表示する(S804)。ここでは総合類似度として検索対象の画像と問合せ画像A,BおよびCのいずれか一つとの特徴量間の距離を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときはいずれか一つの問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。   Subsequently, the U / I unit 151 refers to the overall similarity obtained for each image to be searched by the matching engine 153, and for example, the images to be searched are displayed in the image display column 202 in FIG. (S804). Here, since the distance between the feature amounts of the image to be searched and any one of the query images A, B, and C is used as the total similarity, in practice, the search target is in ascending order of the value of the total similarity. An image is displayed in the image display field 202. That is, the overall similarity has a value of 0 or more, and when the overall similarity is 0, it means that the feature amount of any one of the query images and the feature amount of the search target image are equal.

なお、実施の形態8においては、検索対象の画像が問合せ画像A,BおよびCのいずれか一つと類似していれば、高い類似性を示す総合類似度が得られる。したがって、OR検索が実現されることになる。   In the eighth embodiment, if the search target image is similar to any one of the query images A, B, and C, an overall similarity indicating high similarity is obtained. Therefore, OR search is realized.

また、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。   As a result of referring to the image of the search result displayed in the image display field 202, if it is desired to perform a narrowed search, the image displayed in the image display field 202 is designated as an inquiry image and the same search process is performed. You can also.

このように、実施の形態8に係る画像検索装置によれば、問合せ画像を複数指定し、検索対象の画像毎に、指定された各問合せ画像との類似度を求めると共に、求めた各問合せ画像との類似度の中から最も高い類似性を示す類似度を選択し、選択した類似度に基づいて検索結果を出力することにより、OR検索を行うことが可能となるため、ユーザの意図を検索条件として正確に表現するための一つの手法を提供することができる。   Thus, according to the image search device according to the eighth embodiment, a plurality of query images are specified, and for each search target image, the degree of similarity with each specified query image is obtained, and each obtained query image is obtained. By selecting the similarity that shows the highest similarity from among the similarities and outputting the search result based on the selected similarity, it is possible to perform an OR search, so the user's intention is searched It is possible to provide one method for accurately expressing as a condition.

なお、実施の形態8の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。また、特徴量の種類を特に示さなかったが、色,構造およびテクスチャ等、いかなる種類の特徴量であっても単独でまたは複数組み合わせて用いることができる。   In the description of the eighth embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. Further, although the type of feature quantity is not particularly shown, any type of feature quantity such as color, structure, texture, etc. can be used alone or in combination.

〔実施の形態9〕
実施の形態9に係る画像検索装置は、実施の形態8の画像検索装置において、検索に対するユーザの意図をさらに正確に表現できるようにしたものである。実施の形態9に係る画像検索装置による画像検索処理は、実施の形態5で説明に用いた図13の検索ウインドウ200eにおいて、AND指定ボタン205ではなく、OR指定ボタン206が指定された場合に実行される。
[Embodiment 9]
The image search device according to the ninth embodiment is such that the user's intention for the search can be expressed more accurately in the image search device of the eighth embodiment. The image search process by the image search apparatus according to the ninth embodiment is executed when the OR specification button 206 is specified instead of the AND specification button 205 in the search window 200e of FIG. 13 used for the description of the fifth embodiment. Is done.

図19は、実施の形態9に係る画像検索処理を示すフローチャートである。ユーザは、図13に示した各画像指定欄に問合せ画像を複数指定すると共に、指定した各問合せ画像毎に必要に応じて重要度を指定し、さらにOR指定ボタン206を選択してOR条件による画像検索処理を指定する(S901)。ユーザは、図13に示したように問合せ画像A,BおよびCを指定し、指定した各問合せ画像A,BおよびC毎に任意の重要度を指定したものとする。   FIG. 19 is a flowchart illustrating image search processing according to the ninth embodiment. The user designates a plurality of inquiry images in each image designation field shown in FIG. 13 and designates the importance as necessary for each designated inquiry image. Further, the user selects an OR designation button 206 according to the OR condition. An image search process is designated (S901). Assume that the user designates inquiry images A, B, and C as shown in FIG. 13, and designates an arbitrary importance degree for each designated inquiry image A, B, and C.

そして、ユーザが図13の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから所定の特徴量を抽出する処理を実行する(S902)。その後、特徴抽出エンジン152は、抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。   When the user designates the search button 201 in FIG. 13, the U / I unit 151 inputs the query images A, B, and C to the feature extraction engine 152, and the feature extraction engine 152 A process of extracting a predetermined feature amount from C is executed (S902). After that, the feature extraction engine 152 passes the extracted feature amount of each inquiry image to the matching engine 153 (maps to the feature space of FIG. 4).

マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、所定の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各問合せ画像A,BおよびCとの類似度の中から最も高い類似性を示す類似度を選択して検索対象の画像の総合類似度を求める処理を実行する(S903)。   The matching engine 153 obtains the similarity with each of the query images A, B, and C using a predetermined feature amount for each search target image registered in the image DB 108, and for each obtained similarity Weighting is performed in accordance with the importance, and the processing for obtaining the overall similarity of the search target images by selecting the similarity indicating the highest similarity from the similarities to the query images A, B, and C is executed. (S903).

このステップS903における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、所定の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、所定の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、検索ウインドウ200eで指定された問合せ画像Aの重要度に応じて重み付けを行う。マッチング・エンジン153は、同様に、検索対象の画像と問合せ画像Bとの距離を求め、求めた距離に対して問合せ画像Bの重要度に応じた重み付けを行うと共に、検索対象の画像と問合せ画像Cとの距離を求め、求めた距離に対して問合せ画像Cの重要度に応じた重み付けを行う。   The processing in step S903 will be specifically described taking one search target image as an example. The matching engine 153 obtains a similarity between the search target image and the query image A using a predetermined feature amount. That is, the matching engine 153 determines the distance between the search target image plotted in the feature amount space shown in FIG. 4 and the query image A based on a predetermined feature amount, for example, a vector distance definition formula such as a Euclidean distance. Find using. Subsequently, the matching engine 153 weights the obtained distance according to the importance of the inquiry image A specified in the search window 200e. Similarly, the matching engine 153 obtains the distance between the image to be searched and the query image B, weights the obtained distance according to the importance of the query image B, and also searches the image to be searched and the query image. The distance to C is obtained, and the obtained distance is weighted according to the importance of the inquiry image C.

その後、マッチング・エンジン153は、検索対象の画像と各問合せ画像A,BおよびCとの距離の中から最も短い距離を選択して総合類似度とする。ここで、問合せ画像の数をM、k番目の問合せ画像をQk、検索対象の画像をIi、画像間の距離式をD()、k番目の画像の重要度をwkとすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。 Thereafter, the matching engine 153 selects the shortest distance from the distances between the search target image and each of the query images A, B, and C to obtain the overall similarity. Here, if the number of query images is M, the k-th query image is Q k , the search target image is I i , the distance formula between the images is D (), and the importance of the k-th image is w k , The total similarity S i for each image to be searched is expressed as follows.

Figure 0004674257
Figure 0004674257

マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。   In this way, the matching engine 153 obtains the total similarity for each image to be searched, and outputs the total similarity for each image to be searched to the U / I unit 151.

続いて、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図13の画像表示欄202に表示する(S904)。ここでは総合類似度として検索対象の画像と問合せ画像A,BおよびCのいずれか一つとの特徴量間の距離を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときはいずれか一つの問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。   Subsequently, the U / I unit 151 refers to the overall similarity obtained for each image to be searched by the matching engine 153, and for example, the images to be searched are displayed in the image display column 202 in FIG. Is displayed (S904). Here, since the distance between the feature amounts of the image to be searched and any one of the query images A, B, and C is used as the total similarity, in practice, the search target is in ascending order of the value of the total similarity. An image is displayed in the image display field 202. That is, the overall similarity has a value of 0 or more, and when the overall similarity is 0, it means that the feature amount of any one of the query images and the feature amount of the search target image are equal.

なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。   As a result of referring to the image of the search result displayed in the image display column 202, if a narrowed search is desired, the image displayed in the image display column 202 is designated as an inquiry image and the same search process is performed. You can also.

このように、実施の形態9に係る画像検索装置によれば、求めた類似度に対し、問合せ画像の種類に応じて任意の重み付けを行うことができるように、各問合せ画像毎に重要度を指定することが可能であり、検索対象の画像毎に、各問合せ画像との類似度を求め、求めた各問合せ画像との類似度に対し、指定された重要度に応じた重み付けを行うことにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。   As described above, according to the image search device according to the ninth embodiment, the degree of importance is set for each inquiry image so that the obtained similarity can be arbitrarily weighted according to the type of inquiry image. By specifying the degree of similarity with each query image for each image to be searched and weighting the degree of similarity with each obtained query image according to the specified importance Since the user's intention can be accurately expressed as a search condition, it is possible to accurately convey the user's intention to the apparatus, and the importance is reflected as a weight for the similarity, so the user's intention is reflected. An image as a search result can be obtained.

なお、実施の形態9の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。また、特徴量の種類を特に示さなかったが、色,構造およびテクスチャ等、いかなる種類の特徴量であっても単独でまたは複数組み合わせて用いることができる。   In the description of the ninth embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. Further, although the type of feature quantity is not particularly shown, any type of feature quantity such as color, structure, texture, etc. can be used alone or in combination.

〔実施の形態10〕
実施の形態10に係る画像検索装置は、実施の形態8の画像検索装置において、検索に対するユーザの意図をさらに正確に表現できるようにしたものである。実施の形態10に係る画像検索装置による画像検索処理は、実施の形態6で説明に用いた図15の検索ウインドウ200fにおいて、AND指定ボタン205ではなく、OR指定ボタン206が指定された場合に実行される。
[Embodiment 10]
The image search apparatus according to the tenth embodiment is such that the user's intention for the search can be expressed more accurately in the image search apparatus of the eighth embodiment. The image search process by the image search apparatus according to the tenth embodiment is executed when the OR specification button 206 is specified instead of the AND specification button 205 in the search window 200f of FIG. 15 used in the description of the sixth embodiment. Is done.

図20は、実施の形態10に係る画像検索処理を示すフローチャートである。ユーザは、図15に示した各画像指定欄に問合せ画像を複数指定すると共に、指定した各問合せ画像に特徴量の種類毎の重要度を指定し、さらにOR指定ボタン206を選択してOR条件による画像検索処理を指定する(S1001)。ユーザは、図15に示したように問合せ画像A,BおよびCを指定し、各種類の特徴量毎の重要度を各問合せ画像A,BおよびC毎に指定したものとする。   FIG. 20 is a flowchart showing image search processing according to the tenth embodiment. The user designates a plurality of inquiry images in each image designation field shown in FIG. 15, designates the importance for each type of feature amount in each designated inquiry image, and further selects an OR designation button 206 to select an OR condition. The image search processing by is designated (S1001). Assume that the user designates query images A, B, and C as shown in FIG. 15, and designates the importance for each type of feature amount for each query image A, B, and C.

そして、ユーザが図15の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから色,構造およびテクスチャの3種類の特徴量を抽出する処理を実行する(S1002)。その後、特徴抽出エンジン152は、3種類の特徴量毎に抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。   Then, when the user designates the search button 201 in FIG. 15, the U / I unit 151 inputs the query images A, B, and C to the feature extraction engine 152. Processing for extracting three types of feature values of color, structure, and texture from C is executed (S1002). Thereafter, the feature extraction engine 152 passes the feature amounts of each inquiry image extracted for each of the three types of feature amounts to the matching engine 153 (each mapped to the feature space of FIG. 4).

マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、3種類の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各問合せ画像A,BおよびCとの類似度の中から最も高い類似性を示す類似度を選択して検索対象の画像の総合類似度を求める処理を実行する(S1003)。   The matching engine 153 obtains the similarity to each of the query images A, B, and C using three types of feature amounts for each search target image registered in the image DB 108, and for each obtained similarity Weighting according to importance, and selecting the similarity indicating the highest similarity from the similarities to the query images A, B, and C, and executing the process of obtaining the overall similarity of the search target images (S1003).

このステップS1003における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、色の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、検索ウインドウ200fにおいて問合せ画像Aに対して指定された色の特徴量の重要度に応じて重み付けを行う。さらに、マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、構造の特徴量およびテクスチャの特徴量を用いた距離をそれぞれ求め、求めた各距離に対し、検索ウインドウ200fで問合せ画像Aに対して指定された構造の特徴量の重要度およびテクスチャの特徴量の重要度に応じて重み付けを行う。   The processing in step S1003 will be specifically described taking one search target image as an example. The matching engine 153 obtains the similarity between the search target image and the query image A using the color feature amount. That is, the matching engine 153 determines the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. Find using. Subsequently, the matching engine 153 weights the obtained distance according to the importance of the color feature amount designated for the inquiry image A in the search window 200f. Further, the matching engine 153 obtains the distance using the structural feature amount and the texture feature amount for the image to be searched and the query image A, and the search window 200f for the obtained distance to the query image A. On the other hand, weighting is performed in accordance with the importance of the feature quantity of the designated structure and the importance of the feature quantity of the texture.

マッチング・エンジン153は、同様に、検索対象の画像と問合せ画像Bとの距離を3種類の特徴量毎に求め、求めた各距離に対し、問合せ画像Bに対して指定された各特徴量毎の重要度に応じた重み付けを行う。また、検索対象の画像と問合せ画像Cとの距離を3種類の特徴量毎に求め、求めた各距離に対し、問合せ画像Cに対して指定された各特徴量毎の重要度に応じた重み付けを行う。   Similarly, the matching engine 153 obtains the distance between the image to be searched and the query image B for each of the three types of feature amounts, and for each feature amount designated for the query image B for each of the obtained distances. Weighting is performed according to the importance of. Further, the distance between the image to be searched and the inquiry image C is obtained for each of the three types of feature amounts, and the obtained distances are weighted according to the importance for each feature amount designated for the inquiry image C. I do.

その後、マッチング・エンジン153は、3種類の特徴量毎に求めた検索対象の画像と各問合せ画像A,BおよびCとの距離の中から最も短い距離を選択して総合類似度とする。ここで、特徴量の数をN、問合せ画像の数をM、k番目の問合せ画像をQk、検索対象の画像をIi、特徴量jの画像間の距離式をDj()、k番目の画像の特徴量jの重要度をwjkとすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。 After that, the matching engine 153 selects the shortest distance from the distances between the search target images obtained for each of the three types of feature amounts and the query images A, B, and C to obtain the total similarity. Here, the number of feature amounts is N, the number of query images is M, the k-th query image is Q k , the search target image is I i , and the distance formula between images of the feature amount j is D j (), k. When the importance of the feature quantity j of the second image is w jk , the total similarity S i for each image to be searched is expressed as follows.

Figure 0004674257
Figure 0004674257

マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。   In this way, the matching engine 153 obtains the total similarity for each image to be searched, and outputs the total similarity for each image to be searched to the U / I unit 151.

続いて、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図15の画像表示欄202に表示する(S1004)。ここでは総合類似度として検索対象の画像と問合せ画像A,BおよびCのいずれか一つとの特徴量間の距離を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときはいずれか一つの問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。   Subsequently, the U / I unit 151 refers to the overall similarity obtained for each image to be searched by the matching engine 153, and for example, the images to be searched are displayed in the image display column 202 in FIG. (S1004). Here, since the distance between the feature amounts of the image to be searched and any one of the query images A, B, and C is used as the total similarity, in practice, the search target is in ascending order of the value of the total similarity. An image is displayed in the image display field 202. That is, the overall similarity has a value of 0 or more, and when the overall similarity is 0, it means that the feature amount of any one of the query images and the feature amount of the search target image are equal.

なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。   As a result of referring to the image of the search result displayed in the image display column 202, if a narrowed search is desired, the image displayed in the image display column 202 is designated as an inquiry image and the same search process is performed. You can also.

このように、実施の形態10に係る画像検索装置によれば、複数種類の特徴量を用いて問合せ画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、問合せ画像および特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎の重要度を各問合せ画像毎に指定することが可能であり、検索対象の画像それぞれについて、各種類の特徴量毎に各問合せ画像との類似度を求め、各種類の特徴量毎に求めた各問合せ画像との類似度に対し、指定された重要度に応じた重み付けを行うことにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。   As described above, according to the image search device according to the tenth embodiment, when the similarity between the query image and the search target image is determined using a plurality of types of feature amounts, the query image and Importance for each feature type can be specified for each query image so that arbitrary weighting can be performed according to the type of feature amount. By calculating the similarity with each query image for each feature amount, and weighting the similarity with each query image determined for each type of feature amount according to the specified importance, Since the intention can be accurately expressed as a search condition, it is possible to accurately convey the user's intention to the device, and the importance is reflected as a weight for the similarity, so that the search reflecting the user's intention is performed. It is possible to obtain an image of the fruit.

なお、実施の形態10の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。また、特徴量の種類は、色,構造およびテクスチャの3種類に限定されるものではなく、いかなる種類の特徴量の組み合わせであっても良い。   In the description of the tenth embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. Also, the types of feature values are not limited to the three types of color, structure, and texture, and any kind of combination of feature values may be used.

〔実施の形態11〕
実施の形態11に係る画像検索装置は、実施の形態8の画像検索装置において、検索に対するユーザの意図を装置側が汲み取ることができるようにしたものである。実施の形態11に係る画像検索装置による画像検索処理は、実施の形態8(実施の形態4)で説明に用いた図11の検索ウインドウ200dにおいて、AND指定ボタン205ではなく、OR指定ボタン206が指定された場合に実行される。
[Embodiment 11]
The image search device according to the eleventh embodiment is such that the device side can capture the user's intention for the search in the image search device of the eighth embodiment. The image search processing by the image search apparatus according to the eleventh embodiment is performed by using the OR specification button 206 instead of the AND specification button 205 in the search window 200d of FIG. 11 used for the description in the eighth embodiment (fourth embodiment). It is executed when specified.

図21は、実施の形態11に係る画像検索処理を示すフローチャートである。ユーザは、図11に示した各画像指定欄に問合せ画像を複数指定すると共に、OR指定ボタン206を選択してOR条件による画像検索処理を指定する(S1101)。ユーザは、図11に示したように問合せ画像A,BおよびCを指定したものとする。   FIG. 21 is a flowchart showing image search processing according to the eleventh embodiment. The user designates a plurality of inquiry images in each image designation column shown in FIG. 11, and selects the OR designation button 206 to designate image search processing based on the OR condition (S1101). Assume that the user designates inquiry images A, B, and C as shown in FIG.

その後、ユーザが図11の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから色,構造およびテクスチャの3種類の特徴量を抽出する処理を実行する(S1102)。   Thereafter, when the user designates the search button 201 in FIG. 11, the U / I unit 151 inputs the query images A, B, and C to the feature extraction engine 152, and the feature extraction engine 152 Processing for extracting three types of feature values of color, structure, and texture from C is executed (S1102).

続いて、特徴抽出エンジン152は、抽出した3種類の特徴量毎に、各問合せ画像A,BおよびC同士の距離(類似度)を求め、求めた各特徴量毎の距離に基づいて各問合せ画像A,BおよびC間における特徴量毎の重要度を決定する(S1103)。   Subsequently, the feature extraction engine 152 obtains the distance (similarity) between the query images A, B, and C for each of the extracted three types of feature amounts, and performs each query based on the obtained distance for each feature amount. The importance for each feature amount between the images A, B and C is determined (S1103).

具体的に、特徴抽出エンジン152は、3種類の特徴量毎に、ユーザが指定した複数の問合せ画像同士の特徴間距離を求める。各特徴量毎に求めた距離の分散が大きい場合にはその特徴量についてはユーザは関知していないことを意味し、分散が小さい場合にはユーザはその特徴量を重視していると判断できる。したがって、分散が大きい特徴量の場合には重要度を小さくし、分散が小さい場合には重要度を大きくするように設定する。例えば、各特徴量の重要度は、実施の形態7で示した数7を用いて決定することができる。   Specifically, the feature extraction engine 152 obtains a distance between features of a plurality of inquiry images designated by the user for each of the three types of feature amounts. If the variance of the distance obtained for each feature quantity is large, it means that the user is not aware of the feature quantity, and if the variance is small, it can be judged that the user attaches importance to the feature quantity. . Therefore, the importance is set to be small when the feature amount is large and the importance is set to be large when the variance is small. For example, the importance of each feature amount can be determined using Equation 7 shown in the seventh embodiment.

その後、特徴抽出エンジン152は、3種類の特徴量毎に抽出した各問合せ画像の特徴量および対応する重要度をマッチング・エンジン153に渡す。   Thereafter, the feature extraction engine 152 passes the feature amount of each inquiry image extracted for each of the three types of feature amounts and the corresponding importance to the matching engine 153.

マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、3種類の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各問合せ画像A,BおよびCとの類似度の中から最も高い類似性を示す類似度を選択して検索対象の画像の総合類似度を求める処理を実行する(S1104)。   The matching engine 153 obtains the similarity to each of the query images A, B, and C using three types of feature amounts for each search target image registered in the image DB 108, and for each obtained similarity Weighting according to importance, and selecting the similarity indicating the highest similarity from the similarities to the query images A, B, and C, and executing the process of obtaining the overall similarity of the search target images (S1104).

このステップS1104における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、色の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、特徴抽出エンジン152で色の特徴量について決定した重要度に応じて重み付けを行う。さらに、マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、構造の特徴量およびテクスチャの特徴量を用いた距離をそれぞれ求め、求めた各距離に対し、特徴抽出エンジン152で決定した構造の特徴量の重要度およびテクスチャの特徴量の重要度に応じて重み付けを行う。   The processing in step S1104 will be specifically described taking one search target image as an example. The matching engine 153 obtains the similarity between the search target image and the query image A using the color feature amount. That is, the matching engine 153 determines the distance between the image to be searched and the query image A plotted in the feature amount space shown in FIG. Find using. Subsequently, the matching engine 153 performs weighting on the obtained distance according to the importance determined by the feature extraction engine 152 for the color feature amount. Further, the matching engine 153 obtains the distance using the structural feature amount and the texture feature amount for the search target image and the query image A, and the structure determined by the feature extraction engine 152 for each obtained distance. The weighting is performed according to the importance of the feature quantity and the importance of the texture feature quantity.

マッチング・エンジン153は、同様に、検索対象の画像と問合せ画像Bとの距離を3種類の特徴量毎に求め、求めた各距離に対し、各種類の特徴量毎に決定された重要度に応じた重み付けを行う。また、検索対象の画像と問合せ画像Cとの距離を3種類の特徴量毎に求め、求めた各距離に対し、各種類の特徴量毎に決定された重要度に応じた重み付けを行う。   Similarly, the matching engine 153 obtains the distance between the image to be searched and the inquiry image B for each of the three types of feature amounts, and sets the importance determined for each type of feature amount for each of the obtained distances. Perform the corresponding weighting. Further, the distance between the image to be searched and the inquiry image C is determined for each of the three types of feature amounts, and the determined distances are weighted according to the importance determined for each type of feature amount.

その後、マッチング・エンジン153は、3種類の特徴量毎に求めた検索対象の画像と各問合せ画像A,BおよびCとの距離の中から最も短い距離を選択して総合類似度とする。マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。   After that, the matching engine 153 selects the shortest distance from the distances between the search target images obtained for each of the three types of feature amounts and the query images A, B, and C to obtain the total similarity. In this way, the matching engine 153 obtains the total similarity for each image to be searched, and outputs the total similarity for each image to be searched to the U / I unit 151.

U/I部151は、マッチング・エンジン153によって検索対象の画像毎の総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図11の画像表示欄202に表示する(S1105)。ここでは総合類似度として検索対象の画像と問合せ画像A,BおよびCのいずれか一つとの特徴量間の距離を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときはいずれか一つの問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。   The U / I unit 151 refers to the total similarity for each image to be searched by the matching engine 153, and displays, for example, the search target images in the image display column 202 in FIG. 11 in descending order of the total similarity (S1105). . Here, since the distance between the feature amounts of the image to be searched and any one of the query images A, B, and C is used as the total similarity, in practice, the search target is in ascending order of the value of the total similarity. An image is displayed in the image display field 202. That is, the overall similarity has a value of 0 or more, and when the overall similarity is 0, it means that the feature amount of any one of the query images and the feature amount of the search target image are equal.

なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。   As a result of referring to the image of the search result displayed in the image display column 202, if a narrowed search is desired, the image displayed in the image display column 202 is designated as an inquiry image and the same search process is performed. You can also.

このように、実施の形態11に係る画像検索装置によれば、複数種類の特徴量を用いて問合せ画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎に各問合せ画像間の類似度を求め、求めた各種類の特徴量毎の類似度に基づいて各問合せ画像間における各種類の特徴量毎の重要度を決定し、検索対象の画像それぞれについて、各種類の特徴量毎に各問合せ画像との類似度を求め、各種類の特徴量毎に求めた各問合せ画像との類似度に対し、決定した各種類の特徴量毎の重要度に応じた重み付けを行うことにより、装置側でユーザが指定した問合せ画像間における各種類の特徴量の重要度を判断し、判断した重要度を画像間の類似度に反映させるため、ユーザの意図に合った検索結果を返すことが可能となる。したがって、ユーザが望む通りの検索処理を実現することができ、ユーザが望む検索結果を得ることができる。   As described above, according to the image search device according to the eleventh embodiment, when the similarity between the query image and the search target image is obtained using a plurality of types of feature amounts, the feature amount is compared with the obtained similarity. The degree of similarity between each query image is calculated for each type of feature quantity so that arbitrary weighting can be performed according to the type, and between each query image based on the obtained degree of similarity for each type of feature quantity The degree of importance for each type of feature quantity is determined, and for each search target image, the similarity to each query image is obtained for each type of feature quantity, and each query image obtained for each type of feature quantity is obtained. By determining the importance of each type of feature amount between the query images specified by the user on the device side, by weighting the degree of similarity with the degree of importance for each type of feature amount determined, Determining the degree of importance against the similarity between images In order to, it is possible to return search results that match the user's intention. Therefore, the search process as desired by the user can be realized, and the search result desired by the user can be obtained.

なお、実施の形態11の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。また、特徴量の種類は、色,構造およびテクスチャの3種類に限定されるものではなく、いかなる種類の特徴量の組み合わせであっても良い。   In the description of the eleventh embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. Also, the types of feature values are not limited to the three types of color, structure, and texture, and any kind of combination of feature values may be used.

〔実施の形態12〕
実施の形態12に係る画像検索装置は、前述した実施の形態1〜11と異なる視点で画像検索を行うことを可能にするものである。なお、実施の形態12に係る画像検索装置において、実施の形態1で既に説明した構成については同一の符号を使用して詳細な説明を省略し、画像検索処理についても共通する点については適宜説明を省略する。
[Embodiment 12]
The image search apparatus according to the twelfth embodiment makes it possible to perform an image search from a viewpoint different from those of the first to eleventh embodiments. Note that in the image search device according to the twelfth embodiment, the same reference numerals are used for the configurations already described in the first embodiment, and detailed description thereof is omitted, and common points regarding the image search processing are also described as appropriate. Is omitted.

実施の形態12に係る画像検索装置は、検索時に使用する特徴量の粗さのレベル(視点の細かさ)をユーザが指定できるようにし、ユーザによって指定された粗さのレベルに対応する特徴量を利用して、問合せ画像および検索対象の画像の類似度を求めるというものである。ここで、特徴量の粗さとは、画像から抽出された特徴量が、抽出対象の画像の所定の特徴をどの程度忠実に表現しているかの度合いを示すものであると定義することにする。そこで、以下では、
1.特徴量抽出処理
2.画像検索処理
の順で実施の形態12に係る画像検索装置によって実行される処理について説明する。
The image search apparatus according to the twelfth embodiment enables the user to specify the roughness level (the fineness of the viewpoint) of the feature amount used during the search, and the feature amount corresponding to the roughness level specified by the user Is used to obtain the similarity between the query image and the search target image. Here, the roughness of the feature amount is defined as indicating the degree to which the feature amount extracted from the image faithfully represents a predetermined feature of the image to be extracted. So, in the following,
1. Feature amount extraction processing Processing executed by the image search device according to the twelfth embodiment will be described in the order of image search processing.

1.特徴量抽出処理
ここでは、検索対象の画像については粗さの異なる複数の特徴量を予め抽出しておくことにし、問合せ画像のうち、特徴量が抽出されていない問合せ画像については検索実行時に特徴量を抽出することにする。検索対象の画像から特徴量を抽出するタイミングは、実施の形態1で説明したように、検索対象の画像を画像DB108に登録するときとする。そこで、図3を参照しつつ各画像から特徴量を抽出する処理について説明する。
1. Feature amount extraction processing Here, a plurality of feature amounts having different roughness are extracted in advance for an image to be searched, and among query images, a query image from which no feature amount is extracted is featured at the time of search execution. We will extract the quantity. The timing for extracting the feature amount from the search target image is set when the search target image is registered in the image DB 108 as described in the first embodiment. A process for extracting feature amounts from each image will be described with reference to FIG.

図2の特徴抽出エンジン152は、U/I部151を介して登録対象となる画像を入力し(S11)、入力した画像から特徴量を抽出する処理を実行する(S12)。   The feature extraction engine 152 of FIG. 2 inputs an image to be registered via the U / I unit 151 (S11), and executes a process of extracting a feature amount from the input image (S12).

実施の形態12においては、例えば、少なくとも画像を何分割するかを表す分割数を特徴量の粗さのレベルとして段階的に定義した抽出基準に基づいて、特徴抽出エンジン152が画像から粗さの異なる特徴量を抽出できるようにしている。具体的に、抽出基準として例えば以下のような特徴量の粗さのレベルが定義されており、特徴抽出エンジン152は、ステップS11で入力した画像から同一の特徴(色,構造等)について異なる粗さのレベルの特徴量を抽出する。なお、抽出される特徴量は粗さが異なるのみであって、特徴量の種類(例えば、色,構造等)は同一である。   In the twelfth embodiment, for example, the feature extraction engine 152 calculates the roughness of an image from the image based on an extraction criterion that defines stepwise the number of divisions indicating how many images are to be divided as the roughness level of the feature amount. Different feature values can be extracted. Specifically, for example, the following feature level roughness levels are defined as extraction criteria, and the feature extraction engine 152 determines different roughness for the same feature (color, structure, etc.) from the image input in step S11. The feature amount of the level is extracted. Note that the extracted feature quantities differ only in roughness, and the types of feature quantities (for example, color, structure, etc.) are the same.

・レベル1:図22(a)に示すように、画像全体から特徴量1を抽出する。
・レベル2:図22(b)に示すように、画像を4分割して分割画像A〜Dを生成し、各分割画像A〜Dからそれぞれ特徴量A〜Dを抽出することにより、一つの画像から特徴量A〜Dからなる特徴量2(特徴量群)を抽出する。
・レベル3:図22(c)に示すように、画像を8分割して分割画像A〜Hを生成し、各分割画像A〜Hからそれぞれ特徴量A〜Hを抽出することにより、一つの画像から特徴量A〜Hからなる特徴量3(特徴量群)を抽出する。
・レベル4:図22(d)に示すように、画像を16分割して分割画像A〜Pを生成し、各分割画像A〜Pからそれぞれ特徴量A〜Pを抽出することにより、一つの画像から特徴量A〜Pからなる特徴量4(特徴量群)を抽出する。
Level 1: As shown in FIG. 22A, feature value 1 is extracted from the entire image.
Level 2: As shown in FIG. 22B, the image is divided into four to generate divided images A to D, and feature amounts A to D are extracted from the divided images A to D, respectively. A feature amount 2 (a feature amount group) composed of feature amounts A to D is extracted from the image.
Level 3: As shown in FIG. 22C, the image is divided into eight to generate divided images A to H, and feature amounts A to H are extracted from the divided images A to H, respectively. A feature amount 3 (a feature amount group) composed of feature amounts A to H is extracted from the image.
Level 4: As shown in FIG. 22 (d), an image is divided into 16 to generate divided images A to P, and feature amounts A to P are extracted from the divided images A to P, respectively. A feature amount 4 (a feature amount group) composed of feature amounts A to P is extracted from the image.

ここで、画像の構造(エッジ)および色(色ヒストグラム)を特徴量として抽出する処理を例にとって、画像からレベル1〜4の特徴量を抽出する処理を具体的に説明する。   Here, the process of extracting the feature quantities of levels 1 to 4 from the image will be specifically described by taking as an example the process of extracting the structure (edge) and color (color histogram) of the image as the feature quantity.

(1)構造
▲1▼ レベル1
例えばsobelのようなエッジ抽出フィルタを用いて、ステップS11で入力した画像からエッジ情報を抽出する。抽出したエッジ情報から、エッジの位置,エッジの強度および方向を得ることができる。エッジの強度については適当な閾値で2値化し、上下左右斜め方向のエッジ成分のエッジ画像データを得る。一例として、図23に示す画像から得た上下左右斜め方向のエッジ成分のエッジ画像データを図24(a)〜図24(d)に示す。
(1) Structure (1) Level 1
For example, edge information is extracted from the image input in step S11 using an edge extraction filter such as sobel. From the extracted edge information, the edge position, edge strength and direction can be obtained. The edge intensity is binarized with an appropriate threshold value, and edge image data of edge components in the vertical and horizontal directions is obtained. As an example, edge image data of edge components in the vertical and horizontal directions obtained from the image shown in FIG. 23 are shown in FIGS.

図24(a)〜図24(d)のエッジ画像データについて、エッジ部分を黒画素、その他を白画素と仮定し、
・画像全体に対する黒画素の割合
・黒画素の重心
・黒画素の分散
・黒画素の連結矩形のサイズの平均
・黒画素の連結矩形のサイズの分散
というようなエッジ情報を各エッジ画像データから抽出し、これを画像全体の構造の特徴量1とする。
24A to 24D, assuming that the edge portion is a black pixel and the others are white pixels,
• Extraction of edge information from each edge image data such as the ratio of black pixels to the entire image, the center of gravity of the black pixels, the dispersion of the black pixels, the average of the sizes of the connected rectangles of the black pixels This is the feature amount 1 of the structure of the entire image.

▲2▼ レベル2
図24(a)〜図24(d)のエッジ画像データをそれぞれ図22(b)に示すように分割画像A〜Dに分割し(4分割)、各分割画像A〜Dから▲1▼で説明したエッジ情報を抽出して分割画像単位の構造の特徴量A〜Dを得る。その結果、特徴量A〜Dからなる特徴量2を画像から抽出することができる。
▲ 2 ▼ Level 2
The edge image data shown in FIGS. 24A to 24D is divided into divided images A to D (four divisions) as shown in FIG. 22B, and each divided image A to D is changed to (1). The described edge information is extracted to obtain the feature amounts A to D of the structure in units of divided images. As a result, the feature amount 2 composed of the feature amounts A to D can be extracted from the image.

▲3▼ レベル3および4
また、レベル3については図24(a)〜図24(d)のエッジ画像データをそれぞれ図22(c)に示したように分割画像A〜Hに分割し(8分割)、レベル4については図22(d)に示したように分割画像A〜Pに分割し(16分割)、レベル2の場合と同様の方法でそれぞれ特徴量A〜Hからなる特徴量3および特徴量A〜Pからなる特徴量4を画像から抽出することができる。
(3) Levels 3 and 4
For level 3, the edge image data in FIGS. 24A to 24D is divided into divided images A to H as shown in FIG. 22C, respectively (8 divisions). As shown in FIG. 22 (d), the image is divided into divided images A to P (16 divisions), and from the feature quantity 3 and the feature quantities A to P each consisting of the feature quantities A to H in the same manner as in level 2. The feature quantity 4 can be extracted from the image.

(2)色
つぎに、画像の色(色ヒストグラム)を特徴量として抽出する処理を説明する。
(2) Color Next, processing for extracting the color (color histogram) of the image as a feature amount will be described.

▲1▼ レベル1
適当な色空間(例えばLab,Luv,HSV等)を選択して複数の領域に分割し、ステップS11で入力した画像の各ピクセルが色空間中のどの領域に対応するかを調べ、領域毎のピクセル数を画像全体のピクセル数で正規化することによって図22(a)に示した画像全体を対象とした特徴量1を抽出する。
▲ 1 ▼ Level 1
An appropriate color space (for example, Lab, Luv, HSV, etc.) is selected and divided into a plurality of regions, and it is examined which region in the color space each pixel of the image input in step S11 corresponds to. The feature quantity 1 for the entire image shown in FIG. 22A is extracted by normalizing the number of pixels with the number of pixels of the entire image.

▲2▼ レベル2
適当な色空間(例えばLab,Luv,HSV等)を選択して複数の領域に分割すると共に、ステップS11で入力した画像を図22(b)に示したように分割画像A〜Dに分割する(4分割)。そして、分割画像Aの各ピクセルが色空間中のどの領域に対応するかを調べ、領域毎のピクセル数を分割画像A全体のピクセル数で正規化することによって特徴量Aを抽出することができる。他の分割画像B〜Dについても同様な処理を行ってそれぞれ特徴量B〜Dを抽出し、特徴量A〜Dからなる特徴量2をステップS11で入力した画像から抽出する。
▲ 2 ▼ Level 2
An appropriate color space (for example, Lab, Luv, HSV, etc.) is selected and divided into a plurality of regions, and the image input in step S11 is divided into divided images A to D as shown in FIG. (4 divisions). Then, it is possible to extract the feature amount A by examining which region in the color space each pixel of the divided image A corresponds to and normalizing the number of pixels for each region with the number of pixels of the entire divided image A. . Similar processing is performed on the other divided images B to D to extract the feature amounts B to D, respectively, and the feature amount 2 including the feature amounts A to D is extracted from the image input in step S11.

▲3▼ レベル3およびレベル4
レベル3についてはステップS11で入力した画像を図22(c)に示したように分割画像A〜Hに分割し(8分割)、レベル4については図22(d)に示したように分割画像A〜Pに分割し(16分割)、レベル2の場合と同様の方法でそれぞれ特徴量A〜Hからなる特徴量3および特徴量A〜Pからなる特徴量4を画像から抽出する。
(3) Level 3 and Level 4
For level 3, the image input in step S11 is divided into divided images A to H as shown in FIG. 22C (eight divisions), and for level 4, the divided images are shown as shown in FIG. A feature amount 3 consisting of feature amounts A to H and a feature amount 4 consisting of feature amounts A to P are extracted from the image in the same manner as in the case of level 2 (16 divisions).

このように、分割数を変化させて同一の画像から特徴量を抽出することにより、例えば、ある画像は全体的には青であるが、詳細に見ると青と少しの赤が混じっているといったような、視点の細かさに依存した特徴量を抽出することができる。例えば、青を中心とする画像中のいずれの位置に赤が分散しているかという情報を含む特徴量を抽出することができる。   In this way, by extracting feature values from the same image by changing the number of divisions, for example, an image is entirely blue, but blue and a little red are mixed in detail. Thus, it is possible to extract a feature amount depending on the fineness of the viewpoint. For example, it is possible to extract a feature amount including information indicating at which position in the image centered on blue that red is dispersed.

このようにして、ステップS11で入力した画像から各レベルの特徴量を抽出した後、図3のフローチャートに示すように、特徴抽出エンジン152は、画像DB108に登録する元の画像に関連付けて、抽出した特徴量を画像特徴DB109に登録する(S13)。   In this manner, after extracting the feature amount of each level from the image input in step S11, the feature extraction engine 152 extracts the image in association with the original image registered in the image DB 108 as shown in the flowchart of FIG. The obtained feature amount is registered in the image feature DB 109 (S13).

なお、ここでは、画像の構造および色の特徴を特徴量として抽出することを例にとって説明したが、他の種類の特徴を特徴量として抽出することにしても良い。また、例えば画像を4分割するといった場合であっても、図22(b)に示した分割方法以外にも様々な方法が考えられる(例えば、画像を縦長または横長に4分割する等)。したがって、分割方法は任意に設定することが可能である。   Here, the description has been made by taking as an example the extraction of the image structure and the color feature as the feature amount, but other types of features may be extracted as the feature amount. For example, even when an image is divided into four, various methods other than the dividing method shown in FIG. 22B are conceivable (for example, an image is divided into four vertically or horizontally). Therefore, the division method can be arbitrarily set.

2.画像検索処理
図25は、実施の形態12に係る画像検索装置で使用される検索ウインドウ200gの一例を示す説明図である。検索ウインドウ200gは、画像指定欄A〜C,検索ボタン201および画像表示欄202に加え、検索に使用する特徴量の種類を指定する特徴指定欄209と、特徴指定欄209で指定された種類の特徴量のうち、いずれのレベル(粗さ)の特徴量を用いるかを指定する粗さレベル指定欄210と、を備えている。特徴指定欄209では、例えば構造の特徴量および色の特徴量のいずれか一方または両方を指定することができ、粗さレベル指定欄210では、例えばレベル1〜4の少なくとも一つを指定することができるものとする。粗さレベル指定欄210で指定可能なレベルは、前述した特徴量の抽出基準の各レベルに対応している。
2. Image Search Processing FIG. 25 is an explanatory diagram showing an example of a search window 200g used in the image search device according to the twelfth embodiment. The search window 200g includes, in addition to the image designation columns A to C, the search button 201, and the image display column 202, a feature designation column 209 that designates the type of feature amount used for the search, and the types designated in the feature designation column 209. And a roughness level designation field 210 for designating which level (roughness) of the feature quantity is to be used. In the feature designation field 209, for example, one or both of the structural feature quantity and the color feature quantity can be designated. In the roughness level designation field 210, for example, at least one of levels 1 to 4 can be designated. Shall be possible. The levels that can be designated in the roughness level designation column 210 correspond to the levels of the feature quantity extraction criteria described above.

なお、特徴指定欄209において、いずれの特徴量も指定されなかった場合には、構造および色の両方の特徴量を用いて検索処理が行われるものとし、粗さレベル指定欄210においていずれのレベルも指定されなかった場合には、全てのレベルの特徴量を用いて検索処理が行われるものとする。また、使用可能な種類の特徴量を全て指定できるようにするため、特徴指定欄209に「全て」というボタンを用意することにしても良い。同様に、レベルを全て指定できるようにするため、粗さレベル指定欄210に「全て」というボタンを用意することにしても良い。   If no feature quantity is designated in the feature designation field 209, the search processing is performed using both the structure quantity and the feature quantity, and any level in the roughness level designation field 210 is assumed. If neither is specified, the search process is performed using the feature amounts of all levels. In addition, in order to be able to specify all of the available types of feature quantities, a button “all” may be prepared in the feature specification field 209. Similarly, a button “all” may be prepared in the roughness level designation field 210 so that all levels can be designated.

続いて、実施の形態12に係る画像検索処理について説明する。なお、ここでは、検索ウインドウ200gにおける検索条件の指定の仕方に応じて異なる処理が行われることになることから、最初に図26のフローチャートを参照しつつ画像検索処理の概略を説明した後、異なる検索条件毎に場合分けして個別に説明することにする。   Subsequently, an image search process according to Embodiment 12 will be described. Here, since different processing is performed depending on how the search condition is specified in the search window 200g, the outline of the image search processing is first described with reference to the flowchart of FIG. Each search condition will be explained separately for each case.

(1)画像検索処理の概略
まず、実施の形態12に係る画像検索処理の概略を説明する。ユーザは、図25に示した画像指定欄に問合せ画像を少なくとも一つ指定すると共に、特徴指定欄209および粗さレベル指定欄210において、検索時に使用する特徴量の種類および使用する特徴量の粗さのレベルを指定する(S1201)。
(1) Outline of Image Search Process First, an outline of the image search process according to the twelfth embodiment will be described. The user designates at least one inquiry image in the image designation field shown in FIG. 25, and in the feature designation field 209 and the roughness level designation field 210, the type of feature quantity used at the time of search and the rough value of the feature quantity to be used. A level is designated (S1201).

続いて、ユーザが図25の検索ボタン201を指定すると、U/I部151は、問合せ画像,特徴量の種類および粗さのレベルの種類を特徴抽出エンジン152に入力し、特徴抽出エンジン152は、指定された特徴量の種類および粗さのレベルに応じて問合せ画像から特徴量を抽出する(S1202)。ただし、ユーザによって指定された問合せ画像から既に特徴量が抽出されている場合には、このステップS1202の処理をスキップすることができる。また、検索対象の画像について特徴量を抽出していない場合は、この時点で特徴量を抽出することにしても良い。その後、特徴抽出エンジン152は、抽出した問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。   Subsequently, when the user designates the search button 201 in FIG. 25, the U / I unit 151 inputs the inquiry image, the type of feature amount, and the type of roughness level to the feature extraction engine 152, and the feature extraction engine 152 The feature quantity is extracted from the inquiry image in accordance with the designated feature quantity type and roughness level (S1202). However, when the feature amount has already been extracted from the inquiry image designated by the user, the processing in step S1202 can be skipped. Further, when the feature amount is not extracted for the search target image, the feature amount may be extracted at this point. Thereafter, the feature extraction engine 152 passes the extracted feature amount of the query image to the matching engine 153 (maps to the feature space of FIG. 4).

マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、検索ウインドウ200gにおいて指定されたレベルの特徴量を用いて問合せ画像との類似度を求める処理を実行する(S1203)。すなわち、マッチング・エンジン153は、該当するレベルの特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像との距離を各特徴毎に定義された距離定義式を用いて求める。   The matching engine 153 executes a process for obtaining the similarity with the query image using the feature amount of the level specified in the search window 200g for each image to be searched registered in the image DB 108 (S1203). That is, the matching engine 153 determines the distance between the image to be searched and the query image plotted in the feature amount space shown in FIG. 4 based on the feature amount of the corresponding level for each feature. Obtained using an equation.

特徴量Fは通常、ベクトルとしてF={f1,f2,f3,・・・,fn}であらわされ、画像a、bから抽出した特徴量をそれぞれFa、Fbとすると、以下の数11で示す差分距離式D(Fa,Fb)が一般に距離定義式として用いられる。   The feature amount F is normally expressed as a vector F = {f1, f2, f3,..., Fn}, and the feature amounts extracted from the images a and b are represented by the following formula 11, respectively. The differential distance formula D (Fa, Fb) is generally used as the distance definition formula.

Figure 0004674257
Figure 0004674257

「構造」、「色」の特徴量の場合にもこの距離式が利用できるが、「構造」での「画像全体に対する黒画素の割合」をヒストグラムとして特徴量とした場合には、画像中のエッジが十分にある場合には適切な類似度を得ることが可能であるが、画像中のエッジが少ない場合には適切な類似度を得られない。   This distance formula can also be used in the case of “structure” and “color” feature quantities. However, when the “ratio of black pixels to the whole image” in “structure” is used as a feature quantity as a histogram, An appropriate similarity can be obtained when there are enough edges, but an appropriate similarity cannot be obtained when there are few edges in the image.

人間のエッジに対する類似感覚では、たとえば画像中にエッジがない画像と少しでもある画像の場合には大きな違いを感じるが、画像が十分にエッジを持っている場合には、その量が多少異なっていてもその違いには鈍感である。そこで、差分距離式よりも距離の精度を高めるためにヒストグラムを全エッジ画素数で正規化する(正規化距離式)ことによって、この問題を解決することが可能である。   In the sense of similarity to human edges, for example, an image with no edges is slightly different from an image with little edges, but if the image has enough edges, the amount is slightly different. But the difference is insensitive. Therefore, this problem can be solved by normalizing the histogram with the number of all edge pixels (normalized distance equation) in order to increase the accuracy of the distance than the difference distance equation.

つまり、ヒストグラムの要素は以下の式で与えられる。
foi=fi/N
なお、foiは正規化されたヒストグラムの要素である。また、全画素数Nは、数12の式で与えられる。
That is, the elements of the histogram are given by the following formula.
foi = fi / N
Note that foi is a normalized histogram element. Further, the total number of pixels N is given by the equation (12).

Figure 0004674257
Figure 0004674257

なお、ベクトル要素がすべて0でS=0の時は正規化はおこなわない。つまり、正規化距離式は数13の式で与えられる。 Note that normalization is not performed when the vector elements are all 0 and S = 0. That is, the normalized distance formula is given by the formula (13).

Figure 0004674257
Figure 0004674257

画像中のエッジが少ない場合には上記式が有効であるが、多い場合には従来のヒストグラムの方が適切な類似度を得ることができる。そこで、エッジが多い場合には従来式に近い計算式になり、少ない場合には上記式に近い計算式になるような数14の式を考案した。   When the number of edges in the image is small, the above formula is effective, but when the number is large, the conventional histogram can obtain a more appropriate similarity. Therefore, the formula of formula 14 is devised so that the formula becomes close to the conventional formula when there are many edges, and the formula becomes close to the above formula when there are few edges.

Figure 0004674257
Figure 0004674257

なお、正規化のための値を全画素数により以下の数15のように変動させる。   Note that the value for normalization is changed as shown in the following equation 15 depending on the total number of pixels.

Figure 0004674257

kは定数であり、対象とする画像集合によって適宜指定する。
Figure 0004674257

k is a constant and is appropriately specified depending on the target image set.

以上のような計算を検索時に行うだけでなく、予め特徴量の抽出時に正規化や半正規化で得られるベクトルに変換してデータベースに登録することで、検索時には単純な差分式を用いて距離を求めることができ、高速な検索をおこなうことも可能である。   In addition to performing the above calculation at the time of search, it is converted into a vector obtained by normalization or semi-normalization at the time of feature extraction in advance and registered in the database. It is also possible to perform a high-speed search.

上記半正規化式により画像中のエッジの多い少ないに関わらず適切な類似度を算出することができるが、検索時に計算する場合には式が複雑な分、時間がかかるという問題がある。そこで、エッジ数および要求される検索速度に従い従来の差分距離式と正規化距離式を選択し算出する。   Although the above-mentioned semi-normalized expression can calculate an appropriate similarity regardless of the number of edges in the image, there is a problem that it takes time because the expression is complicated when calculating at the time of retrieval. Therefore, the conventional differential distance formula and the normalized distance formula are selected and calculated according to the number of edges and the required search speed.

たとえば、以下のように場合分けが可能である。
1)両方の画像のエッジ割合がある閾値A以上の場合
差分距離式を選択
2)どちらか一方が閾値Aより下の場合
a)高速性が要求される場合
差分距離式を選択
b)高速性が要求されない場合
正規化距離式を利用
For example, cases can be classified as follows.
1) When the edge ratio of both images is greater than or equal to a threshold A Select the differential distance formula 2) When either one is below the threshold A a) When high speed is required Select the differential distance formula b) High speed When is not required Use normalized distance formula

ただし、この方式では場合分けにより、異なる式を選択するので結果として得られる距離空間は距離の公理を満たさない。距離の公理を満たす必要がある場合には半正規化式が望ましい。   However, in this method, different formulas are selected depending on the case, so that the resulting metric space does not satisfy the distance axiom. If it is necessary to satisfy the distance axiom, a semi-normalized expression is desirable.

続いて、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた問合せ画像との類似度を参照し、例えば類似度の高い順に検索対象の画像を図25の画像表示欄202に表示する(S1204)。ただし、ここでは類似度として検索対象の画像と問合せ画像との特徴量間の距離を用いているため、実際には、類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、類似度は0以上の値を持ち、類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。   Subsequently, the U / I unit 151 refers to the similarity with the query image obtained for each image to be searched by the matching engine 153, and displays the images to be searched in the order of the similarity, for example, in the image display of FIG. It is displayed in the column 202 (S1204). However, since the distance between the feature amounts of the search target image and the query image is used as the similarity here, the search target images are actually displayed in the image display column 202 in ascending order of the similarity value. Will be. That is, the similarity has a value of 0 or more. When the similarity is 0, it means that the feature amount of each query image and the feature amount of the search target image are equal.

(2)画像検索処理の具体例
つぎに、前述した図26のフローチャートに対応させつつ、
▲1▼ 一つの問合せ画像,特徴量として「色」および粗さレベルとして「レベル1」が指定された場合
▲2▼ 一つの問合せ画像,特徴量として「色」および粗さレベルとして「レベル2」が指定された場合
▲3▼ 一つの問合せ画像,特徴量として「色」および粗さレベルとして二つ以上のレベルが指定された場合
▲4▼ 複数種類の特徴量が指定された場合
▲5▼ 複数の問合せ画像が指定された場合
の順で具体的に実施の形態12に係る画像検索処理を説明する。
(2) Specific Example of Image Search Process Next, while corresponding to the flowchart of FIG.
(1) When one query image, “color” as the feature quantity and “level 1” as the roughness level are designated (2) One query image, “color” as the feature quantity and “level 2” as the roughness level ”Is designated (3) One inquiry image,“ color ”is designated as the feature quantity, and two or more levels are designated as the roughness level. The image search processing according to the twelfth embodiment will be specifically described in the order in which a plurality of inquiry images are designated.

▲1▼ 一つの問合せ画像,特徴量として「色」および粗さレベルとして「レベル1」が指定された場合
図25に示した検索ウインドウ200gにおいて、ユーザが、一つの問合せ画像,特徴量として「色」および粗さレベルとして「レベル1」を指定したものとする(S1201)。
(1) When “Color” is specified as one inquiry image and feature level and “Level 1” is specified as the roughness level In the search window 200g shown in FIG. It is assumed that “level 1” is designated as the “color” and roughness level (S1201).

特徴抽出エンジン152は、図22(a)に示すように、問合せ画像全体を対象として、特徴量「色」について「レベル1」に該当する特徴量である「特徴量1」を抽出する(S1202)。   As shown in FIG. 22A, the feature extraction engine 152 extracts “feature amount 1” that is a feature amount corresponding to “level 1” for the feature amount “color” for the entire inquiry image (S1202). ).

そして、マッチング・エンジン153は、特徴抽出エンジン152において抽出された問合せ画像および検索対象の画像の特徴量1に基づいて、検索対象の画像毎に問合せ画像との類似度を求める(S1203)。具体的には、該当する特徴量1に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像との距離を各特徴毎に定義された距離定義式を用いて求める。   Then, the matching engine 153 obtains a similarity to the query image for each search target image based on the query image extracted by the feature extraction engine 152 and the feature quantity 1 of the search target image (S1203). Specifically, the distance between the image to be searched and the query image plotted in the feature amount space shown in FIG. 4 based on the corresponding feature amount 1 is used using a distance definition formula defined for each feature. Ask.

その後、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた問合せ画像との類似度を参照し、例えば類似度の高い(値の小さい)順に検索対象の画像を図25の画像表示欄202に表示する(S1204)。   Thereafter, the U / I unit 151 refers to the similarity with the query image obtained for each image to be searched by the matching engine 153, and displays the images to be searched in the order of, for example, the highest similarity (smallest value). 25 images are displayed in the image display field 202 (S1204).

このように、レベル1のような粗さの特徴量を選択して画像検索処理を実行することができるようにすることにより、例えば、色の特徴量を用いて検索を
場合にあっては、全体的に青い画像を検索するというような検索処理を実行することが可能となる。
In this way, by selecting a feature value of roughness such as level 1 and performing an image search process, for example, in the case of a search using a color feature value, Search processing such as searching for a blue image as a whole can be executed.

なお、詳細な説明については省略するが、特徴量として「構造」や他の種類の特徴量が指定された場合であっても、同様な処理で検索処理を行うことができる。   Although a detailed description is omitted, even if “structure” or another type of feature quantity is specified as the feature quantity, the search process can be performed by the same process.

▲2▼ 一つの問合せ画像,特徴量として「色」および粗さレベルとして「レベル2」が指定された場合
図25に示した検索ウインドウ200gにおいて、ユーザが、一つの問合せ画像,特徴量として「色」および粗さレベルとして「レベル2」を指定したものとする(S1201)。
(2) When one query image, “color” as the feature quantity and “level 2” as the roughness level are designated In the search window 200g shown in FIG. It is assumed that “level 2” is designated as the “color” and roughness level (S1201).

特徴抽出エンジン152は、図22(b)に示すように、問合せ画像を分割画像A〜Dに分割し、各分割画像A〜Dからそれぞれ「色」の特徴量A〜Dを抽出する(S1202)。その結果、特徴量「色」について「レベル2」に該当する特徴量であって、特徴量A〜Dからなる「特徴量2」が問合せ画像から抽出されることになる。   As shown in FIG. 22B, the feature extraction engine 152 divides the inquiry image into divided images A to D, and extracts feature values A to D of “color” from the divided images A to D, respectively (S1202). ). As a result, the feature amount corresponding to “level 2” for the feature amount “color” and “feature amount 2” including the feature amounts A to D is extracted from the inquiry image.

そして、マッチング・エンジン153は、特徴抽出エンジン152において抽出された問合せ画像および検索対象の画像の特徴量2に基づいて、検索対象の画像毎に問合せ画像との類似度を求める(S1203)。具体的には、検索対象の画像および問合せ画像の分割画像A同士,分割画像B同士,分割画像C同士および分割画像D同士の類似度を求める。より詳細には、特徴抽出エンジン152において抽出された特徴量2に基づいて、図4に示した特徴量空間中にプロットされた分割画像A同士,分割画像B同士,分割画像C同士および分割画像D同士の距離を各特徴毎に定義された距離定義式を用いて求める。ここでは分割画像A〜Dのそれぞれについて類似度を求めることになるため、4つの類似度を得ることになる。   Then, the matching engine 153 obtains the similarity with the query image for each search target image based on the query image extracted by the feature extraction engine 152 and the feature quantity 2 of the search target image (S1203). Specifically, the similarity between the divided images A, the divided images B, the divided images C, and the divided images D of the search target image and the inquiry image is obtained. More specifically, based on the feature amount 2 extracted by the feature extraction engine 152, the divided images A, the divided images B, the divided images C, and the divided images plotted in the feature amount space shown in FIG. The distance between D is obtained using a distance definition formula defined for each feature. Here, since the similarity is obtained for each of the divided images A to D, four similarities are obtained.

続いて、マッチング・エンジン153は、求めた4つの類似度を用いて、検索対象の画像および問合せ画像の類似度を決定する。類似度の決定方法としては、例えば以下のような方法が考えられる。
▲2▼−1 4つの類似度の二乗和により検索対象の画像および問合せ画像の類似度を決定する。
▲2▼−2 4つの類似度を合計することにより、検索対象の画像および問合せ画像の類似度を決定する(AND検索参照)。
▲2▼−3 4つの類似度の中から最も高い(値の小さい)類似度を選択することにより、検索対象の画像および問合せ画像の類似度を決定する(OR検索参照)。
なお、▲2▼−1〜▲2▼−3のいずれの方法を利用するかを検索ウインドウ200gで指定することができるようにしても良い。
Subsequently, the matching engine 153 determines the similarity between the search target image and the query image using the obtained four similarities. As a method for determining the similarity, for example, the following method can be considered.
(2) -1 The similarity between the search target image and the query image is determined by the sum of squares of the four similarities.
{Circle around (2)}-2 The sum of the four similarities is used to determine the similarity between the search target image and the query image (see AND search).
(2) -3 By selecting the highest (smallest value) similarity among the four similarities, the similarity between the search target image and the query image is determined (see OR search).
Note that it may be possible to specify in the search window 200g which method (2) -1 to (2) -3 is to be used.

その後、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた問合せ画像との類似度を参照し、例えば類似度の高い(値の小さい)順に検索対象の画像を図25の画像表示欄202に表示する(S1204)。   Thereafter, the U / I unit 151 refers to the similarity with the query image obtained for each image to be searched by the matching engine 153, and displays the images to be searched in the order of, for example, the highest similarity (smallest value). 25 images are displayed in the image display field 202 (S1204).

このように、レベル2のような粗さの特徴量を選択して画像検索処理を実行することができるようにすることにより、例えば、色の特徴量を用いて検索を行う場合にあっては、全体的に青いがある部分には赤が混じっている画像を検索するというような検索処理を実行することが可能となる。すなわち、どの色が画像のどの位置に存在するかを踏まえた検索処理が可能となり、画像全体を対象として抽出した特徴量(レベル1)を用いた検索では行うことができない細かい視点で検索処理を行うことができる。   In this way, by selecting the feature quantity of roughness such as level 2 and performing the image search process, for example, when performing a search using the color feature quantity, Thus, it is possible to execute a search process such as searching for an image in which red is mixed in a portion where blue is present as a whole. In other words, search processing based on which color is located at which position in the image is possible, and search processing is performed from a fine viewpoint that cannot be performed by search using the feature amount (level 1) extracted for the entire image. It can be carried out.

なお、詳細な説明については省略するが、特徴量として「構造」や他の種類の特徴量が指定された場合にあっても、同様な処理で検索処理を行うことができる。また、粗さレベルのレベル3および4が指定された場合であっても、前述したレベル2の処理と同様な処理で検索処理を行うことが可能であるため、ここでは説明を省略する。   Although detailed description is omitted, even when “structure” or another type of feature quantity is designated as the feature quantity, the search process can be performed by the same process. Further, even when the roughness levels 3 and 4 are designated, the search process can be performed by the same process as the process of the level 2 described above, and thus the description thereof is omitted here.

▲3▼ 一つの問合せ画像,特徴量として「色」および粗さレベルとして二つ以上のレベルが指定された場合
ここでは、粗さレベルとして二つ以上のレベルが指定された場合の一例として、粗さレベルが全て指定された場合に基づいて画像検索処理を説明する。そこで、図25に示した検索ウインドウ200gにおいて、ユーザが、一つの問合せ画像,特徴量として「色」および全ての粗さレベルを指定したものとする(S1201)。前述したように、粗さレベル指定欄210においていずれのレベルも指定しない場合または全てのレベルを指定した場合に、粗さレベルを全て指定したことになる。
(3) When one query image, “color” as the feature quantity and two or more levels are specified as the roughness level Here, as an example when two or more levels are specified as the roughness level, The image search process will be described based on the case where all the roughness levels are designated. Therefore, it is assumed that in the search window 200g shown in FIG. 25, the user designates one inquiry image, “color” as a feature amount, and all roughness levels (S1201). As described above, when none of the levels is designated in the roughness level designation column 210 or when all levels are designated, all the roughness levels are designated.

特徴抽出エンジン152は、図22(a)〜図22(d)に示すように、検索ウインドウ200gにおいて指定された問合せ画像から、レベル1〜4に応じて特徴量1〜4を抽出する(S1202)。なお、レベル1に対応する特徴量1は▲1▼の項で説明した方法で、レベル2〜4に対応する特徴量2〜4は▲2▼の項で説明した方法で抽出することができる。   As shown in FIGS. 22A to 22D, the feature extraction engine 152 extracts feature quantities 1 to 4 according to levels 1 to 4 from the query image specified in the search window 200g (S1202). ). The feature quantity 1 corresponding to level 1 can be extracted by the method described in the section (1), and the feature quantities 2 to 4 corresponding to levels 2 to 4 can be extracted by the method described in the section (2). .

そして、マッチング・エンジン153は、特徴抽出エンジン152において抽出された問合せ画像および検索対象の画像の特徴量1〜4を用いて、検索対象の画像毎に問合せ画像との類似度を求める(S1203)。ここでは、各特徴量(レベル)毎に検索対象の画像および問合せ画像の類似度を求めることになり、その結果、検索対象の画像毎に問合せ画像に対する4つの類似度が得られることになる。なお、特徴量1(レベル1)を用いて検索対象の画像および問合せ画像の類似度を求める処理は、▲1▼の項で説明した処理と同様である。また、特徴量2〜4(レベル2〜4)を用いて検索対象の画像および問合せ画像の類似度を求める処理は、それぞれ▲2▼の項で説明した処理と同様である。   Then, the matching engine 153 uses the query image extracted by the feature extraction engine 152 and the feature amounts 1 to 4 of the search target image to obtain a similarity with the query image for each search target image (S1203). . Here, the similarity between the search target image and the query image is obtained for each feature amount (level), and as a result, four similarities with respect to the query image are obtained for each search target image. The process for obtaining the similarity between the search target image and the query image using the feature amount 1 (level 1) is the same as the process described in the item (1). The processing for obtaining the similarity between the search target image and the query image using the feature amounts 2 to 4 (levels 2 to 4) is the same as the processing described in the item (2).

続いて、マッチング・エンジン153は、検索対象の画像毎に各レベルに応じて求めた問合せ画像との4つの類似度を用いて、問合せ画像との最終的な類似度を決定する。最終的な類似度の決定方法としては、例えば以下のような方法が考えられる。
▲3▼−1 4つの類似度の二乗和により、問合せ画像との最終的な類似度を決定する(AND検索の変形)。
▲3▼−2 4つの類似度を合計することにより、問合せ画像との最終的な類似度を決定する(AND検索を参照)。
▲3▼−3 4つの類似度の中から最も高い(値の小さい)類似度を選択することにより、問合せ画像との最終的な類似度を決定する(OR検索を参照)。
Subsequently, the matching engine 153 determines the final similarity with the query image using the four similarities with the query image obtained according to each level for each image to be searched. As a final similarity determination method, for example, the following method can be considered.
(3) -1 The final similarity with the query image is determined by the sum of squares of the four similarities (deformation of AND search).
(3) -2 The final similarity with the query image is determined by summing the four similarities (see AND search).
(3) -3 By selecting the highest (smallest value) similarity from the four similarities, the final similarity with the query image is determined (see OR search).

▲3▼−1および▲3▼−2の方法で問合せ画像との最終的な類似度を決定することにする場合にあっては、例えば、全体的に青く、かつ、ある部分に赤が混じっている画像を検索するというような検索処理(AND検索)を実行することが可能となる。すなわち、全ての(二つ以上の)粗さのレベルの特徴量を用いるため、特定のレベルの特徴量のみを用いて検索を行う場合に比べて、高い精度で希望する画像を検索することができる。また、▲3▼−3の方法で問合せ画像との最終的な類似度を決定することにする場合にあっては、例えば、全体的に青い画像および全体的に青くある部分に赤が混じっている画像のいずれかを検索するというような検索処理(OR検索)を実行することが可能となる。   When the final similarity to the inquiry image is determined by the methods (3) -1 and (3) -2, for example, the whole image is blue and a certain portion is mixed with red. It is possible to execute a search process (AND search) such as searching for a current image. In other words, since feature values of all (two or more) roughness levels are used, a desired image can be searched with higher accuracy than when searching using only feature values of a specific level. it can. Also, in the case of determining the final similarity with the inquiry image by the method of (3) -3, for example, red is mixed in an overall blue image and an overall blue portion. It is possible to execute a search process (OR search) such as searching for any of the existing images.

なお、▲3▼−1〜▲3▼−3のいずれの方法を利用するかを検索ウインドウ200gで指定することができるようにしても良い。   It should be noted that any one of methods (3) -1 to (3) -3 may be used in the search window 200g.

その後、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた問合せ画像との類似度を参照し、例えば類似度の高い(値の小さい)順に検索対象の画像を図25の画像表示欄202に表示する(S1204)。   Thereafter, the U / I unit 151 refers to the similarity with the query image obtained for each image to be searched by the matching engine 153, and displays the images to be searched in the order of, for example, the highest similarity (smallest value). 25 images are displayed in the image display field 202 (S1204).

このように、粗さの異なる特徴量を複数選択して画像検索処理を実行することができるようにすることにより、特定の粗さの特徴量を一つ用いる場合に比べて、検索に対する視点が異なる様々な方法で検索処理を実行することが可能となる。なお、詳細な説明については省略するが、特徴量として「構造」や他の種類の特徴量が指定された場合にあっても、同様な処理で検索処理を行うことができる。   As described above, by selecting a plurality of feature quantities having different roughnesses and performing the image search process, the viewpoint for the search can be compared with a case where one feature quantity having a specific roughness is used. Search processing can be executed by various different methods. Although detailed description is omitted, even when “structure” or another type of feature quantity is designated as the feature quantity, the search process can be performed by the same process.

▲4▼ 複数種類の特徴量が指定された場合
特徴指定欄209において複数種類の特徴量が指定された場合、特徴抽出エンジン152は、検索ウインドウ200gで指定された種類およびレベルの特徴量を問合せ画像からそれぞれ抽出する(S1202)。例えば、構造および色の特徴量が指定された場合、特徴抽出エンジン152は、問合せ画像から、構造の特徴量について該当する粗さレベルの特徴量を抽出すると共に、色の特徴量について該当するレベルの特徴量を抽出する(図22参照)。
(4) When multiple types of feature quantities are specified When multiple types of feature quantities are specified in the feature specification field 209, the feature extraction engine 152 inquires about the feature quantities of the types and levels specified in the search window 200g. Each is extracted from the image (S1202). For example, when structure and color feature quantities are specified, the feature extraction engine 152 extracts feature quantities having a roughness level corresponding to the structure feature quantities from the query image, and also applies levels corresponding to the color feature quantities. Are extracted (see FIG. 22).

そして、マッチング・エンジン153は、検索対象の画像毎に、問合せ画像との類似度を特徴量の種類毎に求め、求めた特徴量の種類毎の類似度を用いて、問合せ画像との最終的な類似度を決定する(S1203)。   Then, the matching engine 153 obtains the similarity to the query image for each type of feature amount for each image to be searched, and finally uses the similarity for each type of feature amount to obtain the final query image. The similarity is determined (S1203).

最終的な類似度の決定方法としては、例えば以下のような方法が考えられる。
▲4▼−1 特徴量の種類毎に求めた類似度の二乗和により、問合せ画像との最終的な類似度を決定する(AND検索の変形)。
▲4▼−2 特徴量の種類毎に求めた類似度を合計することにより、問合せ画像との最終的な類似度を決定する(AND検索を参照)。この方法を用いる場合は、複数種類の特徴量に応じたAND検索を実行することが可能となる。
▲4▼−3 特徴量の種類毎に求めた類似度の中から最も高い(値の小さい)類似度を選択することにより、問合せ画像との最終的な類似度を決定する(OR検索を参照)。この方法を用いる場合は、複数種類の特徴量に応じたOR検索を実行することが可能となる。
なお、▲4▼−1〜▲4▼−3のいずれの方法を利用するかを検索ウインドウ200gで指定することができるようにしても良い。
As a final similarity determination method, for example, the following method can be considered.
(4) -1 The final similarity with the query image is determined based on the sum of squares of the similarity obtained for each type of feature quantity (deformation of AND search).
{Circle around (4) -2} The final similarity with the query image is determined by summing up the similarities obtained for each type of feature amount (see AND search). When this method is used, an AND search according to a plurality of types of feature amounts can be executed.
(4) -3 The final similarity with the query image is determined by selecting the highest similarity (smallest value) from the similarities obtained for each type of feature amount (see OR search) ). When this method is used, an OR search corresponding to a plurality of types of feature amounts can be executed.
Note that it may be possible to specify in the search window 200g which method (4) -1 to (4) -3 is to be used.

また、例えば、問合せ画像が一つ、構造および色の特徴量ならびに粗さレベル1および2が指定された場合には、検索対象の画像毎に、レベル1の構造の特徴量を用いて得た類似度,レベル2の構造の特徴量を用いて得た類似度,レベル1の色の特徴量を用いて得た類似度およびレベル2の色の特徴量を用いて得た類似度が得られることになる。このような場合、得られた全ての類似度を合計して問合せ画像との最終的な類似度を決定することにしても良いし(▲4▼−2(▲4▼−1)の方法を参照)、得られた類似度の中から最も高い(値の小さい)類似度を選択して問合せ画像との最終的な類似度を決定することにしても良い(▲4▼−3の方法を参照)。また、これに代えて、特徴量の種類毎に各レベルの類似度を合計し、または各レベルの類似度の中から最も高い(値の小さい)類似度を選択して、特徴量の種類毎の問合せ画像に対する類似度を求めた後、前述した▲4▼−1〜▲4▼−3のいずれかの方法を用いて問合せ画像との最終的な類似度を決定することにしても良い。   Further, for example, when one query image is specified and the feature amount of structure and color and roughness levels 1 and 2 are specified, the feature amount of the structure of level 1 is obtained for each image to be searched. Similarity, similarity obtained using level 2 structure features, similarity obtained using level 1 color features, and similarity obtained using level 2 color features It will be. In such a case, all the similarities obtained may be summed to determine the final similarity with the query image (the method of (4) -2 (4) -1). Reference), the highest similarity (smallest value) may be selected from the obtained similarities, and the final similarity with the inquiry image may be determined (method (4) -3). reference). Alternatively, the similarity of each level is totaled for each type of feature quantity, or the highest (smallest value) similarity is selected from the similarity levels of each level, and each feature quantity type is selected. After obtaining the similarity to the query image, the final similarity to the query image may be determined using any one of the methods (4) -1 to (4) -3 described above.

その後、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い(値の小さい)順に検索対象の画像を図25の画像表示欄202に表示する(S1204)。   Thereafter, the U / I unit 151 refers to the overall similarity obtained for each image to be searched by the matching engine 153, and, for example, selects the images to be searched in descending order of the overall similarity (value is small). The image is displayed in the image display field 202 (S1204).

▲5▼ 複数の問合せ画像が指定された場合
複数の問合せ画像が指定された場合、特徴抽出エンジン152は、検索ウインドウ200gで指定された種類およびレベルの特徴量を各問合せ画像からそれぞれ抽出する(S1202)。そして、マッチング・エンジン153は、▲1▼〜▲4▼のいずれかの項で説明したようにして検索対象の画像毎に各問合せ画像との類似度を求めた後、検索対象の画像の総合類似度を求める(S1203)。
(5) When a plurality of query images are designated When a plurality of query images are designated, the feature extraction engine 152 extracts the feature quantity of the type and level designated in the search window 200g from each query image ( S1202). Then, the matching engine 153 obtains the similarity to each inquiry image for each image to be searched as described in any one of items (1) to (4), and then combines the images to be searched. The similarity is obtained (S1203).

総合類似度を求める方法としては、例えば以下のような方法がある。
▲5▼−1 各検索対象の画像毎に、各問合せ画像との類似度の二乗和を総合類似度とする(AND検索の変形)。
▲5▼−2 各検索対象の画像毎に、各問合せ画像との類似度を合計して総合類似度とする(AND検索を参照)。この方法を用いる場合は、AND検索を実行することが可能となる。
▲5▼−3 各検索対象の画像毎に、各問合せ画像との類似度の中から最も高い(値の小さい)類似度を選択して総合類似度とする(OR検索を参照)。この方法を用いる場合は、OR検索を実行することが可能となる。
As a method for obtaining the overall similarity, for example, there are the following methods.
(5) -1 For each image to be searched, the sum of squares of the similarity with each query image is set as the total similarity (deformation of AND search).
{Circle around (5)}-2 For each image to be searched, the similarity with each query image is totaled to obtain the total similarity (see AND search). When this method is used, an AND search can be executed.
(5) -3 For each image to be searched, the highest similarity (smallest value) is selected from the similarities to the respective query images to obtain the total similarity (see OR search). When this method is used, an OR search can be executed.

なお、▲5▼−1〜▲5▼−3のいずれの方法を利用するかを検索ウインドウ200gで指定することができるようにしても良い。   It should be noted that any one of methods (5) -1 to (5) -3 may be specified in the search window 200g.

その後、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い(値の小さい)順に検索対象の画像を図25の画像表示欄202に表示する(S1204)。   Thereafter, the U / I unit 151 refers to the overall similarity obtained for each image to be searched by the matching engine 153, and, for example, selects the images to be searched in descending order of the overall similarity (value is small). The image is displayed in the image display field 202 (S1204).

以上説明したように、実施の形態12に係る画像検索装置によれば、問合せ画像を少なくとも一つ指定すると共に、画像から抽出する特徴量の粗さのレベルを粗から細に向かって段階的に定義した抽出基準に基づいて、検索に利用する特徴量の粗さのレベルを少なくとも一つ指定し、抽出基準に基づいて、問合せ画像および複数の検索対象の画像から少なくとも指定された粗さのレベルに該当する特徴量を所定のタイミングで抽出し、検索対象の画像毎に、指定された粗さのレベルに応じた特徴量を用いて問合せ画像との類似度を求め、検索対象の画像毎に求めた類似度に基づいて検索結果を出力するため、検索精度の異なる複数種類の検索処理を実行することが可能となる。すなわち、ユーザが検索に使用する特徴量の粗さのレベルを少なくとも一つ指定することができるため、検索に対するユーザの視点の細かさを検索条件として表現でき、ユーザの意図を検索条件として正確に表現することができる。したがって、ユーザが望む通りの画像検索処理を行うことが可能となる。   As described above, according to the image search device according to the twelfth embodiment, at least one inquiry image is specified, and the roughness level of the feature amount extracted from the image is gradually increased from coarse to fine. Based on the defined extraction criteria, specify at least one roughness level of the feature quantity used for the search, and based on the extraction criteria, specify at least the roughness level specified from the query image and multiple search target images The feature amount corresponding to is extracted at a predetermined timing, the similarity with the query image is obtained for each search target image using the feature amount according to the specified roughness level, and for each search target image. Since the search result is output based on the obtained similarity, it is possible to execute a plurality of types of search processes with different search accuracy. In other words, since the user can specify at least one level of roughness of the feature amount used for the search, the fineness of the user's viewpoint for the search can be expressed as a search condition, and the user's intention can be accurately set as the search condition Can be expressed. Therefore, it is possible to perform image search processing as desired by the user.

なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。また、特徴量の種類を構造および色としたが、構造のみ、または色のみを用いることにしても良いし、他の種類の特徴量を用いることにしても良い。また、複数の問合せ画像や複数種類の特徴量を指定する場合に、他の実施の形態で説明したように重要度を指定することができるようにしても良い。   As a result of referring to the image of the search result displayed in the image display column 202, if a narrowed search is desired, the image displayed in the image display column 202 is designated as an inquiry image and the same search process is performed. You can also. Further, although the type of feature amount is the structure and color, only the structure or only the color may be used, or another type of feature amount may be used. Further, when a plurality of inquiry images or a plurality of types of feature quantities are designated, the importance may be designated as described in other embodiments.

また、実施の形態12においては、画像を何分割するかによって特徴量の粗さを定義することにしたが、画像のみではなく、画像中に存在するオブジェクトも特徴量の抽出対象とし、オブジェクトを何分割するかによってオブジェクト単位の特徴量の粗さを定義することにしても良い。画像中に存在するオブジェクトも特徴量の抽出対象とする場合の検索処理は、前述した検索処理と同様であるため、ここでは詳細な説明を省略する。   In the twelfth embodiment, the roughness of the feature amount is defined depending on how many images are divided. However, not only the image but also an object existing in the image is a feature amount extraction target, You may decide to define the roughness of the feature-value of an object unit by how many parts are divided | segmented. The search process when an object existing in an image is also a feature amount extraction target is the same as the search process described above, and thus detailed description thereof is omitted here.

さらに、前述したように、画像を分割して得た分割画像毎に特徴量を抽出することを利用して、以下のような画像検索処理を実現することも可能である。ここでは、説明の便宜上、画像を4分割する場合を例として、実施の形態12に係る画像検索装置の変形例を説明する。   Further, as described above, it is possible to realize the following image search processing by using the feature amount extraction for each divided image obtained by dividing the image. Here, for convenience of explanation, a modification of the image search device according to the twelfth embodiment will be described using an example in which an image is divided into four.

(変形例1)
前述した実施の形態12においては、問合せ画像および検索対象の画像の分割画像をそれぞれ一対一対応で比較して類似度を求めることにより、問合せ画像および検索対象の画像の類似度を求めていた。これに対し、変形例1は、例えば、図27に示すように問合せ画像の分割画像の一つを指定し、指定した分割画像と検索対象の画像の各分割画像との類似度を求めることにより、検索対象の画像の中から、問合せ画像の特定の分割画像と類似する分割画像を有する画像を探し出すことができるようにするものである。
(Modification 1)
In the above-described twelfth embodiment, the similarity between the inquiry image and the search target image is obtained by comparing the inquiry image and the divided images of the search target image in a one-to-one correspondence to obtain the similarity. On the other hand, in the first modification, for example, as shown in FIG. 27, one of the divided images of the inquiry image is designated, and the similarity between the designated divided image and each divided image of the search target image is obtained. Thus, an image having a divided image similar to the specific divided image of the inquiry image can be found from the search target images.

(変形例2)
変形例2は、例えば、図28に示すように、問合せ画像全体と検索対象の画像の各分割画像との類似度を求めることにより、検索対象の画像の中から、問合せ画像を含む画像を探し出すことができるようにするものである。
(Modification 2)
In the second modification, for example, as shown in FIG. 28, an image including the query image is searched from the search target images by obtaining the similarity between the entire query image and each divided image of the search target image. Is to be able to.

詳細な説明については省略するが、このような変形例1および変形例2のような検索処理を可能とすることにより、様々な方法で画像の検索を行うことが可能となる。   Although detailed description is omitted, by enabling such search processing as in the first modification and the second modification, it is possible to search for an image by various methods.

〔実施の形態13〕
実施の形態13に係る画像検索装置は、検索対象の画像の中から、問合せ画像を含む画像を探し出すことができるようにすることにより、前述した実施の形態1〜12と異なる視点で画像検索を行うことを可能にするものである。なお、実施の形態13に係る画像検索装置において、実施の形態1で既に説明した構成については同一の符号を使用して詳細な説明を省略し、画像検索処理についても共通する点については適宜説明を省略する。
[Embodiment 13]
The image search device according to the thirteenth embodiment enables an image search from a different viewpoint from the above-described first to twelfth embodiments by enabling an image including an inquiry image to be found from among search target images. It is possible to do. Note that in the image search device according to the thirteenth embodiment, the same reference numerals are used for the configurations already described in the first embodiment, and detailed description thereof is omitted, and common points regarding the image search processing are also described as appropriate. Is omitted.

具体的に、実施の形態13に係る画像検索装置は、問合せ画像を少なくとも一つ指定し、検索対象の画像毎に、検索対象の画像中の所定のサイズの領域と問合せ画像との類似度を予め抽出した所定の特徴量を用いて求める処理を検索対象の画像全体にわたって繰り返し実行することにより、検索対象の画像の中から、問合せ画像を含む画像を探し出すことができるようにするものである。   Specifically, the image search device according to the thirteenth embodiment designates at least one inquiry image, and for each search target image, determines the similarity between a region of a predetermined size in the search target image and the query image. By repeatedly executing the processing to be obtained using a predetermined feature amount extracted in advance over the entire image to be searched, an image including an inquiry image can be found from the images to be searched.

実施の形態13に係る画像検索装置において、検索対象の画像中の所定のサイズの領域と問合せ画像との類似度を予め抽出した所定の特徴量を用いて求める処理については様々な手法を用いることが可能であるが、ここでは図29および図30に示すような手法を用いることにする。例えば、図29に示すように、問合せ画像を4分割して分割画像a〜dを生成し、各分割画像から所定の種類の特徴量を抽出し、また、検索対象の画像を16分割して分割画像A〜Pを生成し、各分割画像から問合せ画像の場合と同様の種類の特徴量を抽出する。ただし、問合せ画像および検索対象の画像の分割数を、それぞれ8および16に限定するものではなく、問合せ画像の分割数<検索対象の画像の分割数という関係にあれば良い。そして、各分割画像から抽出した特徴量を用いて、図30(a)〜図30(i)に示すように、問合せ画像と検索対象の画像の一部との類似度を順次求める。図30は、それぞれ図29に示した検索対象の画像を示し、検索対象の画像中の斜線部分は問合せ画像と比較されている領域に該当する。なお、問合せ画像および検索対象の画像の分割数を逆にすれば(例えば、問合せ画像を16分割し、検索対象の画像を8分割する。すなわち、問合せ画像の分割数>検索対象の画像の分割数)、問合せ画像中に含まれている画像を検索することが可能となる。   In the image search device according to the thirteenth embodiment, various methods are used for the process of obtaining the similarity between a predetermined size area in a search target image and a query image using a predetermined feature amount extracted in advance. Here, a technique as shown in FIGS. 29 and 30 is used. For example, as shown in FIG. 29, the query image is divided into four to generate divided images a to d, a predetermined type of feature amount is extracted from each divided image, and the search target image is divided into 16 parts. The divided images A to P are generated, and the same type of feature quantity as that of the query image is extracted from each divided image. However, the number of divisions of the query image and the search target image is not limited to 8 and 16, respectively, but may be a relationship that the number of query image divisions <the number of search target image divisions. Then, using the feature amount extracted from each divided image, as shown in FIGS. 30A to 30I, the similarity between the query image and a part of the search target image is sequentially obtained. FIG. 30 shows the image to be searched shown in FIG. 29, and the hatched portion in the image to be searched corresponds to an area compared with the query image. Note that if the number of divisions of the query image and the search target image is reversed (for example, the query image is divided into 16 and the search target image is divided into 8. That is, the number of query image divisions> division of the search target image Number), it is possible to search for an image included in the inquiry image.

以下、実施の形態13に係る画像検索装置による画像検索処理について具体的に説明する。なお、前提として、少なくとも検索対象の画像については、図29に示したように各分割画像からそれぞれ特徴量が抽出されているものとする。特徴量を抽出する具体的な処理については、実施の形態12で説明した通りであるため、ここでは詳細な説明を省略する。また、抽出する特徴量の種類は、色,構造等いかなるものであっても良い。   The image search process performed by the image search apparatus according to Embodiment 13 will be specifically described below. As a premise, it is assumed that at least an image to be searched has feature values extracted from each divided image as shown in FIG. The specific processing for extracting the feature amount is as described in the twelfth embodiment, and thus detailed description thereof is omitted here. Further, the type of feature quantity to be extracted may be any color, structure, or the like.

図31は、実施の形態13に係る画像検索処理のフローチャートであり、図32は、検索ウインドウ200hの一例を示す説明図である。ユーザは、図32に示す画像指定欄A〜Cのいずれかに問合せ画像を少なくとも一つ指定する(S1301)。ここでは、説明を単純にするために、問合せ画像が一つ指定されたものとする。   FIG. 31 is a flowchart of image search processing according to the thirteenth embodiment, and FIG. 32 is an explanatory diagram showing an example of a search window 200h. The user designates at least one inquiry image in any of the image designation fields A to C shown in FIG. 32 (S1301). Here, in order to simplify the description, it is assumed that one inquiry image is designated.

続いて、ユーザが図32の検索ボタン201を指定すると、U/I部151は、問合せ画像を特徴抽出エンジン152に入力し、特徴抽出エンジン152は、問合せ画像から所定の種類の特徴量を抽出する(S1302)。特徴抽出エンジン152は、図29に示したように、問合せ画像を分割して分割画像a〜dを生成し、各分割画像から所定の種類の特徴量を抽出する。ただし、ユーザによって指定された問合せ画像から既に特徴量が抽出されている場合には、このステップS1302の処理をスキップすることができる。   Subsequently, when the user designates the search button 201 in FIG. 32, the U / I unit 151 inputs an inquiry image to the feature extraction engine 152, and the feature extraction engine 152 extracts a predetermined type of feature amount from the inquiry image. (S1302). As shown in FIG. 29, the feature extraction engine 152 divides the inquiry image to generate divided images a to d, and extracts a predetermined type of feature amount from each divided image. However, when the feature amount has already been extracted from the inquiry image designated by the user, the processing in step S1302 can be skipped.

そして、マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、特徴抽出エンジン152で抽出した特徴量を用い、検索対象の画像中の所定の領域と問合せ画像との類似度を求める処理を検索対象の画像の全体にわたって実行し、問合せ画像との類似度を求める(S1303)。   Then, the matching engine 153 uses the feature amount extracted by the feature extraction engine 152 for each search target image registered in the image DB 108, and uses the similarity between a predetermined region in the search target image and the query image. Is performed over the entire search target image, and the similarity to the query image is obtained (S1303).

このステップS1303において実行される処理の一例について、図30を参照しつつ詳細に説明する。例えば、図30(a)に着目して説明すると、マッチング・エンジン153は、特徴抽出エンジン152で予め抽出した問合せ画像および検索対象の画像の各分割画像の特徴量を用いて、
・問合せ画像の分割画像aと検索対象の画像の分割画像Aとの類似度
・問合せ画像の分割画像bと検索対象の画像の分割画像Bとの類似度
・問合せ画像の分割画像cと検索対象の画像の分割画像Eとの類似度
・問合せ画像の分割画像dと検索対象の画像の分割画像Fとの類似度
をそれぞれ求める。換言すれば、図4に示した特徴量空間中にプロットされた分割画像同士の距離を各特徴毎に定義された距離定義式を用いて求める。ここでは4つの分割画像毎に類似度を求めるため、4つの類似度が得られることになる。
An example of the process executed in step S1303 will be described in detail with reference to FIG. For example, with reference to FIG. 30A, the matching engine 153 uses the feature amount of each divided image of the query image and the search target image extracted in advance by the feature extraction engine 152, and
The similarity between the divided image a of the inquiry image and the divided image A of the search target image The similarity between the divided image b of the inquiry image and the divided image B of the search target image The divided image c of the inquiry image and the search target The similarity between the divided image E and the divided image E of the inquiry image and the divided image F of the image to be searched are obtained. In other words, the distance between the divided images plotted in the feature amount space shown in FIG. 4 is obtained using the distance definition formula defined for each feature. Here, since the similarity is obtained for each of the four divided images, four similarities are obtained.

続いて、マッチング・エンジン153は、求めた4つの類似度を用いて、図30(a)に示した検索対象の画像の領域と問合せ画像との類似度を決定する。類似度の決定方法としては、例えば以下のような方法が考えられる。
▲1▼−1 4つの類似度の二乗和により検索対象の画像の領域と問合せ画像との類似度を決定する。
▲1▼−2 4つの類似度を合計することにより、検索対象の画像の領域と問合せ画像との類似度を決定する(AND検索を参照)。
▲1▼−3 4つの類似度の中から最も高い(値の小さい)類似度を選択することにより、検索対象の画像の領域と問合せ画像との類似度を決定する(OR検索を参照)。
なお、▲1▼−1〜▲1▼−3のいずれの方法を利用するかを検索ウインドウ200hで指定することができるようにしても良い。
Subsequently, the matching engine 153 determines the similarity between the area of the search target image shown in FIG. 30A and the query image using the obtained four similarities. As a method for determining the similarity, for example, the following method can be considered.
(1) -1 The similarity between the area of the image to be searched and the query image is determined by the sum of squares of the four similarities.
{Circle around (1)}-2 The sum of the four similarities is used to determine the similarity between the image area to be searched and the query image (see AND search).
(1) -3 By selecting the highest (smallest value) similarity among the four similarities, the similarity between the area of the image to be searched and the query image is determined (see OR search).
Note that it may be possible to specify in the search window 200h which method (1) -1 to (1) -3 is to be used.

マッチング・エンジン153は、図30(b)〜図30(i)に示す場合についても前述した処理を実行し、検索対象の画像の各領域と問合せ画像との類似度を決定する。   The matching engine 153 also performs the above-described processing for the cases shown in FIGS. 30B to 30I, and determines the similarity between each region of the search target image and the query image.

図30(a)〜図30(i)のように、検索対象の画像の各領域と問合せ画像との類似度を求めた結果、検索対象の画像毎に、問合せ画像との9つの類似度が得られることになる。そこで、マッチング・エンジン153は、検索対象の画像毎に、9つの類似度を用いて問合せ画像との最終的な類似度を決定する処理を実行する。最終的な類似度の決定方法としては、例えば以下のような方法が考えられる。   As shown in FIGS. 30A to 30I, as a result of obtaining the similarity between each region of the search target image and the query image, nine similarities with the query image are obtained for each search target image. Will be obtained. Therefore, the matching engine 153 executes a process of determining the final similarity with the query image using nine similarities for each image to be searched. As a final similarity determination method, for example, the following method can be considered.

▲2▼−1 9つの類似度の二乗和により、検索対象の画像と問合せ画像との最終的な類似度を決定する(AND検索の変形)。
▲2▼−2 9つの類似度を合計することにより、検索対象の画像と問合せ画像との最終的な類似度を決定する(AND検索を参照)。
▲2▼−3 9つの類似度の中から最も高い(値の小さい)類似度を選択することにより、検索対象の画像と問合せ画像との最終的な類似度を決定する(OR検索を参照)。
なお、▲2▼−1〜▲2▼−3のいずれの方法を利用するかを検索ウインドウ200hで指定することができるようにしても良い。
{Circle around (2)}-1 The final similarity between the search target image and the query image is determined based on the sum of squares of the nine similarities (deformation of AND search).
(2) -2 The final similarity between the search target image and the query image is determined by adding the nine similarities (see AND search).
(2) -3 The final similarity between the search target image and the query image is determined by selecting the highest (smallest value) similarity among the nine similarities (see OR search). .
Note that it may be possible to specify in the search window 200h which method (2) -1 to (2) -3 is to be used.

図31のフローチャートの説明に戻り、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた問合せ画像との最終的な類似度を参照し、例えば類似度の高い順に検索対象の画像を図32の画像表示欄202に表示する(S1304)。ここでは類似度として検索対象の画像と問合せ画像との特徴量間の距離を用いているため、実際には、類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、類似度は0以上の値を持ち、類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。   Returning to the description of the flowchart in FIG. 31, the U / I unit 151 refers to the final similarity with the query image obtained for each image to be searched by the matching engine 153, and performs a search, for example, in descending order of similarity. The target image is displayed in the image display field 202 of FIG. 32 (S1304). Here, since the distance between the feature quantities of the search target image and the query image is used as the similarity, the search target images are actually displayed in the image display column 202 in ascending order of the similarity value. become. That is, the similarity has a value of 0 or more. When the similarity is 0, it means that the feature amount of each query image and the feature amount of the search target image are equal.

なお、以上の説明は、指定された問合せ画像が一つで検索に用いられる特徴量の種類も一種類であったが、複数種類の特徴量を用いることもできるし、問合せ画像を複数指定することもできる。   In the above description, only one specified query image is used and one type of feature amount is used for the search. However, a plurality of types of feature amounts can be used, and a plurality of query images are specified. You can also.

そこで、複数種類の特徴量を用いる場合の処理の一例を簡単に説明する。マッチング・エンジン153は、前述したように、同一種類の特徴量毎に検索対象の画像と問合せ画像との類似度を求める。そして、マッチング・エンジン153は、例えば以下のような方法で異なる種類の特徴量毎に求めた類似度を用いて、検索対象の画像毎に、問合せ画像との類似度を決定することができる。   Therefore, an example of processing when a plurality of types of feature amounts are used will be briefly described. As described above, the matching engine 153 obtains the similarity between the search target image and the query image for each feature quantity of the same type. Then, the matching engine 153 can determine the similarity to the query image for each image to be searched, using the similarity obtained for each of different types of feature amounts by the following method, for example.

▲3▼−1 特徴量の種類毎に求めた類似度の二乗和により、問合せ画像との最終的な類似度を決定する(AND検索の変形)。
▲3▼−2 特徴量の種類毎に求めた類似度を合計することにより、問合せ画像との最終的な類似度を決定する。この方法を用いる場合は、複数種類の特徴量に応じたAND検索を実行することが可能となる。
▲3▼−3 特徴量の種類毎に求めた類似度の中から最も高い(値の小さい)類似度を選択することにより、問合せ画像との最終的な類似度を決定する。この方法を用いる場合は、複数種類の特徴量に応じたOR検索を実行することが可能となる。
なお、▲3▼−1〜▲3▼−3のいずれの方法を利用するかを検索ウインドウ200hで指定することができるようにしても良い。
(3) -1 The final similarity with the query image is determined based on the sum of squares of the similarity obtained for each type of feature quantity (deformation of AND search).
(3) -2 The final similarity to the inquiry image is determined by summing up the similarities obtained for each type of feature quantity. When this method is used, an AND search according to a plurality of types of feature amounts can be executed.
(3) -3 The final similarity with the query image is determined by selecting the highest similarity (smallest value) from the similarities obtained for each type of feature quantity. When this method is used, an OR search corresponding to a plurality of types of feature amounts can be executed.
Note that it may be possible to specify in the search window 200h which method (3) -1 to (3) -3 is to be used.

また、複数の問合せ画像が指定された場合の処理の一例を簡単に説明する。マッチング・エンジン153は、前述したように、検索対象の画像と各問合せ画像との類似度を求める。そして、マッチング・エンジン153は、例えば以下のような方法を用いて、検索対象の画像毎に、各問合せ画像に対する検索対象の画像の類似度を決定することができる。   An example of processing when a plurality of inquiry images are specified will be briefly described. As described above, the matching engine 153 obtains the similarity between the search target image and each query image. The matching engine 153 can determine the similarity of the search target image with respect to each query image for each search target image, for example, using the following method.

▲4▼−1 各検索対象の画像毎に、各問合せ画像との類似度の二乗和を検索対象の画像の総合類似度とする(AND検索の変形)。この方法を用いると、問合せ画像としての複数の画像を含む画像を検索することが可能となる。
▲4▼−2 各検索対象の画像毎に、各問合せ画像との類似度を合計して検索対象の画像の総合類似度とする。この方法を用いる場合は、複数の問合せ画像を用いたAND検索を実行することが可能となる。すなわち、問合せ画像としての複数の画像を含む画像を検索することが可能となる。
▲4▼−3 各検索対象の画像毎に、各問合せ画像との類似度の中から最も高い(値の小さい)類似度を選択して検索対象の画像の総合類似度とする。この方法を用いる場合は、複数の問合せ画像を用いたOR検索を実行することが可能となる。すなわち、問合せ画像としての複数の画像のいずれかを含む画像を検索することができる。
なお、▲4▼−1〜▲4▼−3のいずれの方法を利用するかを検索ウインドウ200hで指定することができるようにしても良い。
(4) -1 For each image to be searched, the sum of squares of the similarity with each query image is set as the total similarity of the images to be searched (deformation of AND search). By using this method, it is possible to search for an image including a plurality of images as an inquiry image.
(4) -2 For each image to be searched, the similarity with each query image is summed to obtain the total similarity of the images to be searched. When this method is used, an AND search using a plurality of query images can be executed. That is, it is possible to search for an image including a plurality of images as an inquiry image.
(4) -3 For each image to be searched, the highest similarity (with a small value) is selected from the similarities to each query image to obtain the total similarity of the images to be searched. When this method is used, an OR search using a plurality of inquiry images can be executed. That is, it is possible to search for an image including any one of a plurality of images as an inquiry image.
It should be noted that any one of the methods (4) -1 to (4) -3 may be specified in the search window 200h.

以上説明したように、実施の形態13に係る画像検索装置によれば、問合せ画像を少なくとも一つ指定し、検索対象の画像毎に、検索対象の画像中の所定のサイズの領域と指定された問合せ画像との類似度を予め抽出した所定の特徴量を用いて求める処理を検索対象の画像全体にわたって繰り返し実行し、検索対象の画像毎に求めた類似度に基づいて検索結果を出力するため、検索対象の画像の中から、問合せ画像を含む画像を探し出すことができる。したがって、ユーザの意図するような画像検索を実現する一つの手法を提供することができる。   As described above, according to the image search device according to the thirteenth embodiment, at least one query image is specified, and each search target image is specified as a region of a predetermined size in the search target image. In order to repeatedly execute the process of obtaining the similarity with the query image using a predetermined feature amount extracted in advance over the entire image to be searched, and to output a search result based on the similarity obtained for each image to be searched. An image including the inquiry image can be found from the search target images. Therefore, it is possible to provide one method for realizing an image search as intended by the user.

なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。また、複数の問合せ画像や複数種類の特徴量を指定する場合に、他の実施の形態で説明したように重要度を指定することができるようにしても良い。   As a result of referring to the image of the search result displayed in the image display column 202, if a narrowed search is desired, the image displayed in the image display column 202 is designated as an inquiry image and the same search process is performed. You can also. Further, when a plurality of inquiry images or a plurality of types of feature quantities are designated, the importance may be designated as described in other embodiments.

〔実施の形態14〕
続いて、本発明に係る画像分類装置について説明する。この画像分類装置は、前述した画像検索装置と同様に、画像間の類似度を用いて画像を分類するものである。画像を予め分類しておくことで、分類を辿るだけでユーザが所望する画像を探し出すことができる。こうすることで画像検索とは異なる方法で容易にユーザの所望する画像を探すことが可能となる。
[Embodiment 14]
Next, the image classification device according to the present invention will be described. This image classification device classifies images using similarity between images, as in the image search device described above. By classifying images in advance, it is possible to search for a desired image by simply following the classification. By doing so, it is possible to easily search for an image desired by the user by a method different from the image search.

本発明の実施の形態14に係る画像分類装置は、実施の形態1で説明した画像検索処理を応用して画像を分類するものである。したがって、実施の形態1で説明した点と共通する点については適宜説明を省略することにする。   The image classification device according to the fourteenth embodiment of the present invention classifies images by applying the image search processing described in the first embodiment. Therefore, description of points that are the same as those described in Embodiment 1 will be omitted as appropriate.

図33は、実施の形態14に係る画像分類装置のブロック構成図である。図33において、図1に示した画像検索装置と同一の構成については同一の符号を付し、ここでは異なる点についてのみ説明する。図33に示す画像分類装置は、図1に示した画像検索装置と異なる点として、本発明の画像分類装置としての機能をCPU101(コンピュータ100)に実行させるための画像分類ソフト301と、分類項目(後述するフォルダ),分類対象の画像を各分類項目に分類するための分類条件,分類した結果の画像情報等が登録される分類木DB302と、を備えている。   FIG. 33 is a block configuration diagram of an image classification device according to the fourteenth embodiment. 33, the same components as those in the image search apparatus shown in FIG. 1 are denoted by the same reference numerals, and only different points will be described here. The image classification apparatus shown in FIG. 33 differs from the image search apparatus shown in FIG. 1 in that image classification software 301 for causing the CPU 101 (computer 100) to execute the function as the image classification apparatus of the present invention, and classification items (Folder described later), a classification condition for classifying images to be classified into classification items, and a classification tree DB 302 in which image information of the classification result is registered.

図34は、図33に示した画像分類装置において実行される処理を示すブロック図であり、図2に対応するものである。ユーザ・インターフェイス(U/I)部151(本発明の設定手段,指定手段および表示手段に該当する)は、ユーザに対して画像分類を行うための分類項目設定画面,分類結果表示画面等を表示して、分類条件の入力,分類結果の出力処理等を実行する。特徴抽出エンジン152は、画像DB108に登録する画像(分類対象の画像)および後述する分類基準として設定される画像から画像の特徴量を抽出する処理を実行する。さらに、マッチング・エンジン153(本発明の演算手段,決定手段,分類手段および検索手段に該当する)は、基準画像と分類対象の画像との類似度を求め、求めた類似度に基づいて分類対象の画像の分類先となる分類項目を決定する処理(例えば、分類木DB302に登録された分類項目に画像のIDを登録して分類する)を実行する。   34 is a block diagram showing processing executed in the image classification apparatus shown in FIG. 33, and corresponds to FIG. A user interface (U / I) unit 151 (corresponding to the setting means, specifying means, and display means of the present invention) displays a classification item setting screen, a classification result display screen, etc. for performing image classification for the user. Then, classification condition input, classification result output processing, and the like are executed. The feature extraction engine 152 executes a process of extracting image feature amounts from images registered in the image DB 108 (classification target images) and images set as classification criteria described later. Further, the matching engine 153 (corresponding to the calculation means, determination means, classification means, and search means of the present invention) obtains the similarity between the reference image and the image to be classified, and classifies the object based on the obtained similarity. A process for determining a classification item to be a classification destination of the image (for example, registering and classifying an image ID in a classification item registered in the classification tree DB 302) is executed.

つぎに、前述した構成を有する画像分類装置の動作について、
(1)分類項目設定処理
(2)画像分類処理
の順で説明する。ここでは画像DB108に登録された複数の画像を分類対象の画像とする。また、画像を分類する際に用いる特徴量は画像の色,構造およびテクスチャであり、画像DB108中の分類対象の画像からは、図3を用いて実施の形態1で説明した処理によって既に各種類の特徴量が抽出されているものとする。
Next, regarding the operation of the image classification apparatus having the above-described configuration,
(1) Classification item setting processing (2) Image classification processing will be described in this order. Here, a plurality of images registered in the image DB 108 are classified images. Further, the feature amounts used when classifying the images are the color, structure and texture of the image. From the images to be classified in the image DB 108, the types of features have already been obtained by the processing described in the first embodiment with reference to FIG. It is assumed that the feature amount is extracted.

(1)分類項目設定処理
図35は、画像の分類項目の設定処理や分類後の画像の表示を行うための画像分類ウインドウ350aの一例を示す説明図である。図34のU/I部151は、ユーザによって画像分類ウインドウ350aの表示が指定されると、図35に示すような画像分類ウインドウ350aを表示し、ユーザの指示に応じて後述するフォルダの作成や分類条件の設定等の処理を実行する。
(1) Classification Item Setting Processing FIG. 35 is an explanatory diagram showing an example of an image classification window 350a for performing image classification item setting processing and display of images after classification. When the display of the image classification window 350a is designated by the user, the U / I unit 151 in FIG. 34 displays an image classification window 350a as shown in FIG. Processing such as classification condition setting is executed.

この図35には、既に画像を管理するための項目(以下「フォルダ」と記述する)が設定されている様子が示されているが、ここではルートに当たる画像DBフォルダ351のみが存在しているものと仮定し、各フォルダを設定する処理を説明する。   FIG. 35 shows a state in which items for managing images (hereinafter referred to as “folders”) are already set. Here, only the image DB folder 351 corresponding to the root exists. Assuming that this is the case, a process for setting each folder will be described.

図35中の画像DBフォルダ351は、画像DB108中に登録された画像の全てを管理するフォルダである。なお、この画像DBフォルダ351の設定を変更することにより、分類対象の画像を画像DB中の画像から別の画像に変更することができる。例えば、実施の形態1〜13で説明した画像検索装置で検索した結果の画像を指定して分類することも可能である。   An image DB folder 351 in FIG. 35 is a folder for managing all the images registered in the image DB 108. Note that by changing the setting of the image DB folder 351, the image to be classified can be changed from the image in the image DB to another image. For example, it is also possible to specify and classify the images obtained as a result of retrieval by the image retrieval apparatus described in the first to thirteenth embodiments.

ユーザは、この画像DBフォルダ351の下位に画像DB108の画像を分類する分類先となる新たなフォルダを設定する。例えば、ユーザは、図示しないメニューから「フォルダ作成」を選択し、画像DBフォルダ351の下位にフォルダ352を作成する。   The user sets a new folder as a classification destination for classifying the images in the image DB 108 under the image DB folder 351. For example, the user selects “create folder” from a menu (not shown), and creates a folder 352 under the image DB folder 351.

そして、ユーザは、フォルダ352に分類対象の画像(画像DB108中の画像)を分類するための分類条件を設定するため、フォルダ352を選択すると共に、図示しないメニューから「分類条件設定」を選択し、図35に示されている分類条件設定ウィンドウ360aを表示させる。   Then, the user selects the folder 352 and sets “classification condition setting” from a menu (not shown) in order to set a classification condition for classifying the images to be classified (images in the image DB 108) in the folder 352. Then, the classification condition setting window 360a shown in FIG. 35 is displayed.

分類条件設定ウインドウ360aは、図5に示した検索ウインドウ200aの一部とほぼ同一の構成であり、分類条件設定ウインドウ360aには、実施の形態1で説明した検索条件と同様の方法で分類条件を設定することができる。分類条件設定ウインドウ360aは、画像を分類する際に使用される例えば色,構造およびテクスチャの特徴量毎に、分類対象の画像を分類するための基準として用いられる複数の基準画像(画像検索の問合せ画像に該当する)を指定するための画像指定欄A,BおよびCと、所望のフォルダに対して分類条件の設定を指定するための設定ボタン361と、を備えている。   The classification condition setting window 360a has substantially the same configuration as that of a part of the search window 200a shown in FIG. 5, and the classification condition setting window 360a has the same classification method as the search condition described in the first embodiment. Can be set. The classification condition setting window 360a includes, for example, a plurality of reference images (image search queries) used as a reference for classifying images to be classified for each feature amount of color, structure, and texture used when classifying images. Image designation fields A, B, and C for designating (corresponding to an image), and a setting button 361 for designating classification condition settings for a desired folder.

基準画像として指定する画像としては、例えば、スキャナで読み取った画像,ディジタルカメラで撮像した画像,ネットワーク112を介してダウンロードした画像,予めハードディスク110に記憶されていた画像,画像DB108に登録されている画像等、いかなるものであっても良い。   As an image to be designated as a reference image, for example, an image read by a scanner, an image taken by a digital camera, an image downloaded via the network 112, an image stored in advance on the hard disk 110, or registered in the image DB 108 Any image or the like may be used.

ユーザは、実施の形態1で説明したように、例えば3枚の画像を各種類の特徴量に対応させ、それぞれ画像指定欄A,BおよびCに基準画像A,BおよびCとして指定する。また、図示することは省略するが、分類条件設定ウインドウ360aからフォルダ毎に、基準画像および検索対象の画像の類似度の閾値を設定することができる。後述するように、フォルダに設定された基準画像との類似度が閾値を超えた分類対象の画像がそのフォルダに分類されることになる。ここではフォルダ毎に閾値を設定することにするが、フォルダ全体を対象として一つの閾値を設定することにしても良い。   As described in the first embodiment, the user associates, for example, three images with each type of feature amount, and designates them as the reference images A, B, and C in the image designation fields A, B, and C, respectively. Although not shown, a threshold value of similarity between the reference image and the search target image can be set for each folder from the classification condition setting window 360a. As will be described later, an image to be classified whose similarity with a reference image set in a folder exceeds a threshold is classified into that folder. Here, a threshold value is set for each folder, but one threshold value may be set for the entire folder.

そして、ユーザが設定ボタン361を選択すると、U/I部151は、指定された基準画像および閾値を分類条件としてフォルダ352に設定する。なお、基準画像として設定された画像から特徴量を抽出していない場合にあっては、分類条件をフォルダに設定する際に特徴抽出エンジン152が特徴量を抽出する処理を行うことにしても良い。もちろん、画像を分類する処理を行う際に各基準画像から必要な特徴量を抽出することにしても良い。   When the user selects the setting button 361, the U / I unit 151 sets the designated reference image and threshold value in the folder 352 as a classification condition. In the case where the feature amount is not extracted from the image set as the reference image, the feature extraction engine 152 may perform the process of extracting the feature amount when setting the classification condition in the folder. . Of course, a necessary feature amount may be extracted from each reference image when performing the process of classifying the images.

なお、ユーザは、フォルダ354〜357のように、作成したフォルダ(例えばフォルダ353)に分類される画像をさらに分類するためのフォルダ(例えば、フォルダ353に対してフォルダ354および355)を作成し、同様に分類条件を設定することができる。   The user creates folders (for example, folders 354 and 355 with respect to the folder 353) for further classifying the images classified into the created folder (for example, the folder 353) like the folders 354 to 357, Similarly, classification conditions can be set.

このようにして、図35に示すような複数のフォルダ352〜358が分類対象の画像を分類するための分類項目として設定される。U/I部151は、作成したフォルダや対応する分類条件をフォルダ情報として、フォルダの階層構造に関する情報と共に分類木DB302に登録する。   In this way, a plurality of folders 352 to 358 as shown in FIG. 35 are set as classification items for classifying the images to be classified. The U / I unit 151 registers the created folder and the corresponding classification condition as folder information in the classification tree DB 302 together with information related to the hierarchical structure of the folder.

実施の形態1で説明したように、各フォルダ毎に単に基準画像を複数指定するだけでなく、画像を分類する際に使用される各種類の特徴量に対応させて各問合せ画像を指定できるため、ユーザが適切と考える仮想的な一つの基準画像を表現できると共に、分類に対するユーザの意図を分類基準として正確に表現することが可能となる。したがって、後述する分類処理によって、ユーザの意図が反映された分類結果の画像を得ることが可能となる。   As described in the first embodiment, it is possible not only to specify a plurality of reference images for each folder, but also to specify each inquiry image corresponding to each type of feature amount used when classifying the images. It is possible to express one virtual reference image that the user considers appropriate, and to accurately express the user's intention for classification as a classification reference. Therefore, it is possible to obtain an image of the classification result reflecting the user's intention by the classification process described later.

(2)画像分類処理
図36は、実施の形態14の画像分類処理を示すフローチャートである。ユーザが分類処理の開始を指示すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、対応する種類の特徴量を用いて各基準画像および分類対象の画像との類似度を求めると共に、求めた類似度を合計して分類対象の画像の総合類似度を求める処理を実行する(S1401)。
(2) Image Classification Processing FIG. 36 is a flowchart showing image classification processing according to the fourteenth embodiment. When the user instructs the start of the classification process, the matching engine 153 in FIG. 34 obtains the similarity between each reference image and the classification target image using the corresponding type of feature amount for each of the folders 352 to 358. Then, a process for obtaining the total similarity of the images to be classified by summing the obtained similarities is executed (S1401).

このステップS1401における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図35の分類条件設定ウインドウ360aを参照)および分類対象の画像の類似度を色の特徴量を用いて求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。マッチング・エンジン153は、同様に、構造の特徴量に基づいて分類対象の画像と基準画像Bとの距離を求めると共に、テクスチャの特徴量に基づいて分類対象の画像と基準画像Cとの距離を求める。   The processing in step S1401 will be specifically described taking the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302 and uses the similarity between the reference image A (see the classification condition setting window 360a in FIG. 35) set in the folder 352 and the image to be classified as a color feature amount. Use to find. That is, the matching engine 153 determines the distance between the classification target image plotted in the feature amount space shown in FIG. 4 based on the color feature amount and the reference image A, for example, a vector distance definition formula such as a Euclidean distance. Find using. Similarly, the matching engine 153 obtains the distance between the image to be classified and the reference image B based on the feature amount of the structure, and calculates the distance between the image to be classified and the reference image C based on the feature amount of the texture. Ask.

その後、マッチング・エンジン153は、分類対象の画像と各基準画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする(数1を参照)。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。   Thereafter, the matching engine 153 sums the distances between the images to be classified and the reference images A, B, and C, and sets the total distance as the total similarity (see Equation 1). The matching engine 153 obtains the total similarity for each of the folders 352 to 358 in this way.

続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS1401で求めた分類対象の画像の総合類似度が閾値を超えるか否かを判定する(S1402)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。   Subsequently, the matching engine 153 determines, for each of the folders 352 to 358, whether or not the total similarity of the classification target images obtained in step S1401 exceeds a threshold value (S1402). However, here, distance is used as the similarity, and the shorter the distance (the smaller the distance value), the higher the similarity. Therefore, is the total similarity actually less than or equal to the threshold (or less)? It will be determined whether or not.

そして、マッチング・エンジン153は、分類対象の画像の総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S1403)。すなわち、マッチング・エンジン153は、分類対象の画像の総合類似度が閾値を超える場合、そのフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。   Then, the matching engine 153 classifies the images to be classified into folders whose total similarity of the images to be classified exceeds a threshold value (S1403). That is, when the total similarity of the images to be classified exceeds the threshold, the matching engine 153 determines the folder as a classification destination of the images to be classified, and folder information of the corresponding folder registered in the classification tree DB 302. The ID of the image to be classified (assumed to be set in advance) is registered in the classification tree DB 302 in association with.

以上説明したステップS1401〜S1403の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358に分類された画像のうち、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。なお、フォルダ毎に得られた総合類似度に応じて、分類対象の画像は2以上のフォルダに分類されることもあり得る。   By executing the processes in steps S1401 to S1403 described above for each image registered in the image DB 108, the images in the image DB 108 can be classified. In addition, the matching engine 153 selects an image having the highest overall similarity (the lowest overall similarity in terms of distance) from among the images classified in the folders 352 to 358 as a representative image. It is registered in the classification tree DB 302 in association with the folder information. Note that the images to be classified may be classified into two or more folders according to the total similarity obtained for each folder.

図37は、画像DB108中の画像を各フォルダ352〜358に分類した後の画像分類ウインドウ350aの様子を示す説明図である。各フォルダ352〜358には、マッチング・エンジン153によって選択された代表画像が表示されている。また、ユーザが特定のフォルダを選択すると、そのフォルダに分類された画像が画像分類ウインドウ350aの右側に一覧表示される。   FIG. 37 is an explanatory diagram showing the state of the image classification window 350a after the images in the image DB 108 are classified into folders 352 to 358. In each of the folders 352 to 358, representative images selected by the matching engine 153 are displayed. When the user selects a specific folder, the images classified into the folder are displayed in a list on the right side of the image classification window 350a.

このように、実施の形態14に係る画像分類装置によれば、分類項目を設定し、設定した分類項目それぞれに対し、基準画像および分類対象の画像の類似度を求める際に使用される各種類の特徴量毎にそれぞれ一つの基準画像を設定し、分類項目毎に、設定された各基準画像および分類対象の画像の類似度を対応する種類の特徴量を用いて求めると共に、求めた類似度を合計して分類対象の画像の総合類似度を求め、分類項目毎に求めた分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、分類対象の画像の分類先となる分類項目を決定することにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることができると共に、分類に対するユーザの意図を確実に装置に伝えることができるため、分類に対するユーザの意図を正確に反映した分類結果を得ることができ、ユーザが望む通りの分類処理を実現することができる。   As described above, according to the image classification device according to the fourteenth embodiment, the classification items are set, and each type used when obtaining the similarity between the reference image and the classification target image for each of the set classification items. For each feature item, one reference image is set, and for each classification item, the similarity between each set reference image and the classification target image is obtained using the corresponding type of feature amount, and the obtained similarity To determine the total similarity of the images to be classified, and based on the total similarity of the images to be classified obtained for each classification item and a preset classification destination determination criterion, By determining the classification item, the user's intention can be accurately expressed as a classification condition, so that the user's intention can be accurately transmitted to the device, and the user's intention for the classification can be reliably transmitted to the device. It is possible, it is possible to obtain a classification result that accurately reflects the intention of the user for the classification, it is possible to realize the classification process as the user desires.

例えば、基準画像として適切な画像が存在しない場合であっても、分類結果として望む画像に色の雰囲気が似た画像やオブジェクトの形状の雰囲気が似た画像を基準画像として指定し、これらの画像を合わせたものを一つの問合せ画像として使用することができる。   For example, even when an appropriate image does not exist as a reference image, an image having a color atmosphere similar to a desired image or an image having an object shape atmosphere similar to a desired image as a classification result is designated as the reference image. Can be used as one inquiry image.

なお、ここでは色,構造およびテクスチャの3種類の特徴量を用いることにしたが、これらはあくまでも例示であって、特徴量の種類を限定することを意図したものではない。   Here, three types of feature quantities of color, structure, and texture are used, but these are merely examples, and are not intended to limit the types of feature quantities.

また、図37に示したように、フォルダ毎に代表画像を表示することにしたが、これに代えて、フォルダ名を表示したり、フォルダに設定した基準画像を表示することにしても良い。   In addition, as shown in FIG. 37, the representative image is displayed for each folder, but instead of this, the folder name may be displayed or the reference image set for the folder may be displayed.

さらに、詳細な説明については省略するが、画像DB108に新たに画像が登録された場合、その画像についても分類処理を行うことにより、画像DB108中の画像を常に分類した状態に保つことができる。例えば、U/I部151が画像DB108の状態を監視することにすれば、人手を要することなく、画像DB108中の画像を常に分類した状態に保つことができる。   Further, although detailed description is omitted, when a new image is registered in the image DB 108, the image in the image DB 108 can always be kept in a classified state by performing the classification process on the image. For example, if the U / I unit 151 monitors the state of the image DB 108, it is possible to keep the images in the image DB 108 always in a classified state without requiring human intervention.

〔実施の形態15〕
実施の形態15に係る画像分類装置は、実施の形態2で説明した画像検索処理を応用して画像を分類するものである。なお、実施の形態15に係る画像分類装置において、実施の形態14で既に説明した構成については同一の符号を使用して詳細な説明を省略し、画像分類装置の動作についても共通する点については適宜説明を省略する。
[Embodiment 15]
The image classification apparatus according to the fifteenth embodiment classifies images by applying the image search process described in the second embodiment. Note that in the image classification device according to the fifteenth embodiment, the same reference numerals are used for the configurations already described in the fourteenth embodiment, and detailed description thereof is omitted, and the operations of the image classification device are also common. The description will be omitted as appropriate.

以下に、実施の形態15に係る画像分類装置の動作について、
(1)分類項目設定処理
(2)画像分類処理
の順で説明する。
Hereinafter, the operation of the image classification device according to the fifteenth embodiment will be described.
(1) Classification item setting processing (2) Image classification processing will be described in this order.

(1)分類項目設定処理
図38は、画像の分類項目の設定処理や分類後の画像の表示を行うための画像分類ウインドウ350bの一例を示す説明図である。ここで、ユーザは、フォルダ352を作成したものとし、フォルダ352に分類条件を設定するため、図38に示すような分類条件設定ウインドウ360bを表示させる。
(1) Classification Item Setting Processing FIG. 38 is an explanatory diagram showing an example of an image classification window 350b for performing image classification item setting processing and display of images after classification. Here, it is assumed that the user has created the folder 352, and in order to set the classification condition in the folder 352, the classification condition setting window 360b as shown in FIG. 38 is displayed.

図38に示す分類条件設定ウインドウ360bは、図7に示した検索ウインドウ200bの一部とほぼ同一の構成であり、分類条件設定ウインドウ360bには、実施の形態2で説明した検索条件と同様の方法で分類条件を設定することができる。分類条件設定ウインドウ360bは、分類対象の画像を分類するための基準として用いられる複数の基準画像(画像検索の問合せ画像に該当する)を指定するための画像指定欄A,BおよびCと、各画像指定欄に指定した基準画像毎に、分類対象の画像との類似度を求める際に使用する特徴量の種類を指定する特徴量指定ボタン362と、対応するフォルダに対して分類条件の設定を指定するための設定ボタン361と、を備えている。   The classification condition setting window 360b shown in FIG. 38 has substantially the same configuration as part of the search window 200b shown in FIG. 7, and the classification condition setting window 360b has the same search conditions as those described in the second embodiment. Classification conditions can be set by the method. The classification condition setting window 360b includes image designation fields A, B, and C for designating a plurality of reference images (corresponding to query images for image search) used as a reference for classifying images to be classified. For each reference image designated in the image designation field, a feature quantity designation button 362 for designating the type of feature quantity used when obtaining the similarity to the image to be classified, and setting of classification conditions for the corresponding folder A setting button 361 for designating.

ユーザは、実施の形態2で説明したように、例えば3枚の画像をそれぞれ画像指定欄A,BおよびCに基準画像A,BおよびCとして指定し、各基準画像A,BおよびC毎に分類対象の画像との類似度を求める際に使用する特徴量の種類を指定する。図38に示す分類条件設定ウインドウ360bは、一例として色・構造・テクスチャの中から所望の特徴量を指定することができるようになっている。   As described in the second embodiment, the user designates, for example, three images as the reference images A, B, and C in the image designation fields A, B, and C, respectively, for each reference image A, B, and C. Specifies the type of feature amount used when obtaining the similarity to the image to be classified. As an example, the classification condition setting window 360b shown in FIG. 38 can specify a desired feature amount from among color, structure, and texture.

また、図示することは省略するが、分類条件設定ウインドウ360bからフォルダ毎に、基準画像および検索対象の画像の類似度の閾値を設定することができる。後述するように、フォルダに設定された基準画像との類似度が閾値を超えた分類対象の画像がそのフォルダに分類されることになる。ここではフォルダ毎に閾値を設定することにするが、フォルダ全体を対象として一つの閾値を設定することにしても良い。   Although not shown, a threshold value of similarity between the reference image and the search target image can be set for each folder from the classification condition setting window 360b. As will be described later, an image to be classified whose similarity with a reference image set in a folder exceeds a threshold is classified into that folder. Here, a threshold value is set for each folder, but one threshold value may be set for the entire folder.

そして、ユーザが設定ボタン361を選択すると、U/I部151は、指定された基準画像,特徴量の種類および閾値を分類条件としてフォルダ352に設定する。なお、基準画像として設定された画像から特徴量を抽出していない場合にあっては、分類条件をフォルダに設定する際に特徴抽出エンジン152が特徴量を抽出する処理を行うことにしても良い。もちろん、画像を分類する処理を行う際に各基準画像から必要な特徴量を抽出することにしても良い。   When the user selects the setting button 361, the U / I unit 151 sets the designated reference image, the type of feature amount, and the threshold value in the folder 352 as the classification condition. In the case where the feature amount is not extracted from the image set as the reference image, the feature extraction engine 152 may perform the process of extracting the feature amount when setting the classification condition in the folder. . Of course, a necessary feature amount may be extracted from each reference image when performing the process of classifying the images.

なお、ユーザは、フォルダ354〜357のように、作成したフォルダ(例えばフォルダ353)に分類される画像をさらに分類するためのフォルダ(例えば、フォルダ353に対してフォルダ354および355)を作成し、同様に分類条件を設定することができる。   The user creates folders (for example, folders 354 and 355 with respect to the folder 353) for further classifying the images classified into the created folder (for example, the folder 353) like the folders 354 to 357, Similarly, classification conditions can be set.

このようにして、図38に示すような複数のフォルダ352〜358が分類対象の画像を分類するための分類項目として設定される。U/I部151は、作成したフォルダや対応する分類条件をフォルダ情報として、フォルダの階層構造に関する情報と共に分類木DB302に登録する。   In this way, a plurality of folders 352 to 358 as shown in FIG. 38 are set as classification items for classifying the images to be classified. The U / I unit 151 registers the created folder and the corresponding classification condition as folder information in the classification tree DB 302 together with information related to the hierarchical structure of the folder.

実施の形態2で説明したように、各フォルダ毎に単に基準画像を複数指定するだけでなく、指定した各基準画像毎にユーザが重視する画像の特徴に該当する特徴量を指定できるため、ユーザが適切と考える仮想的な一つの基準画像を表現できると共に、分類に対するユーザの意図を分類基準として正確に表現することが可能となる。したがって、後述する分類処理によって、ユーザの意図が反映された分類結果の画像を得ることが可能となる。   As described in the second embodiment, the user can specify not only a plurality of reference images for each folder but also a feature amount corresponding to the feature of the image that the user attaches importance to for each specified reference image. It is possible to express one virtual reference image that is considered appropriate, and to accurately express the user's intention for classification as a classification reference. Therefore, it is possible to obtain an image of the classification result reflecting the user's intention by the classification process described later.

(2)画像分類処理
実施の形態15の画像分類処理について図36を参照しつつ説明する。ユーザが分類処理の開始を指示すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、ユーザが指定した種類の特徴量を用いて各基準画像および分類対象の画像との類似度を求めると共に、求めた類似度を合計して分類対象の画像の総合類似度を求める処理を実行する(S1401)。
(2) Image Classification Processing The image classification processing according to the fifteenth embodiment will be described with reference to FIG. When the user instructs the start of the classification process, the matching engine 153 in FIG. 34 determines the similarity between each reference image and the classification target image for each of the folders 352 to 358 using the type of feature amount designated by the user. At the same time, a process of calculating the total similarity of the images to be classified is performed by summing the calculated similarities (S1401).

このステップS1401における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図38の分類条件設定ウインドウ360bを参照)および分類対象の画像の類似度を色の特徴量を用いて求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。マッチング・エンジン153は、同様に、構造の特徴量に基づいて分類対象の画像と基準画像Bとの距離を求めると共に、テクスチャの特徴量に基づいて分類対象の画像と基準画像Cとの距離を求める。   The processing in step S1401 will be specifically described taking the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302 and uses the similarity between the reference image A (see the classification condition setting window 360b in FIG. 38) set in the folder 352 and the image to be classified as a color feature amount. Use to find. That is, the matching engine 153 determines the distance between the classification target image plotted in the feature amount space shown in FIG. 4 based on the color feature amount and the reference image A, for example, a vector distance definition formula such as a Euclidean distance. Use to find. Similarly, the matching engine 153 obtains the distance between the image to be classified and the reference image B based on the feature amount of the structure, and calculates the distance between the image to be classified and the reference image C based on the feature amount of the texture. Ask.

その後、マッチング・エンジン153は、分類対象の画像と各基準画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする(数2を参照)。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。   Thereafter, the matching engine 153 sums the distances between the images to be classified and the reference images A, B, and C, and sets the total distance as the total similarity (see Expression 2). The matching engine 153 obtains the total similarity for each of the folders 352 to 358 in this way.

続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS1401で求めた分類対象の画像の総合類似度が閾値を超えるか否かを判定する(S1402)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。   Subsequently, the matching engine 153 determines, for each of the folders 352 to 358, whether or not the total similarity of the classification target images obtained in step S1401 exceeds a threshold value (S1402). However, here, distance is used as the similarity, and the shorter the distance (the smaller the distance value), the higher the similarity. Therefore, is the total similarity actually less than or equal to the threshold (or less)? It will be determined whether or not.

そして、マッチング・エンジン153は、分類対象の画像の総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S1403)。すなわち、マッチング・エンジン153は、分類対象の画像の総合類似度が閾値を超える場合、そのフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。   Then, the matching engine 153 classifies the images to be classified into folders whose total similarity of the images to be classified exceeds a threshold value (S1403). That is, when the total similarity of the images to be classified exceeds the threshold, the matching engine 153 determines the folder as a classification destination of the images to be classified, and folder information of the corresponding folder registered in the classification tree DB 302. The ID of the image to be classified (assumed to be set in advance) is registered in the classification tree DB 302 in association with.

以上説明したステップS1401〜S1403の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358に分類された画像のうち、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。なお、フォルダ毎に得られた総合類似度に応じて、分類対象の画像は2以上のフォルダに分類されることもあり得る。画像の分類処理が実行されると、図38の画像分類ウインドウ350bの各フォルダ352〜358には、図37に示すように代表画像が表示される。   By executing the processes in steps S1401 to S1403 described above for each image registered in the image DB 108, the images in the image DB 108 can be classified. In addition, the matching engine 153 selects an image having the highest overall similarity (the lowest overall similarity in terms of distance) from among the images classified in the folders 352 to 358 as a representative image. It is registered in the classification tree DB 302 in association with the folder information. Note that the images to be classified may be classified into two or more folders according to the total similarity obtained for each folder. When the image classification processing is executed, representative images are displayed in the folders 352 to 358 of the image classification window 350b of FIG. 38 as shown in FIG.

このように、実施の形態15に係る画像分類装置によれば、フォルダを設定し、設定したフォルダ毎に、基準画像を複数設定すると共に、設定した各基準画像毎に分類対象の画像との類似度を求める際に使用する特徴量の種類を設定し、フォルダ毎に、設定された種類の特徴量を用いて各基準画像および分類対象の画像の類似度を求めると共に、求めた類似度を合計して総合類似度を求め、フォルダ毎に求めた総合類似度および予め設定された分類先決定基準に基づいて分類対象の画像の分類先となるフォルダを決定することにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることができると共に、分類に対するユーザの意図を確実に装置に伝えることができるため、分類に対するユーザの意図を正確に反映した分類結果を得ることができ、ユーザが望む通りの分類処理を実現することができる。   As described above, according to the image classification device according to the fifteenth embodiment, a folder is set, and a plurality of reference images are set for each set folder, and each set reference image is similar to an image to be classified. Set the type of feature quantity used when calculating the degree, and for each folder, use the set type feature quantity to calculate the similarity between each reference image and the image to be classified, and total the calculated similarity The user's intention is determined based on the classification condition by determining the folder that is the classification destination of the image to be classified based on the total similarity calculated for each folder and a preset classification destination determination criterion. Since the user's intention can be accurately transmitted to the device and the user's intention for the classification can be reliably transmitted to the device, the user's intention for the classification can be expressed. It is possible to obtain a classification result that accurately reflects the, it is possible to realize the classification process as the user desires.

例えば、基準画像として適切な画像が存在しない場合であっても、分類結果として望む画像に色の雰囲気が似た画像やオブジェクトの形状の雰囲気が似た画像を基準画像として指定し、これらの画像を合わせたものを一つの問合せ画像として使用することができる。   For example, even when an appropriate image does not exist as a reference image, an image having a color atmosphere similar to a desired image or an image having an object shape atmosphere similar to a desired image as a classification result is designated as the reference image. Can be used as one inquiry image.

なお、ここでは色,構造およびテクスチャの3種類の特徴量を用いることにしたが、これらはあくまでも例示であって、特徴量の種類を限定することを意図したものではない。   Here, three types of feature quantities of color, structure, and texture are used, but these are merely examples, and are not intended to limit the types of feature quantities.

さらに、詳細な説明については省略するが、画像DB108に新たに画像が登録された場合、その画像についても分類処理を行うことにより、画像DB108中の画像を常に分類した状態に保つことができる。例えば、U/I部151が画像DB108の状態を監視することにすれば、人手を要することなく、画像DB108中の画像を常に分類した状態に保つことができる。   Further, although detailed description is omitted, when a new image is registered in the image DB 108, the image in the image DB 108 can always be kept in a classified state by performing the classification process on the image. For example, if the U / I unit 151 monitors the state of the image DB 108, it is possible to keep the images in the image DB 108 always in a classified state without requiring human intervention.

〔実施の形態16〕
実施の形態16に係る画像分類装置は、実施の形態15の画像分類装置において、実施の形態3で説明した画像検索処理を応用することにより、分類に対するユーザの意図をさらに正確に表現できるようにしたものである。なお、実施の形態16において、実施の形態14で既に説明した構成については同一の符号を使用して詳細な説明を省略し、画像分類装置の動作についても共通する点については適宜説明を省略する。
[Embodiment 16]
The image classification apparatus according to the sixteenth embodiment can express the user's intention for classification more accurately by applying the image search process described in the third embodiment to the image classification apparatus according to the fifteenth embodiment. It is a thing. Note that in the sixteenth embodiment, the same reference numerals are used for the configurations already described in the fourteenth embodiment, and detailed descriptions thereof are omitted, and descriptions of points common to the operations of the image classification device are omitted as appropriate. .

以下に、実施の形態16に係る画像分類装置の動作について、
(1)分類項目設定処理
(2)画像分類処理
の順で説明する。
Hereinafter, the operation of the image classification device according to the sixteenth embodiment will be described.
(1) Classification item setting processing (2) Image classification processing will be described in this order.

(1)分類項目設定処理
図39は、実施の形態16に係る画像分類装置において用いられる画像分類ウインドウ350cを示す説明図である。ここで、ユーザは、フォルダ352を作成したものとし、フォルダ352に分類条件を設定するため、図39に示すような分類条件設定ウインドウ360cを表示させる。
(1) Classification Item Setting Processing FIG. 39 is an explanatory diagram showing an image classification window 350c used in the image classification device according to the sixteenth embodiment. Here, it is assumed that the user has created the folder 352, and in order to set the classification condition in the folder 352, the classification condition setting window 360c as shown in FIG. 39 is displayed.

図39に示す分類条件設定ウインドウ360cは、図38に示したものに加えて(実施の形態3の検索ウインドウ200cに示すように)、画像指定欄A,BおよびCに指定された各基準画像毎に相対的な重要度を指定する重要度指定バー363を備えている。   The classification condition setting window 360c shown in FIG. 39 is in addition to that shown in FIG. 38 (as shown in the search window 200c of the third embodiment), and each reference image designated in the image designation columns A, B, and C. An importance level designation bar 363 for designating a relative importance level is provided for each.

ユーザは、図39に示すように、例えば3枚の画像をそれぞれ画像指定欄A,BおよびCに基準画像A,BおよびCとして指定し、指定した基準画像A,BおよびC毎に分類対象の画像との類似度を求める際に使用する特徴量の種類を指定する。   As shown in FIG. 39, the user designates, for example, three images as reference images A, B, and C in the image designation fields A, B, and C, respectively, and classifies them for each designated reference image A, B, and C. Specifies the type of feature value used when obtaining the similarity to the image.

続いて、実施の形態3の重要度指定バー204で説明したように、ユーザは重要度指定バー363を用いて各基準画像に重要度を指定する。この重要度指定バー363は、各基準画像毎に「0」を中心にして「+」の重要度および「−」の重要度を指定することを可能とするものである。なお、重要度として「+」方向および「−」方向の両方ではなく、「+」方向のみ、または「−」方向のみを指定できるようにしても良い。   Subsequently, as described in the importance level designation bar 204 of the third embodiment, the user designates the importance level for each reference image using the importance level designation bar 363. The importance level designation bar 363 is capable of designating the importance level of “+” and the importance level of “−” with “0” as the center for each reference image. Note that it is possible to designate not only both the “+” direction and the “−” direction but also the “+” direction or the “−” direction as the importance.

このように、基準画像毎にユーザが重要度を指定することにより、分類に対するユーザの意図を正確に表現することが可能となる。すなわち、後述する分類処理によって、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された分類結果の画像を得ることが可能となる。   As described above, when the user designates the importance level for each reference image, it is possible to accurately express the user's intention for the classification. That is, since the importance is reflected as a weighting on the similarity by the classification process described later, an image of the classification result reflecting the user's intention can be obtained.

さらに、ユーザはフォルダ352の閾値を指定し、設定ボタン361を選択すると、U/I部151は、基準画像,特徴量の種類,重要度および閾値を分類条件としてフォルダ352に設定する。   Further, when the user designates the threshold value of the folder 352 and selects the setting button 361, the U / I unit 151 sets the reference image, the type of feature amount, the importance level, and the threshold value in the folder 352 as classification conditions.

このような処理を各フォルダに対して行うことにより、図39に示すような複数のフォルダ352〜358が分類対象の画像を分類するための分類項目として設定される。設定されたフォルダのフォルダ情報は、分類木DB302に登録される。   By performing such processing for each folder, a plurality of folders 352 to 358 as shown in FIG. 39 are set as classification items for classifying the images to be classified. The folder information of the set folder is registered in the classification tree DB 302.

(2)画像分類処理
図40は、実施の形態16の画像分類処理を示すフローチャートである。ユーザが分類処理の開始を指示すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、ユーザが指定した種類の特徴量を用いて各基準画像および分類対象の画像との類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各類似度を合計して分類対象の画像の総合類似度を求める処理を実行する(S1601)。
(2) Image Classification Processing FIG. 40 is a flowchart showing image classification processing according to the sixteenth embodiment. When the user instructs the start of the classification process, the matching engine 153 in FIG. 34 determines the similarity between each reference image and the classification target image for each of the folders 352 to 358 using the type of feature amount designated by the user. The obtained similarity is weighted according to the importance, and a process for obtaining the total similarity of the images to be classified is executed by summing up the similarities (S1601).

このステップS1601における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図39の分類条件設定ウインドウ360cを参照)および分類対象の画像の類似度を色の特徴量を用いて求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、ユーザが指定した基準画像Aの重要度に応じて重み付けを行う。マッチング・エンジン153は、同様に、構造の特徴量に基づいて分類対象の画像と基準画像Bとの距離を求め、求めた距離に対して基準画像Bの重要度に応じた重み付けを行うと共に、テクスチャの特徴量に基づいて分類対象の画像と基準画像Cとの距離を求め、求めた距離に対して基準画像Cの重要度に応じた重み付けを行う。   The processing in step S1601 will be specifically described taking the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302 and uses the similarity between the reference image A (see the classification condition setting window 360c in FIG. 39) set in the folder 352 and the classification target image as a color feature amount. Find using. That is, the matching engine 153 determines the distance between the classification target image plotted in the feature amount space shown in FIG. 4 based on the color feature amount and the reference image A, for example, a vector distance definition formula such as a Euclidean distance. Find using. Subsequently, the matching engine 153 weights the obtained distance according to the importance of the reference image A designated by the user. Similarly, the matching engine 153 obtains the distance between the image to be classified and the reference image B based on the feature amount of the structure, weights the obtained distance according to the importance of the reference image B, and The distance between the image to be classified and the reference image C is obtained based on the texture feature amount, and the obtained distance is weighted according to the importance of the reference image C.

その後、マッチング・エンジン153は、分類対象の画像と各基準画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする(数3を参照)。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。   Thereafter, the matching engine 153 sums the distances between the images to be classified and the reference images A, B, and C, and sets the total distance as the total similarity (see Expression 3). The matching engine 153 obtains the total similarity for each of the folders 352 to 358 in this way.

続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS1601で求めた総合類似度が閾値を超えるか否かを判定する(S1602)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。   Subsequently, the matching engine 153 determines, for each of the folders 352 to 358, whether or not the total similarity obtained in step S1601 exceeds a threshold value (S1602). However, here, distance is used as the similarity, and the shorter the distance (the smaller the distance value), the higher the similarity. Therefore, is the total similarity actually less than or equal to the threshold (or less)? It will be determined whether or not.

そして、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S1603)。すなわち、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。   Then, the matching engine 153 classifies the images to be classified into folders whose calculated overall similarity exceeds the threshold (S1603). That is, the matching engine 153 determines a folder whose total similarity obtained exceeds the threshold as a classification destination of the image to be classified, and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302 as a classification target. The image ID (assumed to be set in advance) is registered in the classification tree DB 302.

以上説明したステップS1601〜S1603の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358に分類された画像のうち、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図39の画像分類ウインドウ350cの各フォルダ352〜358には、図37に示すように代表画像が表示される。   By executing the processes in steps S1601 to S1603 described above for each image registered in the image DB 108, the images in the image DB 108 can be classified. In addition, the matching engine 153 selects an image having the highest overall similarity (the lowest overall similarity in terms of distance) from among the images classified in the folders 352 to 358 as a representative image. It is registered in the classification tree DB 302 in association with the folder information. When the image classification process is executed, representative images are displayed in the folders 352 to 358 of the image classification window 350c of FIG. 39 as shown in FIG.

このように、実施の形態16に係る画像分類装置によれば、求めた類似度に対し、基準画像の種類に応じて任意の重み付けを行うことができるように、各基準画像毎に重要度を設定することが可能であり、フォルダ毎に、各基準画像および分類対象の画像の類似度を求め、求めた類似度に対し、設定された重要度に応じた重み付けを行うことにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された画像の分類結果を得ることが可能となる。   Thus, according to the image classification device according to the sixteenth embodiment, the degree of importance is set for each reference image so that the obtained similarity can be arbitrarily weighted according to the type of the reference image. It is possible to set the user's intention by calculating the similarity between each reference image and the image to be classified for each folder and weighting the obtained similarity according to the set importance. Can be accurately expressed as a classification condition, so it is possible to accurately convey the user's intention to the device, and the importance is reflected as a weighting to the similarity, so the image classification result that reflects the user's intention Can be obtained.

なお、詳細な説明については省略するが、実施の形態14で説明した画像分類装置においても、実施の形態16で説明したように各問合せ画像毎に重要度を指定することができるようにしても良い。   Although not described in detail, the image classification apparatus described in the fourteenth embodiment also allows the importance to be specified for each inquiry image as described in the sixteenth embodiment. good.

〔実施の形態17〕
実施の形態17に係る画像分類装置は、ユーザの意図を分類条件として正確に表現するための一つの手法として、実施の形態4で説明したAND検索を応用した画像分類処理を行うものである。なお、実施の形態17に係る画像分類装置において、実施の形態14で既に説明した構成については同一の符号を使用して詳細な説明を省略し、画像分類装置の動作についても共通する点については適宜説明を省略する。また、実施の形態17に係る画像分類装置においては、画像間の類似度を求める際に用いる特徴量は一種類であるものとするが、当然、複数種類の特徴量を用いることにしても良い。
[Embodiment 17]
The image classification apparatus according to the seventeenth embodiment performs an image classification process applying the AND search described in the fourth embodiment as one technique for accurately expressing the user's intention as a classification condition. Note that in the image classification device according to the seventeenth embodiment, the same reference numerals are used for the configurations already described in the fourteenth embodiment, and detailed descriptions thereof are omitted, and the operations of the image classification device are also common. The description will be omitted as appropriate. In the image classification device according to the seventeenth embodiment, one feature amount is used when obtaining the similarity between images. Of course, a plurality of feature amounts may be used. .

以下に、実施の形態17に係る画像分類装置の動作について、
(1)分類項目設定処理
(2)画像分類処理
の順で説明する。
Hereinafter, the operation of the image classification device according to the seventeenth embodiment will be described.
(1) Classification item setting processing (2) Image classification processing will be described in this order.

(1)分類項目設定処理
図41は、実施の形態17に係る画像分類装置において用いられる画像分類ウインドウ350dを示す説明図である。ここで、ユーザは、フォルダ352を作成したものとし、フォルダ352に分類条件を設定するため、図41に示すような分類条件設定ウインドウ360dを表示させる。
(1) Classification Item Setting Processing FIG. 41 is an explanatory diagram showing an image classification window 350d used in the image classification device according to the seventeenth embodiment. Here, it is assumed that the user has created the folder 352, and in order to set the classification condition in the folder 352, the classification condition setting window 360d as shown in FIG. 41 is displayed.

図41に示す分類条件設定ウインドウ360dは、画像指定欄A,BおよびC,ならびに設定ボタン361に加え、AND条件を指定するためのAND指定ボタン364およびOR条件を指定するためのOR指定ボタン365が設けられている点である。なお、OR条件については、後述する実施の形態21において詳細に説明する。   A classification condition setting window 360d shown in FIG. 41 includes an AND designation button 364 for designating an AND condition and an OR designation button 365 for designating an OR condition in addition to the image designation fields A, B and C and the setting button 361. Is a point provided. The OR condition will be described in detail in a 21st embodiment to be described later.

ユーザは、図41に示すように、例えば3枚の画像をそれぞれ画像指定欄A,BおよびCに基準画像A,BおよびCとして指定し、AND指定ボタン364を選択してAND条件を指定する。さらに、ユーザがフォルダ352の閾値を指定し、設定ボタン361を指定すると、U/I部151は、基準画像,AND条件の指定および閾値を分類条件としてフォルダ352に設定する。   As shown in FIG. 41, the user designates, for example, three images as reference images A, B, and C in the image designation fields A, B, and C, respectively, selects an AND designation button 364, and designates an AND condition. . Further, when the user designates the threshold value of the folder 352 and designates the setting button 361, the U / I unit 151 sets the reference image, the designation of the AND condition, and the threshold value as the classification condition in the folder 352.

このような処理を各フォルダに対して行うことにより、図41に示すような複数のフォルダ352〜358が分類対象の画像を分類するための分類項目として設定される。なお、設定されたフォルダのフォルダ情報は、分類木DB302に登録される。   By performing such processing for each folder, a plurality of folders 352 to 358 as shown in FIG. 41 are set as classification items for classifying the images to be classified. Note that the folder information of the set folder is registered in the classification tree DB 302.

(2)画像分類処理
実施の形態17の画像分類処理について図36を参照しつつ説明する。ユーザが分類処理の開始を指示すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、所定の特徴量を用いて各基準画像および分類対象の画像の類似度を求め、求めた類似度を合計して分類対象の画像の総合類似度を求める処理を実行する(S1401)。
(2) Image Classification Processing The image classification processing according to the seventeenth embodiment will be described with reference to FIG. When the user instructs the start of the classification process, the matching engine 153 in FIG. 34 obtains the similarity between each reference image and the image to be classified using a predetermined feature amount for each of the folders 352 to 358, and the obtained similarity. Processing for obtaining the total similarity of the images to be classified by summing the degrees is executed (S1401).

このステップS1401における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図41の分類条件設定ウインドウ360dを参照)および分類対象の画像の類似度を所定の特徴量を用いて求める。すなわち、マッチング・エンジン153は、所定の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。マッチング・エンジン153は、同様に、所定の特徴量に基づいて分類対象の画像と基準画像Bとの距離を求めると共に、分類対象の画像と基準画像Cとの距離を求める。   The processing in step S1401 will be specifically described taking the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302 and uses the similarity between the reference image A (see the classification condition setting window 360d in FIG. 41) set in the folder 352 and the image to be classified as a predetermined feature amount. Find using. That is, the matching engine 153 determines the distance between the image to be classified and the reference image A plotted in the feature amount space shown in FIG. 4 based on a predetermined feature amount, for example, a vector distance definition formula such as a Euclidean distance. Use to find. Similarly, the matching engine 153 obtains the distance between the image to be classified and the reference image B based on a predetermined feature amount, and obtains the distance between the image to be classified and the reference image C.

その後、マッチング・エンジン153は、分類対象の画像と各基準画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする(数4を参照)。なお、複数種類の特徴量を用いて各基準画像および分類対象の画像の類似度を求める場合は、各種類の特徴量毎に分類対象の画像および各基準画像の類似度(距離)を求め、分類対象の画像毎に、各基準画像に対する全ての類似度を合計して総合類似度を求めれば良い。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。   Thereafter, the matching engine 153 sums the distances between the images to be classified and the reference images A, B, and C, and sets the total distance as the total similarity (see Expression 4). In addition, when obtaining the similarity between each reference image and the classification target image using a plurality of types of feature amounts, the similarity (distance) between the classification target image and each reference image is obtained for each type of feature amount, For each image to be classified, all similarities with respect to each reference image may be summed to obtain an overall similarity. The matching engine 153 obtains the total similarity for each of the folders 352 to 358 in this way.

続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS1401で求めた総合類似度が閾値を超えるか否かを判定する(S1402)。ただし、ここでは、類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。   Subsequently, the matching engine 153 determines, for each of the folders 352 to 358, whether or not the total similarity obtained in step S1401 exceeds a threshold value (S1402). However, here, distance is used as the similarity, and the shorter the distance (the smaller the value of the distance), the higher the similarity. Therefore, the total similarity is actually less than (or less than) the threshold. It will be determined whether or not.

そして、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S1403)。すなわち、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。   Then, the matching engine 153 classifies the images to be classified into folders whose calculated overall similarity exceeds the threshold (S1403). That is, the matching engine 153 determines a folder whose total similarity obtained exceeds the threshold as a classification destination of the image to be classified, and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302 as a classification target. The image ID (assumed to be set in advance) is registered in the classification tree DB 302.

以上説明したステップS1401〜S1403の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358に分類された画像のうち、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ検索対象の画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図41の画像分類ウインドウ350dの各フォルダ352〜358には、図37に示すように代表画像が表示される。   By executing the processes in steps S1401 to S1403 described above for each image registered in the image DB 108, the images in the image DB 108 can be classified. In addition, the matching engine 153 selects, as a representative image, a search target image having the highest overall similarity (the lowest overall similarity in terms of distance) from among the images classified in the folders 352 to 358. , It is registered in the classification tree DB 302 in association with the corresponding folder information. When the image classification process is executed, representative images are displayed in the folders 352 to 358 of the image classification window 350d in FIG. 41 as shown in FIG.

このように、実施の形態17に係る画像分類装置によれば、フォルダを設定し、設定したフォルダ毎に、基準画像を複数設定し、フォルダ毎に、設定された各基準画像および分類対象の画像の類似度を求めると共に、求めた類似度を合計して総合類似度を求め、フォルダ毎に求めた総合類似度および予め設定された分類先決定基準に基づいて分類対象の画像の分類先となるフォルダを決定するため、AND検索処理を応用した画像分類処理を行うことが可能となる。したがって、新たな分類方法で画像を分類可能な画像分類装置を提供することができる。   Thus, according to the image classification device according to the seventeenth embodiment, a folder is set, a plurality of reference images are set for each set folder, and each set reference image and classification target image are set for each folder. The total similarity is obtained by summing the obtained similarities, and becomes a classification destination of the image to be classified based on the total similarity obtained for each folder and a preset classification destination determination criterion. In order to determine the folder, it is possible to perform image classification processing using AND search processing. Therefore, it is possible to provide an image classification device that can classify images by a new classification method.

なお、実施の形態17においては、特徴量の種類を特に示さなかったが、色,構造およびテクスチャ等、いかなる種類の特徴量であっても単独でまたは複数組み合わせて用いることができる。   In the seventeenth embodiment, the type of feature quantity is not particularly shown, but any type of feature quantity such as color, structure, texture, etc. can be used alone or in combination.

さらに、詳細な説明については省略するが、画像DB108に新たに画像が登録された場合、その画像についても分類処理を行うことにより、画像DB108中の画像を常に分類した状態に保つことができる。例えば、U/I部151が画像DB108の状態を監視することにすれば、人手を要することなく、画像DB108中の画像を常に分類した状態に保つことができる。   Further, although detailed description is omitted, when a new image is registered in the image DB 108, the image in the image DB 108 can always be kept in a classified state by performing the classification process on the image. For example, if the U / I unit 151 monitors the state of the image DB 108, it is possible to keep the images in the image DB 108 always in a classified state without requiring human intervention.

〔実施の形態18〕
実施の形態18に係る画像分類装置は、実施の形態17の画像分類装置において、実施の形態5で説明した画像検索処理を応用することにより、分類に対するユーザの意図を正確に表現できるようにしたものである。
[Embodiment 18]
The image classification apparatus according to the eighteenth embodiment can accurately express the user's intention for classification by applying the image search processing described in the fifth embodiment to the image classification apparatus according to the seventeenth embodiment. Is.

以下に、実施の形態18に係る画像分類装置の動作について、
(1)分類項目設定処理
(2)画像分類処理
の順で説明する。
The operation of the image classification device according to Embodiment 18 is as follows.
(1) Classification item setting processing (2) Image classification processing will be described in this order.

(1)分類項目設定処理
図42は、実施の形態18に係る画像分類装置において用いられる画像分類ウインドウ350eを示す説明図である。ここで、ユーザは、フォルダ352を作成したものとし、フォルダ352に分類条件を設定するため、図42に示すような分類条件設定ウインドウ360eを表示させる。
(1) Classification Item Setting Processing FIG. 42 is an explanatory diagram showing an image classification window 350e used in the image classification device according to the eighteenth embodiment. Here, it is assumed that the user has created the folder 352, and in order to set the classification condition in the folder 352, the classification condition setting window 360e as shown in FIG. 42 is displayed.

図42に示す分類条件設定ウインドウ360eは、図41に示した分類条件設定ウインドウ360dに加えて、画像指定欄A,BおよびCに指定された各基準画像間の相対的な重要度を指定する重要度指定バー366を備えている。   The classification condition setting window 360e shown in FIG. 42 designates the relative importance between the reference images designated in the image designation fields A, B and C in addition to the classification condition setting window 360d shown in FIG. An importance level designation bar 366 is provided.

ユーザは、図42に示すように、例えば3枚の画像をそれぞれ画像指定欄A,BおよびCに基準画像A,BおよびCとして指定すると共に、重要度指定バー366を用いて基準画像A,BおよびC毎に重要度を指定する。この重要度指定バー366は、実施の形態5の重要度指定バー207で説明したように、各基準画像毎に「0」を中心にして「+」の重要度および「−」の重要度を指定することを可能にするものである。なお、重要度として「+」方向および「−」方向の両方ではなく、「+」方向のみ、または「−」方向のみを指定できるようにしても良い。   As shown in FIG. 42, the user designates, for example, three images as reference images A, B, and C in the image designation fields A, B, and C, respectively, and uses the importance degree designation bar 366 to reference image A, The importance is designated for each of B and C. As described with respect to the importance level designation bar 207 of the fifth embodiment, the importance level designation bar 366 indicates the importance level of “+” and the importance level of “−” with respect to “0” for each reference image. It is possible to specify. Note that it is possible to designate not only both the “+” direction and the “−” direction but also the “+” direction or the “−” direction as the importance.

このように、基準画像毎にユーザが重要度を指定することにより、分類に対するユーザの意図を正確に表現することが可能となる。すなわち、後述する分類処理によって、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された分類結果の画像を得ることが可能となる。   As described above, when the user designates the importance level for each reference image, it is possible to accurately express the user's intention for the classification. That is, since the importance is reflected as a weighting on the similarity by the classification process described later, an image of the classification result reflecting the user's intention can be obtained.

さらに、ユーザがAND指定ボタン364を選択してAND条件を指定すると共に、フォルダ352の閾値を指定した後、設定ボタン361を指定すると、U/I部151は、基準画像,重要度,AND条件の指定および閾値を分類条件としてフォルダ352に設定する。   Further, when the user selects the AND designation button 364 to designate the AND condition and designates the threshold value of the folder 352 and then designates the setting button 361, the U / I unit 151 causes the reference image, the importance, the AND condition to be specified. And a threshold value are set in the folder 352 as a classification condition.

このような処理を各フォルダに対して行うことにより、図42に示すような複数のフォルダ352〜358が分類対象の画像を分類するための分類項目として設定される。なお、設定された各フォルダのフォルダ情報は、分類木DB302に登録される。   By performing such processing for each folder, a plurality of folders 352 to 358 as shown in FIG. 42 are set as classification items for classifying the images to be classified. Note that the folder information of each set folder is registered in the classification tree DB 302.

(2)画像分類処理
実施の形態18の画像分類処理について図40を参照しつつ説明する。ユーザが分類処理の開始を指示すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、所定の特徴量を用いて各基準画像および分類対象の画像との類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各類似度を合計して総合類似度を求める処理を実行する(S1601)。
(2) Image Classification Processing The image classification processing according to the eighteenth embodiment will be described with reference to FIG. When the user instructs the start of the classification process, the matching engine 153 in FIG. 34 obtains the similarity between each reference image and the image to be classified for each folder 352 to 358 using a predetermined feature amount. Each similarity is weighted according to the importance, and a process for obtaining the total similarity by summing up the similarities is executed (S1601).

このステップS1601における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図42の分類条件設定ウインドウ360eを参照)および分類対象の画像の類似度を所定の特徴量を用いて求める。すなわち、マッチング・エンジン153は、所定の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、ユーザが指定した基準画像Aの重要度に応じて重み付けを行う。マッチング・エンジン153は、同様に、所定の特徴量に基づいて分類対象の画像と基準画像Bとの距離を求め、求めた距離に対して基準画像Bの重要度に応じた重み付けを行うと共に、所定の特徴量に基づいて分類対象の画像と基準画像Cとの距離を求め、求めた距離に対して基準画像Cの重要度に応じた重み付けを行う。   The processing in step S1601 will be specifically described taking the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302 and uses the similarity between the reference image A (see the classification condition setting window 360e in FIG. 42) set in the folder 352 and the image to be classified as a predetermined feature amount. Use to find. That is, the matching engine 153 determines the distance between the image to be classified and the reference image A plotted in the feature amount space shown in FIG. 4 based on a predetermined feature amount, for example, a vector distance definition formula such as a Euclidean distance. Use to find. Subsequently, the matching engine 153 weights the obtained distance according to the importance of the reference image A designated by the user. Similarly, the matching engine 153 obtains the distance between the image to be classified and the reference image B based on a predetermined feature amount, weights the obtained distance according to the importance of the reference image B, The distance between the image to be classified and the reference image C is obtained based on a predetermined feature amount, and the obtained distance is weighted according to the importance of the reference image C.

その後、マッチング・エンジン153は、分類対象の画像と各基準画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする(数5を参照)。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。   Thereafter, the matching engine 153 sums the distances between the images to be classified and the reference images A, B, and C, and sets the total distance as the total similarity (see Expression 5). The matching engine 153 obtains the total similarity for each of the folders 352 to 358 in this way.

続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS1601で求めた総合類似度が閾値を超えるか否かを判定する(S1602)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。   Subsequently, the matching engine 153 determines, for each of the folders 352 to 358, whether or not the total similarity obtained in step S1601 exceeds a threshold value (S1602). However, here, distance is used as the similarity, and the shorter the distance (the smaller the distance value), the higher the similarity. Therefore, is the total similarity actually less than or equal to the threshold (or less)? It will be determined whether or not.

そして、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S1603)。すなわち、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。   Then, the matching engine 153 classifies the images to be classified into folders whose calculated overall similarity exceeds the threshold (S1603). That is, the matching engine 153 determines a folder whose total similarity obtained exceeds the threshold as a classification destination of the image to be classified, and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302 as a classification target. The image ID (assumed to be set in advance) is registered in the classification tree DB 302.

以上説明したステップS1601〜S1603の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358に分類された画像のうち、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図42の画像分類ウインドウ350eの各フォルダ352〜358には、図37に示すように代表画像が表示される。   By executing the processes in steps S1601 to S1603 described above for each image registered in the image DB 108, the images in the image DB 108 can be classified. In addition, the matching engine 153 selects an image having the highest overall similarity (the lowest overall similarity in terms of distance) from among the images classified in the folders 352 to 358 as a representative image. It is registered in the classification tree DB 302 in association with the folder information. When the image classification processing is executed, representative images are displayed in the folders 352 to 358 of the image classification window 350e in FIG. 42 as shown in FIG.

このように、実施の形態18に係る画像分類装置によれば、求めた類似度に対し、基準画像の種類に応じて任意の重み付けを行うことができるように、各基準画像毎に重要度を設定することが可能であり、フォルダ毎に、各基準画像および分類対象の画像の類似度を求め、求めた類似度に対し、設定された重要度に応じた重み付けを行うことにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された画像の分類結果を得ることが可能となる。   Thus, according to the image classification device according to the eighteenth embodiment, the degree of importance is set for each reference image so that the obtained similarity can be arbitrarily weighted according to the type of the reference image. It is possible to set the user's intention by calculating the similarity between each reference image and the image to be classified for each folder and weighting the obtained similarity according to the set importance. Can be accurately expressed as a classification condition, so it is possible to accurately convey the user's intention to the device, and the importance is reflected as a weighting to the similarity, so the image classification result that reflects the user's intention Can be obtained.

〔実施の形態19〕
実施の形態19に係る画像分類装置は、実施の形態17の画像分類装置において、実施の形態6で説明した画像検索処理を応用することにより、分類に対するユーザの意図を正確に表現できるようにしたものである。なお、実施の形態19に係る画像分類装置においては、例として、色,構造およびテクスチャの3種類の特徴量を用いて分類処理を行うものとする。
[Embodiment 19]
The image classification apparatus according to the nineteenth embodiment can accurately express the user's intention for classification by applying the image search processing described in the sixth embodiment to the image classification apparatus according to the seventeenth embodiment. Is. In the image classification apparatus according to the nineteenth embodiment, for example, the classification process is performed using three types of feature amounts of color, structure, and texture.

以下に、実施の形態19に係る画像分類装置の動作について、
(1)分類項目設定処理
(2)画像分類処理
の順で説明する。
The operation of the image classification device according to Embodiment 19 is as follows.
(1) Classification item setting processing (2) Image classification processing will be described in this order.

(1)分類項目設定処理
図43は、実施の形態19に係る画像分類装置において用いられる画像分類ウインドウ350fを示す説明図である。ここで、ユーザは、フォルダ352を作成したものとし、フォルダ352に分類条件を設定するため、図43に示すような分類条件設定ウインドウ360fを表示させる。
(1) Classification Item Setting Processing FIG. 43 is an explanatory diagram showing an image classification window 350f used in the image classification device according to the nineteenth embodiment. Here, it is assumed that the user has created the folder 352, and in order to set the classification condition in the folder 352, a classification condition setting window 360f as shown in FIG. 43 is displayed.

図43に示す分類条件設定ウインドウ360fは、図41に示した分類条件設定ウインドウ360dに加えて、画像指定欄A,BおよびCに指定された各基準画像毎に、分類対象の画像との類似度を求める際に使用される特徴量の種類毎の重要度を指定するための重要度指定バー367を備えている。   The classification condition setting window 360f shown in FIG. 43 is similar to the image to be classified for each reference image designated in the image designation fields A, B and C in addition to the classification condition setting window 360d shown in FIG. An importance level designation bar 367 is provided for designating the importance level for each type of feature amount used when determining the level.

ユーザは、図43に示すように、例えば3枚の画像をそれぞれ画像指定欄A,BおよびCに基準画像A,BおよびCとして指定し、指定した基準画像A,BおよびC毎に、特徴量の種類毎の重要度を指定する。この重要度指定バー367は、実施の形態6で説明したように、各基準画像の特徴量の種類毎に、「0」を中心にして「+」の重要度および「−」の重要度を指定することを可能にするものである。なお、重要度として「+」方向および「−」方向の両方ではなく、「+」方向のみ、または「−」方向のみを指定できるようにしても良い。   As shown in FIG. 43, the user designates, for example, three images as reference images A, B, and C in the image designation fields A, B, and C, respectively, and features for each designated reference image A, B, and C. Specify the importance for each type of quantity. As described in the sixth embodiment, the importance level designation bar 367 displays the importance level of “+” and the importance level of “−” with “0” as the center for each type of feature amount of each reference image. It is possible to specify. Note that it is possible to designate not only both the “+” direction and the “−” direction but also the “+” direction or the “−” direction as the importance.

このように、各種類の特徴量毎の重要度を各基準画像毎に指定することにより、分類に対するユーザの意図を正確に表現することが可能となる。すなわち、後述する分類処理によって、重要度は各種類の特徴量毎に求めた類似度に対する重み付けとして反映されるため、ユーザの意図が反映された分類結果の画像を得ることが可能となる。   Thus, by specifying the importance for each type of feature amount for each reference image, it is possible to accurately represent the user's intention for the classification. That is, since the importance is reflected as a weighting on the similarity obtained for each type of feature amount by the classification process described later, an image of the classification result reflecting the user's intention can be obtained.

さらに、ユーザは、AND指定ボタン364を選択してAND条件を指定すると共に、フォルダ352の閾値を指定した後、設定ボタン361を選択すると、U/I部151は、基準画像,重要度,AND条件の指定および閾値を分類条件としてフォルダ352に設定する。   Further, when the user selects the AND designation button 364 to designate an AND condition, designates the threshold value of the folder 352, and then selects the setting button 361, the U / I unit 151 causes the reference image, importance, AND The designation of the condition and the threshold value are set in the folder 352 as the classification condition.

このような処理を各フォルダに対して行うことにより、図43に示すような複数のフォルダ352〜358が分類対象の画像を分類するための分類項目として設定される。なお、設定された各フォルダのフォルダ情報は、分類木DB302に登録される。   By performing such processing for each folder, a plurality of folders 352 to 358 as shown in FIG. 43 are set as classification items for classifying the images to be classified. Note that the folder information of each set folder is registered in the classification tree DB 302.

(2)画像分類処理
実施の形態19に係る画像分類処理について図40を参照しつつ説明する。ユーザが分類処理の開始を指定すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、3種類の特徴量を用いて各基準画像および分類対象の画像の類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各類似度を合計して分類対象の画像の総合類似度を求める処理を実行する(S1601)。
(2) Image Classification Processing Image classification processing according to the nineteenth embodiment will be described with reference to FIG. When the user designates the start of the classification process, the matching engine 153 in FIG. 34 obtains the similarity between each reference image and the image to be classified using three types of feature amounts for each of the folders 352 to 358. Weighting is performed on each similarity according to importance, and processing for obtaining the total similarity of the images to be classified is performed by summing up the similarities (S1601).

このステップS1601における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図43の分類条件設定ウインドウ360fを参照)および分類対象の画像の類似度を色の特徴量を用いて求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、ユーザが基準画像Aに対して指定した色の特徴量の重要度に応じて重み付けを行う。さらに、マッチング・エンジン153は、分類対象の画像と基準画像Aとの距離を構造の特徴量およびテクスチャの特徴量を用いてそれぞれ求め、求めた各距離に対し、ユーザが基準画像Aに対して指定した構造の特徴量の重要度およびテクスチャの特徴量の重要度に応じて重み付けを行う。   The processing in step S1601 will be specifically described taking the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302 and uses the similarity between the reference image A (see the classification condition setting window 360f in FIG. 43) set in the folder 352 and the classification target image as a color feature amount. Use to find. That is, the matching engine 153 determines the distance between the classification target image plotted in the feature amount space shown in FIG. 4 based on the color feature amount and the reference image A, for example, a vector distance definition formula such as a Euclidean distance. Use to find. Subsequently, the matching engine 153 weights the obtained distance according to the importance of the feature amount of the color designated by the user for the reference image A. Further, the matching engine 153 obtains the distance between the image to be classified and the reference image A by using the structural feature amount and the texture feature amount, and the user calculates the distance from the reference image A for each of the obtained distances. Weighting is performed according to the importance of the feature amount of the specified structure and the importance of the feature amount of the texture.

マッチング・エンジン153は、同様に、分類対象の画像と基準画像Bとの距離を3種類の特徴量毎に求め、求めた各距離に対し、基準画像Bに対して指定された各特徴量毎の重要度に応じた重み付けを行う。また、分類対象の画像と基準画像Cとの距離を3種類の特徴量毎に求め、求めた各距離に対し、基準画像Cに対して指定された各特徴量毎の重要度に応じた重み付けを行う。   Similarly, the matching engine 153 obtains the distance between the image to be classified and the reference image B for each of the three types of feature amounts, and for each feature amount designated for the reference image B for each of the obtained distances. Weighting is performed according to the importance of. Further, the distance between the image to be classified and the reference image C is obtained for each of the three types of feature amounts, and the obtained distances are weighted according to the importance for each feature amount designated for the reference image C. I do.

その後、マッチング・エンジン153は、3種類の特徴量毎に求めた分類対象の画像と各基準画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする(数6を参照)。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。   Thereafter, the matching engine 153 sums the distances between the images to be classified obtained for each of the three types of feature amounts and the reference images A, B, and C, and the total value of the distances is used as the total similarity (Equation 6 See). The matching engine 153 obtains the total similarity for each of the folders 352 to 358 in this way.

続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS1601で求めた総合類似度が閾値を超えるか否かを判定する(S1602)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。   Subsequently, the matching engine 153 determines, for each of the folders 352 to 358, whether or not the total similarity obtained in step S1601 exceeds a threshold value (S1602). However, here, distance is used as the similarity, and the shorter the distance (the smaller the distance value), the higher the similarity. Therefore, is the total similarity actually less than or equal to the threshold (or less)? It will be determined whether or not.

そして、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S1603)。すなわち、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。   Then, the matching engine 153 classifies the images to be classified into folders whose calculated overall similarity exceeds the threshold (S1603). That is, the matching engine 153 determines a folder whose total similarity obtained exceeds the threshold as a classification destination of the image to be classified, and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302 as a classification target. The image ID (assumed to be set in advance) is registered in the classification tree DB 302.

以上説明したステップS1601〜S1603の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358に分類された画像のうち、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図43の画像分類ウインドウ350fの各フォルダ352〜358には、図37に示すように代表画像が表示される。   By executing the processes in steps S1601 to S1603 described above for each image registered in the image DB 108, the images in the image DB 108 can be classified. In addition, the matching engine 153 selects an image having the highest overall similarity (the lowest overall similarity in terms of distance) from among the images classified in the folders 352 to 358 as a representative image. It is registered in the classification tree DB 302 in association with the folder information. When the image classification processing is executed, representative images are displayed in the folders 352 to 358 of the image classification window 350f of FIG. 43 as shown in FIG.

このように、実施の形態19に係る画像分類装置によれば、複数種類の特徴量を用いて基準画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、基準画像および特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎の重要度を各基準画像毎に設定することが可能であり、フォルダそれぞれについて、各種類の特徴量毎に各基準画像および分類対象の画像の類似度を求め、各種類の特徴量毎に求めた類似度に対し、設定された重要度に応じた重み付けを行うことにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された画像の分類結果を得ることが可能となる。   As described above, according to the image classification device according to the nineteenth embodiment, when the similarity between the reference image and the search target image is obtained using a plurality of types of feature amounts, Importance for each type of feature can be set for each reference image so that arbitrary weighting can be performed according to the type of feature, and each type of feature for each folder The similarity of each reference image and classification target image is obtained for each type, and the user's intention is classified according to the set importance by weighting the similarity obtained for each type of feature amount. Therefore, it is possible to accurately convey the user's intention to the device, and the importance is reflected as a weight for the similarity. Therefore, the classification result of the image reflecting the user's intention is displayed. Rukoto is possible.

なお、特徴量の種類は、色,構造およびテクスチャの3種類に限定するものではなく、いかなる種類の特徴量の組み合わせであっても良い。   Note that the types of feature quantities are not limited to the three types of color, structure, and texture, but may be any kind of combination of feature quantities.

〔実施の形態20〕
実施の形態20に係る画像分類装置は、実施の形態17の画像分類装置において、実施の形態7で説明した画像検索処理を応用することにより、分類に対するユーザの意図を装置側が汲み取ることができるようにしたものである。なお、実施の形態20に係る画像分類装置は、例として、色,構造およびテクスチャの3種類の特徴量を用いて分類処理を行うものとする。
[Embodiment 20]
In the image classification device according to the twentieth embodiment, by applying the image search process described in the seventh embodiment to the image classification device according to the seventeenth embodiment, the device side can fetch the user's intention for the classification. It is a thing. Note that, for example, the image classification device according to the twentieth embodiment performs classification processing using three types of feature amounts of color, structure, and texture.

前述した実施の形態18および19においては、ユーザが基準画像の重要度または各基準画像に特徴量毎の重要度を指定する必要があったが、実施の形態20に係る画像分類装置においては、ユーザによってフォルダ毎に指定された基準画像間の類似度を、基準画像および分類対象の画像の類似度を求める際に使用する特徴量を用いて求め、求めた特徴量毎の類似度に基づいて各基準画像間における特徴量毎の重要度を装置側で決定し、類似度に対する重み付けとして反映するという点が特徴となる。   In Embodiments 18 and 19 described above, the user needs to specify the importance of the reference image or the importance for each feature amount in each reference image. In the image classification device according to Embodiment 20, The similarity between the reference images designated for each folder by the user is obtained using the feature amount used when obtaining the similarity between the reference image and the classification target image, and based on the obtained similarity for each feature amount. The feature is that the importance for each feature amount between the reference images is determined on the device side and reflected as a weighting for the similarity.

以下に、実施の形態20に係る画像分類装置の動作について、
(1)分類項目設定処理
(2)画像分類処理
の順で説明する。
The operation of the image classification device according to Embodiment 20 is as follows.
(1) Classification item setting processing (2) Image classification processing will be described in this order.

(1)分類項目設定処理
図41を用いて分類項目設定処理について説明する。ユーザは、フォルダ352を作成したものとし、フォルダ352に分類条件を設定するため、図41に示すような分類条件設定ウインドウ360dを表示させる。
(1) Classification Item Setting Process The classification item setting process will be described with reference to FIG. It is assumed that the user has created the folder 352, and in order to set the classification condition in the folder 352, a classification condition setting window 360d as shown in FIG. 41 is displayed.

ユーザは、図41に示すように、例えば3枚の画像をそれぞれ画像指定欄A,BおよびCに基準画像A,BおよびCとして指定し、AND指定ボタン364を選択してAND条件を指定する。さらに、ユーザがフォルダ352の閾値を指定し、設定ボタン361を選択すると、特徴抽出エンジン152は、色,構造およびテクスチャの3種類の特徴量毎に、各基準画像A,BおよびC間の距離(類似度)を求め、求めた各特徴量毎の距離に基づいて各基準画像A,BおよびC間における特徴量毎の重要度を決定する。   As shown in FIG. 41, the user designates, for example, three images as reference images A, B, and C in the image designation fields A, B, and C, respectively, selects an AND designation button 364, and designates an AND condition. . Further, when the user designates the threshold value of the folder 352 and selects the setting button 361, the feature extraction engine 152 causes the distance between the reference images A, B, and C for each of the three types of feature amounts of color, structure, and texture. (Similarity) is obtained, and the importance for each feature amount between the reference images A, B, and C is determined based on the obtained distance for each feature amount.

具体的に、特徴抽出エンジン152は、3種類の特徴量毎に、基準画像同士の特徴間の距離を求める。各特徴量毎に求めた距離の分散が大きい場合にはその特徴量についてはユーザは関知していないことを意味し、分散が小さい場合にはユーザはその特徴量を分類基準として重視していると判断できる。したがって、分散が大きい特徴量の場合には重要度を小さくし、分散が小さい場合には重要度を大きくするようにする(数7を参照)。   Specifically, the feature extraction engine 152 obtains the distance between the features of the reference images for each of the three types of feature amounts. If the variance of the distance obtained for each feature amount is large, it means that the user is not aware of the feature amount. If the variance is small, the user attaches importance to the feature amount as a classification standard. It can be judged. Therefore, the importance is decreased when the feature amount has a large variance, and the importance is increased when the variance is small (see Equation 7).

特徴抽出エンジン152は、3種類の特徴量毎の重要度をU/I部151に入力し、U/I部151は、基準画像,特徴抽出エンジン152で決定された重要度,AND条件の指定および閾値を分類条件としてフォルダ352に設定する。   The feature extraction engine 152 inputs the importance for each of the three types of feature amounts to the U / I unit 151. The U / I unit 151 specifies the reference image, the importance determined by the feature extraction engine 152, and the AND condition. The threshold value is set in the folder 352 as the classification condition.

このような処理を各フォルダに対して行うことにより、図41に示すような複数のフォルダ352〜358が分類対象の画像を分類するための分類項目として設定される。なお、設定されたフォルダのフォルダ情報は分類木DB302に登録される。   By performing such processing for each folder, a plurality of folders 352 to 358 as shown in FIG. 41 are set as classification items for classifying the images to be classified. The folder information of the set folder is registered in the classification tree DB 302.

(2)画像分類処理
つぎに、実施の形態20の画像分類処理について図40を参照しつつ説明する。ユーザが分類処理の開始を指定すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、3種類の特徴量を用いて各基準画像および分類対象の画像の類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各類似度を合計して分類対象の画像の総合類似度を求める処理を実行する(S1601)。
(2) Image Classification Processing Next, image classification processing according to the twentieth embodiment will be described with reference to FIG. When the user designates the start of the classification process, the matching engine 153 in FIG. 34 obtains the similarity between each reference image and the image to be classified using three types of feature amounts for each of the folders 352 to 358. Weighting is performed on each similarity according to importance, and processing for obtaining the total similarity of the images to be classified is performed by summing up the similarities (S1601).

このステップS1601における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図41の分類条件設定ウインドウ360dを参照)および分類対象の画像の類似度を色の特徴量を用いて求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、特徴抽出エンジン152で色の特徴量について決定した重要度に応じて重み付けを行う。さらに、マッチング・エンジン153は、分類対象の画像と基準画像Aについて、構造の特徴量およびテクスチャの特徴量を用いた距離を求め、求めた各距離に対し、特徴抽出エンジン152で決定した構造の特徴量の重要度およびテクスチャの特徴量の重要度に応じて重み付けを行う。   The processing in step S1601 will be specifically described taking the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302 and uses the similarity between the reference image A (see the classification condition setting window 360d in FIG. 41) set in the folder 352 and the classification target image as a color feature amount. Use to find. That is, the matching engine 153 determines the distance between the classification target image plotted in the feature amount space shown in FIG. 4 based on the color feature amount and the reference image A, for example, a vector distance definition formula such as a Euclidean distance. Use to find. Subsequently, the matching engine 153 performs weighting on the obtained distance according to the importance determined by the feature extraction engine 152 for the color feature amount. Further, the matching engine 153 obtains a distance using the structural feature quantity and the texture feature quantity for the classification target image and the reference image A, and for each of the obtained distances, the structure of the structure determined by the feature extraction engine 152 is obtained. Weighting is performed according to the importance of the feature quantity and the importance of the texture feature quantity.

マッチング・エンジン153は、同様に、分類対象の画像と基準画像Bとの距離を3種類の特徴量毎に求め、求めた各距離に対し、各種類の特徴量毎に決定された重要度に応じた重み付けを行う。また、分類対象の画像と基準画像Cとの距離を3種類の特徴量毎に求め、求めた各距離に対し、各種類の特徴量毎に決定された重要度に応じた重み付けを行う。   Similarly, the matching engine 153 obtains the distance between the image to be classified and the reference image B for each of the three types of feature amounts, and sets the importance determined for each type of feature amount for each of the obtained distances. Perform the corresponding weighting. Further, the distance between the image to be classified and the reference image C is determined for each of the three types of feature amounts, and the determined distances are weighted according to the importance determined for each type of feature amount.

その後、マッチング・エンジン153は、3種類の特徴量毎に求めた分類対象の画像と各基準画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。   Thereafter, the matching engine 153 sums the distances between the images to be classified and the reference images A, B, and C obtained for each of the three types of feature amounts, and sets the total value of the distances as the overall similarity. The matching engine 153 obtains the total similarity for each of the folders 352 to 358 in this way.

続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS1601で求めた総合類似度が閾値を超えるか否かを判定する(S1602)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。   Subsequently, the matching engine 153 determines, for each of the folders 352 to 358, whether or not the total similarity obtained in step S1601 exceeds a threshold value (S1602). However, here, distance is used as the similarity, and the shorter the distance (the smaller the distance value), the higher the similarity. Therefore, is the total similarity actually less than or equal to the threshold (or less)? It will be determined whether or not.

そして、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S1603)。すなわち、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。   Then, the matching engine 153 classifies the images to be classified into folders whose calculated overall similarity exceeds the threshold (S1603). That is, the matching engine 153 determines a folder whose total similarity obtained exceeds the threshold as a classification destination of the image to be classified, and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302 as a classification target. The image ID (assumed to be set in advance) is registered in the classification tree DB 302.

以上説明したステップS1601〜S1603の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358に分類された画像のうち、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図41の画像分類ウインドウ350dの各フォルダ352〜358には、図37に示すように代表画像が表示される。   By executing the processes in steps S1601 to S1603 described above for each image registered in the image DB 108, the images in the image DB 108 can be classified. In addition, the matching engine 153 selects an image having the highest overall similarity (the lowest overall similarity in terms of distance) from among the images classified in the folders 352 to 358 as a representative image. It is registered in the classification tree DB 302 in association with the folder information. When the image classification process is executed, representative images are displayed in the folders 352 to 358 of the image classification window 350d in FIG. 41 as shown in FIG.

このように、実施の形態20に係る画像分類装置によれば、複数種類の特徴量を用いて基準画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、特徴量の種類に応じて任意の重み付けを行うことができるように、分類項目毎に、設定された各基準画像間の類似度を各種類の特徴量毎に求め、各種類の特徴量毎に求めた類似度に基づいて各基準画像間における各特徴量毎の重要度を決定し、分類項目それぞれについて、各種類の特徴量毎に各基準画像および分類対象の画像の類似度を求め、各種類の特徴量毎に求めた類似度に対し、決定された重要度に応じた重み付けを行うことにより、装置側でユーザが指定した基準画像間における各種類の特徴量の重要度を判断し、判断した重要度を画像間の類似度に反映させるため、ユーザの意図に合った画像の分類結果を返すことが可能となる。したがって、ユーザが望む通りの分類処理を実現することができ、ユーザが望む分類結果を得ることができる。   Thus, according to the image classification device according to the twentieth embodiment, when the similarity between the reference image and the search target image is obtained using a plurality of types of feature amounts, the feature amount is compared with the obtained similarity degree. For each classification item, the similarity between each set reference image is obtained for each type of feature quantity, and the similarity obtained for each type of feature quantity so that arbitrary weighting can be performed according to the type. The degree of importance for each feature amount between each reference image is determined based on the degree, and for each classification item, the similarity between each reference image and the classification target image is obtained for each type of feature amount, and each type of feature is determined. The importance obtained by determining the importance of each type of feature between the reference images specified by the user on the device side by weighting the similarity obtained for each quantity according to the determined importance. To reflect the degree in the similarity between images You can return the result of classification suits image the user's intention to become. Therefore, the classification process as desired by the user can be realized, and the classification result desired by the user can be obtained.

なお、特徴量の種類は、色,構造およびテクスチャの3種類に限定するものではなく、いかなる種類の特徴量の組み合わせであっても良い。   Note that the types of feature quantities are not limited to the three types of color, structure, and texture, but may be any kind of combination of feature quantities.

〔実施の形態21〕
実施の形態21に係る画像分類装置は、ユーザの意図を分類条件として正確に表現するための一つの手法として、実施の形態8で説明したOR検索を応用した画像分類処理を行うものである。
[Embodiment 21]
The image classification apparatus according to the twenty-first embodiment performs an image classification process using the OR search described in the eighth embodiment as one method for accurately expressing the user's intention as a classification condition.

実施の形態21に係る画像分類装置による画像の分類処理は、実施の形態17で説明に用いた図41の分類条件設定ウインドウ360dにおいて、AND指定ボタン364ではなく、OR指定ボタン365が選択された場合に実行される。そこで、実施の形態17における「(1)分類項目設定処理」の説明において、OR指定ボタン365が選択されたものとして、以下にOR条件による画像分類処理を説明する。   In the image classification processing by the image classification device according to the twenty-first embodiment, the OR designation button 365 is selected instead of the AND designation button 364 in the classification condition setting window 360d of FIG. 41 used for the description in the seventeenth embodiment. If executed. In view of “(1) classification item setting process” in the seventeenth embodiment, assuming that the OR designation button 365 is selected, the image classification process based on the OR condition will be described below.

なお、OR条件の指定と共に、図41に示したフォルダ352には、実施の形態17の場合と同様に基準画像A,BおよびC,ならびに閾値が分類条件として設定されたものとする。   It is assumed that reference images A, B, and C, and threshold values are set as classification conditions in the folder 352 shown in FIG. 41 together with the designation of the OR condition, as in the case of the seventeenth embodiment.

図44は、実施の形態21の画像分類処理を示すフローチャートである。ユーザが分類処理の開始を指示すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、所定の特徴量を用いて各基準画像および分類対象の画像の類似度を求めると共に、求めた類似度の中から最も高い類似性を示す類似度を選択して分類対象の画像の総合類似度を求める処理を実行する(S2101)。   FIG. 44 is a flowchart showing image classification processing according to the twenty-first embodiment. When the user instructs the start of the classification process, the matching engine 153 in FIG. 34 obtains the similarity between each reference image and the image to be classified for each folder 352 to 358 by using a predetermined feature amount. A process of selecting the similarity indicating the highest similarity from the similarities and obtaining the total similarity of the images to be classified is executed (S2101).

このステップS2101における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図41の分類条件設定ウインドウ360dを参照)および分類対象の画像の類似度を所定の特徴量を用いて求める。すなわち、マッチング・エンジン153は、所定の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。マッチング・エンジン153は、同様に、所定の特徴量に基づいて分類対象の画像と基準画像Bとの距離を求めると共に、分類対象の画像と基準画像Cとの距離を求める。   The processing in step S2101 will be specifically described taking the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302 and uses the similarity between the reference image A (see the classification condition setting window 360d in FIG. 41) set in the folder 352 and the image to be classified as a predetermined feature amount. Find using. That is, the matching engine 153 determines the distance between the image to be classified and the reference image A plotted in the feature amount space shown in FIG. 4 based on a predetermined feature amount, for example, a vector distance definition formula such as a Euclidean distance. Use to find. Similarly, the matching engine 153 obtains the distance between the image to be classified and the reference image B based on a predetermined feature amount, and obtains the distance between the image to be classified and the reference image C.

その後、マッチング・エンジン153は、分類対象の画像と各基準画像A,BおよびCとの距離の中から最も短い距離を選択して総合類似度を求める(数8を参照)。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に最も高い類似性を示す類似度を選択して総合類似度を求める。   Thereafter, the matching engine 153 selects the shortest distance from the distances between the images to be classified and the reference images A, B, and C to obtain the overall similarity (see Expression 8). In this way, the matching engine 153 selects the similarity indicating the highest similarity for each of the folders 352 to 358 and obtains the total similarity.

続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS2101で選択した類似度が閾値を超えるか否かを判定する(S2102)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。   Subsequently, the matching engine 153 determines whether the similarity selected in step S2101 exceeds the threshold for each of the folders 352 to 358 (S2102). However, here, distance is used as the similarity, and the shorter the distance (the smaller the distance value), the higher the similarity. Therefore, is the total similarity actually less than or equal to the threshold (or less)? It will be determined whether or not.

そして、マッチング・エンジン153は、選択した類似度が閾値を超えるフォルダに分類対象の画像を分類する(S2103)。すなわち、マッチング・エンジン153は、選択した類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。   Then, the matching engine 153 classifies the images to be classified into folders whose selected similarity exceeds the threshold (S2103). That is, the matching engine 153 determines the folder whose selected similarity exceeds the threshold as the classification destination of the image to be classified, and associates it with the folder information of the corresponding folder registered in the classification tree DB 302 to classify the image. Are registered in the classification tree DB 302.

以上説明したステップS2101〜S2103の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358それぞれに分類された画像の中から、最も高い類似度(ステップS2101で選択された類似度のことであり、距離で表現すれば最も小さい類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図41の画像分類ウインドウ350dの各フォルダ352〜358には、図37に示すように代表画像が表示される。   By executing the processes in steps S2101 to S2103 described above for each image registered in the image DB 108, the images in the image DB 108 can be classified. In addition, the matching engine 153 has the highest similarity (the similarity selected in step S2101 from among the images classified in each of the folders 352 to 358, and the lowest similarity expressed in terms of distance). ) Are selected as representative images and registered in the classification tree DB 302 in association with the corresponding folder information. When the image classification process is executed, representative images are displayed in the folders 352 to 358 of the image classification window 350d in FIG. 41 as shown in FIG.

なお、実施の形態21の画像分類処理においては、分類対象の画像が、あるフォルダに設定された各基準画像のいずれかに対して閾値以上の類似度が得られる程類似していればそのフォルダに分類されることになる。したがって、実施の形態21の画像分類処理にOR検索が応用されていることがわかる。   In the image classification process according to the twenty-first embodiment, if the image to be classified is similar to a reference image set in a certain folder so that a similarity equal to or higher than a threshold is obtained, the folder It will be classified into. Therefore, it can be seen that the OR search is applied to the image classification process of the twenty-first embodiment.

このように、実施の形態21に係る画像分類装置によれば、フォルダを設定し、設定したフォルダ毎に、基準画像を複数設定し、フォルダ毎に、設定された各基準画像および分類対象の画像の類似度を求めると共に、求めた類似度の中から最も高い類似性を示す類似度を選択し、各フォルダ毎に選択した類似度および予め設定された分類先決定基準に基づいて分類対象の画像の分類先となるフォルダを決定するため、OR検索処理を応用した画像分類処理を行うことが可能となる。したがって、新たな分類方法で画像を分類可能な画像分類装置を提供することができる。   Thus, according to the image classification device according to the twenty-first embodiment, a folder is set, a plurality of reference images are set for each set folder, and each set reference image and classification target image are set for each folder. And selecting the similarity showing the highest similarity from the obtained similarities, and selecting the image to be classified based on the similarity selected for each folder and a preset classification destination determination criterion Therefore, it is possible to perform image classification processing using OR search processing. Therefore, it is possible to provide an image classification device that can classify images by a new classification method.

なお、詳細な説明については省略するが、画像DB108に新たに画像が登録された場合、その画像についても分類処理を行うことにより、画像DB108中の画像を常に分類した状態に保つことができる。例えば、U/I部151が画像DB108の状態を監視することにすれば、人手を要することなく、画像DB108中の画像を常に分類した状態に保つことができる。   Although a detailed description is omitted, when a new image is registered in the image DB 108, the image in the image DB 108 can always be kept in a classified state by performing a classification process on the image. For example, if the U / I unit 151 monitors the state of the image DB 108, it is possible to keep the images in the image DB 108 always in a classified state without requiring human intervention.

〔実施の形態22〕
実施の形態22に係る画像分類装置は、実施の形態21の画像分類装置において、実施の形態9で説明した画像検索処理を応用することにより、分類に対するユーザの意図を正確に表現できるようにしたものである。
[Embodiment 22]
The image classification apparatus according to the twenty-second embodiment can accurately represent the user's intention for classification by applying the image search processing described in the ninth embodiment to the image classification apparatus according to the twenty-first embodiment. Is.

実施の形態22に係る画像分類装置による画像の分類処理は、実施の形態18で説明に用いた図42の分類条件設定ウインドウ360eにおいて、AND指定ボタン364ではなく、OR指定ボタン365が選択された場合に実行される。そこで、実施の形態18における「(1)分類項目設定処理」の説明において、OR指定ボタン365が選択されたものとして、以下にOR条件による画像分類処理を説明する。   In the image classification processing by the image classification apparatus according to the twenty-second embodiment, the OR designation button 365 is selected instead of the AND designation button 364 in the classification condition setting window 360e of FIG. 42 used for the explanation in the eighteenth embodiment. If executed. Thus, in the description of “(1) Classification item setting process” in the eighteenth embodiment, assuming that the OR designation button 365 is selected, the image classification process based on the OR condition will be described below.

なお、OR条件の指定と共に、図42に示したフォルダ352には、実施の形態18の場合と同様に基準画像A,BおよびC,各基準画像の重要度ならびに閾値が分類条件として設定されたものとする。   In addition to the designation of the OR condition, in the folder 352 shown in FIG. 42, as in the case of the eighteenth embodiment, the reference images A, B and C, the importance level and threshold value of each reference image are set as the classification conditions. Shall.

図45は、実施の形態22の画像分類処理を示すフローチャートである。ユーザが分類処理の開始を指示すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、所定の特徴量を用いて各基準画像および分類対象の画像との類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各類似度の中から最も高い類似性を示す類似度を選択して分類対象の画像の総合類似度を求める処理を実行する(S2201)。   FIG. 45 is a flowchart showing image classification processing according to the twenty-second embodiment. When the user instructs the start of the classification process, the matching engine 153 in FIG. 34 obtains the similarity between each reference image and the image to be classified for each folder 352 to 358 using a predetermined feature amount. Weighting is performed on each similarity according to the importance, and processing for obtaining the overall similarity of the images to be classified is executed by selecting the similarity indicating the highest similarity among the similarities (S2201). .

このステップS2201における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図42の分類条件設定ウインドウ360eを参照)および分類対象の画像の類似度を所定の特徴量を用いて求める。すなわち、マッチング・エンジン153は、所定の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、ユーザが指定した基準画像Aの重要度に応じて重み付けを行う。マッチング・エンジン153は、同様に、所定の特徴量に基づいて分類対象の画像と基準画像Bとの距離を求め、求めた距離に対して基準画像Bの重要度に応じた重み付けを行うと共に、所定の特徴量に基づいて分類対象の画像と基準画像Cとの距離を求め、求めた距離に対して基準画像Cの重要度に応じた重み付けを行う。   The processing in step S2201 will be specifically described taking the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302 and uses the similarity between the reference image A (see the classification condition setting window 360e in FIG. 42) set in the folder 352 and the image to be classified as a predetermined feature amount. Use to find. That is, the matching engine 153 determines the distance between the image to be classified and the reference image A plotted in the feature amount space shown in FIG. 4 based on a predetermined feature amount, for example, a vector distance definition formula such as a Euclidean distance. Use to find. Subsequently, the matching engine 153 weights the obtained distance according to the importance of the reference image A designated by the user. Similarly, the matching engine 153 obtains the distance between the image to be classified and the reference image B based on a predetermined feature amount, weights the obtained distance according to the importance of the reference image B, The distance between the image to be classified and the reference image C is obtained based on a predetermined feature amount, and the obtained distance is weighted according to the importance of the reference image C.

その後、マッチング・エンジン153は、分類対象の画像と各基準画像A,BおよびCとの距離の中から最も短い距離を選択して総合類似度を求める(数9を参照)。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。   Thereafter, the matching engine 153 selects the shortest distance from the distances between the images to be classified and the reference images A, B, and C to obtain the overall similarity (see Expression 9). The matching engine 153 obtains the total similarity for each of the folders 352 to 358 in this way.

続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS2201で求めた総合類似度が閾値を超えるか否かを判定する(S2202)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。   Subsequently, the matching engine 153 determines, for each of the folders 352 to 358, whether or not the total similarity calculated in step S2201 exceeds a threshold value (S2202). However, here, distance is used as the similarity, and the shorter the distance (the smaller the distance value), the higher the similarity. Therefore, is the total similarity actually less than or equal to the threshold (or less)? It will be determined whether or not.

そして、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S2203)。すなわち、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。   Then, the matching engine 153 classifies the images to be classified into folders whose calculated overall similarity exceeds the threshold (S2203). That is, the matching engine 153 determines a folder whose total similarity obtained exceeds the threshold as a classification destination of the image to be classified, and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302 as a classification target. The image ID (assumed to be set in advance) is registered in the classification tree DB 302.

以上説明したステップS2201〜S2203の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358それぞれに分類された画像の中から、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図42の画像分類ウインドウ350eの各フォルダ352〜358には、図37に示すように代表画像が表示される。   By executing the processes in steps S2201 to S2203 described above for each image registered in the image DB 108, the images in the image DB 108 can be classified. In addition, the matching engine 153 selects an image having the highest overall similarity (the lowest overall similarity in terms of distance) from the images classified in the folders 352 to 358 as a representative image, The information is registered in the classification tree DB 302 in association with the corresponding folder information. When the image classification processing is executed, representative images are displayed in the folders 352 to 358 of the image classification window 350e in FIG. 42 as shown in FIG.

このように、実施の形態22に係る画像分類装置によれば、求めた類似度に対し、基準画像の種類に応じて任意の重み付けを行うことができるように、各基準画像毎に重要度を設定することが可能であり、フォルダ毎に、各基準画像および分類対象の画像の類似度を求め、求めた類似度に対し、設定された重要度に応じた重み付けを行うことにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された画像の分類結果を得ることが可能となる。   As described above, according to the image classification device according to the twenty-second embodiment, the importance is set for each reference image so that the obtained similarity can be arbitrarily weighted according to the type of the reference image. It is possible to set the user's intention by calculating the similarity between each reference image and the image to be classified for each folder and weighting the obtained similarity according to the set importance. Can be accurately expressed as a classification condition, so it is possible to accurately convey the user's intention to the device, and the importance is reflected as a weighting to the similarity, so the image classification result that reflects the user's intention Can be obtained.

〔実施の形態23〕
実施の形態23に係る画像分類装置は、実施の形態21の画像分類装置において、実施の形態10で説明した画像検索処理を応用することにより、分類に対するユーザの意図を正確に表現できるようにしたものである。
[Embodiment 23]
The image classification device according to the twenty-third embodiment can accurately express the user's intention for classification by applying the image search processing described in the tenth embodiment to the image classification device of the twenty-first embodiment. Is.

実施の形態23に係る画像分類装置による画像の分類処理は、実施の形態19で説明に用いた図43の分類条件設定ウインドウ360fにおいて、AND指定ボタン364ではなく、OR指定ボタン365が選択された場合に実行される。そこで、実施の形態19における「(1)分類項目設定処理」の説明において、OR指定ボタン365が選択されたものとして、以下にOR条件による画像分類処理を説明する。   In the image classification processing by the image classification device according to the twenty-third embodiment, the OR designation button 365 is selected instead of the AND designation button 364 in the classification condition setting window 360f of FIG. 43 used for the explanation in the nineteenth embodiment. If executed. In view of “(1) classification item setting process” in the nineteenth embodiment, assuming that the OR designation button 365 is selected, an image classification process based on an OR condition will be described below.

なお、OR条件の指定と共に、図43に示したフォルダ352には、実施の形態19の場合と同様に基準画像A,BおよびC,各基準画像について特徴量の種類毎に指定された重要度ならびに閾値が分類条件として設定されたものとする。   In addition to the specification of the OR condition, in the folder 352 shown in FIG. 43, as in the case of the nineteenth embodiment, the reference images A, B and C, the importance specified for each type of feature amount for each reference image In addition, it is assumed that a threshold is set as a classification condition.

つぎに、実施の形態23に係る画像分類処理について図45を参照しつつ説明する。ユーザが画像分類処理の開始を指定すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、3種類の特徴量を用いて各基準画像および分類対象の画像の類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各類似度の中から最も高い類似性を示す類似度を選択して分類対象の画像の総合類似度を求める処理を実行する(S2201)。   Next, an image classification process according to Embodiment 23 will be described with reference to FIG. When the user designates the start of the image classification process, the matching engine 153 in FIG. 34 obtains the similarity between each reference image and the image to be classified by using three types of feature amounts for each of the folders 352 to 358. Then, weighting is performed on each similarity according to the importance, and the processing for obtaining the total similarity of the images to be classified by selecting the similarity that shows the highest similarity from the similarities is executed (S2201). ).

このステップS2201における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図43の分類条件設定ウインドウ360fを参照)および分類対象の画像の類似度を色の特徴量を用いて求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、ユーザが基準画像Aに対して指定した色の特徴量の重要度に応じて重み付けを行う。さらに、マッチング・エンジン153は、分類対象の画像と基準画像Aとの距離を構造の特徴量およびテクスチャの特徴量を用いて求め、求めた各距離に対し、ユーザが基準画像Aに対して指定した構造の特徴量の重要度およびテクスチャの特徴量の重要度に応じて重み付けを行う。   The processing in step S2201 will be specifically described taking the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302 and uses the similarity between the reference image A (see the classification condition setting window 360f in FIG. 43) set in the folder 352 and the classification target image as a color feature amount. Use to find. That is, the matching engine 153 determines the distance between the classification target image plotted in the feature amount space shown in FIG. 4 based on the color feature amount and the reference image A, for example, a vector distance definition formula such as a Euclidean distance. Find using. Subsequently, the matching engine 153 weights the obtained distance according to the importance of the feature amount of the color designated by the user for the reference image A. Further, the matching engine 153 obtains the distance between the image to be classified and the reference image A using the structural feature amount and the texture feature amount, and the user designates the reference image A for each of the obtained distances. Weighting is performed according to the importance of the feature amount of the structure and the importance of the feature amount of the texture.

マッチング・エンジン153は、同様に、分類対象の画像と基準画像Bとの距離を3種類の特徴量毎に求め、求めた各距離に対し、基準画像Bに対して指定された各特徴量毎の重要度に応じた重み付けを行う。また、分類対象の画像と基準画像Cとの距離を3種類の特徴量毎に求め、求めた各距離に対し、基準画像Cに対して指定された各特徴量毎の重要度に応じた重み付けを行う。   Similarly, the matching engine 153 obtains the distance between the image to be classified and the reference image B for each of the three types of feature amounts, and for each feature amount designated for the reference image B for each of the obtained distances. Weighting is performed according to the importance of. Further, the distance between the image to be classified and the reference image C is obtained for each of the three types of feature amounts, and the obtained distances are weighted according to the importance for each feature amount designated for the reference image C. I do.

その後、マッチング・エンジン153は、3種類の特徴量毎に求めた分類対象の画像と各基準画像A,BおよびCとの距離の中から最も短い距離を選択して総合類似度とする(数10を参照)。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。   Thereafter, the matching engine 153 selects the shortest distance from the distances between the images to be classified obtained for each of the three types of feature amounts and the reference images A, B, and C to obtain the total similarity (several 10). The matching engine 153 obtains the total similarity for each of the folders 352 to 358 in this way.

続いて、マッチング・エンジン153は、分類木DB302を参照して、フォルダ352〜358毎に、ステップS2201で求めた総合類似度が閾値を超えるか否かを判定する(S2202)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。   Subsequently, the matching engine 153 refers to the classification tree DB 302 and determines whether or not the total similarity obtained in step S2201 exceeds the threshold for each of the folders 352 to 358 (S2202). However, here, distance is used as the similarity, and the shorter the distance (the smaller the distance value), the higher the similarity. Therefore, is the total similarity actually less than or equal to the threshold (or less)? It will be determined whether or not.

そして、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S2203)。すなわち、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。   Then, the matching engine 153 classifies the images to be classified into folders whose calculated overall similarity exceeds the threshold (S2203). That is, the matching engine 153 determines a folder whose total similarity obtained exceeds the threshold as a classification destination of the image to be classified, and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302 as a classification target. The image ID (assumed to be set in advance) is registered in the classification tree DB 302.

以上説明したステップS2201〜S2203の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358それぞれに分類された画像の中から、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図43の画像分類ウインドウ350fの各フォルダ352〜358には、図37に示すように代表画像が表示される。   By executing the processes in steps S2201 to S2203 described above for each image registered in the image DB 108, the images in the image DB 108 can be classified. In addition, the matching engine 153 selects an image having the highest overall similarity (the lowest overall similarity in terms of distance) from the images classified in the folders 352 to 358 as a representative image, The information is registered in the classification tree DB 302 in association with the corresponding folder information. When the image classification processing is executed, representative images are displayed in the folders 352 to 358 of the image classification window 350f of FIG. 43 as shown in FIG.

このように、実施の形態23に係る画像分類装置によれば、複数種類の特徴量を用いて基準画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、基準画像および特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎の重要度を各基準画像毎に設定することが可能であり、フォルダそれぞれについて、各種類の特徴量毎に各基準画像および分類対象の画像の類似度を求め、各種類の特徴量毎に求めた類似度に対し、設定された重要度に応じた重み付けを行うことにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された画像の分類結果を得ることが可能となる。   Thus, according to the image classification device according to the twenty-third embodiment, when the similarity between the reference image and the search target image is obtained using a plurality of types of feature amounts, the reference image and Importance for each type of feature can be set for each reference image so that arbitrary weighting can be performed according to the type of feature, and each type of feature for each folder The similarity of each reference image and classification target image is obtained for each type, and the user's intention is classified according to the set importance by weighting the similarity obtained for each type of feature amount. Therefore, it is possible to accurately convey the user's intention to the device, and since the importance is reflected as a weight for the similarity, the classification result of the image reflecting the user's intention is displayed. Rukoto is possible.

〔実施の形態24〕
実施の形態24に係る画像分類装置は、実施の形態21の画像分類装置において、実施の形態11で説明した画像検索処理を応用することにより、分類に対するユーザの意図を装置側が汲み取ることができるようにしたものである。
[Embodiment 24]
In the image classification device according to the twenty-fourth embodiment, by applying the image search process described in the eleventh embodiment to the image classification device according to the twenty-first embodiment, the device side can fetch the user's intention for the classification. It is a thing.

実施の形態24に係る画像分類装置による画像の分類処理は、実施の形態20で説明に用いた図41の分類条件設定ウインドウ360dにおいて、AND指定ボタン364ではなく、OR指定ボタン365が選択された場合に実行される。そこで、実施の形態20における「(1)分類項目設定処理」の説明において、OR指定ボタン365が選択されたものとして、以下にOR条件による画像分類処理を説明する。   In the image classification processing by the image classification device according to the twenty-fourth embodiment, the OR designation button 365 is selected instead of the AND designation button 364 in the classification condition setting window 360d of FIG. 41 used in the description of the twentieth embodiment. If executed. Thus, in the description of “(1) classification item setting process” in the twentieth embodiment, it is assumed that the OR designation button 365 is selected, and the image classification process based on the OR condition will be described below.

なお、OR条件の指定と共に、図41に示したフォルダ352には、実施の形態20の場合と同様に基準画像A,BおよびC,特徴量の種類毎に特徴抽出エンジン152で決定された重要度ならびに閾値が分類条件として設定されたものとする。   In addition to the designation of the OR condition, the folder 352 shown in FIG. 41 contains the important images determined by the feature extraction engine 152 for each type of the reference images A, B, and C and the feature amount as in the case of the twentieth embodiment. It is assumed that the degree and the threshold are set as classification conditions.

つぎに、実施の形態24の画像分類処理について図45を参照しつつ説明する。ユーザが画像分類処理の開始を指定すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、3種類の特徴量を用いて各基準画像および分類対象の画像の類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各類似度の中から最も高い類似性を示す類似度を選択して分類対象の画像の総合類似度を求める処理を実行する(S2201)。   Next, the image classification process according to the twenty-fourth embodiment will be described with reference to FIG. When the user designates the start of the image classification process, the matching engine 153 in FIG. 34 obtains the similarity between each reference image and the image to be classified by using three types of feature amounts for each of the folders 352 to 358. Then, weighting is performed on each similarity according to the importance, and the processing for obtaining the total similarity of the images to be classified by selecting the similarity that shows the highest similarity from the similarities is executed (S2201). ).

このステップS2201における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図41の分類条件設定ウインドウ360dを参照)および分類対象の画像の類似度を色の特徴量を用いて求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、特徴抽出エンジン152で色の特徴量について決定した重要度に応じて重み付けを行う。さらに、マッチング・エンジン153は、分類対象の画像と基準画像Aについて、構造の特徴量およびテクスチャの特徴量を用いた距離を求め、求めた各距離に対し、特徴抽出エンジン152で決定した構造の特徴量の重要度およびテクスチャの特徴量の重要度に応じて重み付けを行う。   The processing in step S2201 will be specifically described taking the folder 352 as an example. The matching engine 153 refers to the folder information in the classification tree DB 302 and uses the similarity between the reference image A (see the classification condition setting window 360d in FIG. 41) set in the folder 352 and the classification target image as a color feature amount. Use to find. That is, the matching engine 153 determines the distance between the classification target image plotted in the feature amount space shown in FIG. 4 based on the color feature amount and the reference image A, for example, a vector distance definition formula such as a Euclidean distance. Find using. Subsequently, the matching engine 153 performs weighting on the obtained distance according to the importance determined by the feature extraction engine 152 for the color feature amount. Further, the matching engine 153 obtains a distance using the structural feature quantity and the texture feature quantity for the classification target image and the reference image A, and for each of the obtained distances, the structure of the structure determined by the feature extraction engine 152 is obtained. Weighting is performed according to the importance of the feature quantity and the importance of the texture feature quantity.

マッチング・エンジン153は、同様に、分類対象の画像と基準画像Bとの距離を3種類の特徴量毎に求め、求めた各距離に対し、各種類の特徴量毎に決定された重要度に応じた重み付けを行う。また、分類対象の画像と基準画像Cとの距離を3種類の特徴量毎に求め、求めた各距離に対し、各種類の特徴量毎に決定された重要度に応じた重み付けを行う。   Similarly, the matching engine 153 obtains the distance between the image to be classified and the reference image B for each of the three types of feature amounts, and sets the importance determined for each type of feature amount for each of the obtained distances. Perform the corresponding weighting. Further, the distance between the image to be classified and the reference image C is determined for each of the three types of feature amounts, and the determined distances are weighted according to the importance determined for each type of feature amount.

その後、マッチング・エンジン153は、3種類の特徴量毎に求めた分類対象の画像と各基準画像A,BおよびCとの距離の中から最も短い距離を選択して総合類似度を求める。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。   Thereafter, the matching engine 153 selects the shortest distance from the distances between the images to be classified obtained for each of the three types of feature amounts and the reference images A, B, and C to obtain the overall similarity. The matching engine 153 obtains the total similarity for each of the folders 352 to 358 in this way.

続いて、マッチング・エンジン153は、分類木DB302を参照して、フォルダ352〜358毎に、ステップS2201で求めた総合類似度が閾値を超えるか否かを判定する(S2202)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。   Subsequently, the matching engine 153 refers to the classification tree DB 302 and determines whether or not the total similarity obtained in step S2201 exceeds the threshold for each of the folders 352 to 358 (S2202). However, here, distance is used as the similarity, and the shorter the distance (the smaller the distance value), the higher the similarity. Therefore, is the total similarity actually less than or equal to the threshold (or less)? It will be determined whether or not.

そして、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S2203)。すなわち、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。   Then, the matching engine 153 classifies the images to be classified into folders whose calculated overall similarity exceeds the threshold (S2203). That is, the matching engine 153 determines a folder whose total similarity obtained exceeds the threshold as a classification destination of the image to be classified, and associates the folder with the folder information of the corresponding folder registered in the classification tree DB 302 as a classification target. The image ID (assumed to be set in advance) is registered in the classification tree DB 302.

以上説明したステップS2201〜S2203の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358それぞれに分類された画像の中から、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図41の画像分類ウインドウ350dの各フォルダ352〜358には、図37に示すように代表画像が表示される。   By executing the processes in steps S2201 to S2203 described above for each image registered in the image DB 108, the images in the image DB 108 can be classified. In addition, the matching engine 153 selects an image having the highest overall similarity (the lowest overall similarity in terms of distance) from the images classified in the folders 352 to 358 as a representative image, The information is registered in the classification tree DB 302 in association with the corresponding folder information. When the image classification process is executed, representative images are displayed in the folders 352 to 358 of the image classification window 350d in FIG. 41 as shown in FIG.

このように、実施の形態24に係る画像分類装置によれば、複数種類の特徴量を用いて基準画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、特徴量の種類に応じて任意の重み付けを行うことができるように、分類項目毎に、設定された各基準画像間の類似度を各種類の特徴量毎に求め、各種類の特徴量毎に求めた類似度に基づいて各基準画像間における各特徴量毎の重要度を決定し、分類項目それぞれについて、各種類の特徴量毎に各基準画像および分類対象の画像の類似度を求め、各種類の特徴量毎に求めた類似度に対し、決定された重要度に応じた重み付けを行うことにより、装置側でユーザが指定した基準画像間における各種類の特徴量の重要度を判断し、判断した重要度を画像間の類似度に反映させるため、ユーザが望む通りの画像分類処理を実現することができ、ユーザが望む画像の分類結果を得ることができる。   As described above, according to the image classification device according to the twenty-fourth embodiment, when the similarity between the reference image and the search target image is obtained using a plurality of types of feature amounts, the feature amount is compared with the obtained similarity degree. For each classification item, the similarity between each set reference image is obtained for each type of feature quantity, and the similarity obtained for each type of feature quantity so that arbitrary weighting can be performed according to the type. The degree of importance for each feature amount between each reference image is determined based on the degree, and for each classification item, the similarity between each reference image and the classification target image is obtained for each type of feature amount, and each type of feature is determined. The importance obtained by determining the importance of each type of feature between the reference images specified by the user on the device side by weighting the similarity obtained for each quantity according to the determined importance. To reflect the degree in the similarity between images User can be realized from the image classification processing as desired, it is possible to obtain a classification result of the image desired by the user.

〔実施の形態25〕
つぎに、実施の形態25に係る画像分類装置について説明する。実施の形態25に係る画像分類装置は、ユーザが希望する基準で画像を動的に分類していき、所望の画像を探し出すことができるようにするものである。
[Embodiment 25]
Next, an image classification apparatus according to Embodiment 25 will be described. The image classification apparatus according to the twenty-fifth embodiment is configured to dynamically classify an image based on a criterion desired by a user and to search for a desired image.

なお、実施の形態25に係る画像分類装置の構成および画像分類ソフトの構成は図33および図34の通りであるため、ここではこれらについての説明を省略し、画像分類処理についてのみ説明することにする。また、分類対象となる画像は、ここでは画像DB108に登録されている画像であるものとし、これらの画像からは色,構造およびテクスチャの特徴量が抽出されて画像特徴DB109に登録されているものとする。   Note that the configuration of the image classification apparatus and the configuration of the image classification software according to the twenty-fifth embodiment are as shown in FIGS. 33 and 34, so the description thereof will be omitted here, and only the image classification processing will be described. To do. Here, the images to be classified are images registered in the image DB 108, and color, structure, and texture feature amounts are extracted from these images and registered in the image feature DB 109. And

図46〜図48は、実施の形態25における画像分類処理の説明図である。ユーザが図示しないメニューから「画像分類処理」を選択すると、図34のU/I部151は、図46に示す画像分類ウインドウ400を画面表示する。   46 to 48 are explanatory diagrams of image classification processing in the twenty-fifth embodiment. When the user selects “image classification processing” from a menu (not shown), the U / I unit 151 in FIG. 34 displays an image classification window 400 shown in FIG. 46 on the screen.

図46に示す画像分類ウインドウ400には、初期状態として、画像DB108中の全ての画像を対象とした分類項目401と、画像DB108中に登録された画像を動的に分類していく際に使用する特徴量の種類を表す分類項目402a,403aおよび404aとが示されている。ユーザが分類項目402a,403aおよび404aのいずれかを選択することにより、画像DB108中の画像が動的に分類されることになる。   The image classification window 400 shown in FIG. 46 is used when the classification items 401 for all the images in the image DB 108 and the images registered in the image DB 108 are dynamically classified as an initial state. Classification items 402a, 403a, and 404a representing types of feature quantities to be displayed are shown. When the user selects any of the classification items 402a, 403a, and 404a, the images in the image DB 108 are dynamically classified.

ここで、分類項目402aは、色の特徴量を用いて画像を分類する際に使用する項目であり、分類項目403aは、構造の特徴量を用いて画像を分類する際に使用する項目であり、分類項目404aは、テクスチャの特徴量を用いて画像を分類するための項目である。   Here, the classification item 402a is an item used when classifying an image using color feature amounts, and the classification item 403a is an item used when classifying an image using structural feature amounts. The classification item 404a is an item for classifying an image using a texture feature amount.

図46において、ユーザが分類項目402aを指定したものとすると、U/I部151は、色の特徴量が指定されたことをマッチング・エンジン153に通知する。マッチング・エンジン153は、色の特徴空間(図4参照)において画像DB108中の画像をNearest Neighbor法やK−平均アルゴリズム等の一般的なクラスタリング手法を用いてクラスタリングする(類似する画像同士のグループに分類する)と共に、個々のクラスタから代表画像を選択する。なお、代表画像については、例えばクラスタの中心の画像を代表画像として選択する等、代表画像同士が非類似であれば選択方法はいかなるものであっても良い。   In FIG. 46, if the user designates the classification item 402a, the U / I unit 151 notifies the matching engine 153 that the color feature amount is designated. The matching engine 153 clusters images in the image DB 108 in a color feature space (see FIG. 4) using a general clustering method such as the Nearest Neighbor method or the K-average algorithm (to group similar images). And a representative image is selected from each cluster. For the representative image, any selection method may be used as long as the representative images are not similar to each other, for example, the center image of the cluster is selected as the representative image.

そして、U/I部151は、マッチング・エンジン153からクラスタリングの結果を入力し、図47に示すように、ユーザによって選択された分類項目402aに関連付けて代表画像405〜408を表示する。図47においては、代表画像が4枚表示されているため、画像DB108の画像が色の特徴量により4つのクラスタに分類されたことが示されている。つまり、実施の形態25においては、特徴量の種類を指定することによって生成されるクラスタが実質的な分類項目ということになる。ユーザは必要に応じて代表画像以外の各クラスタに属する画像を表示して見ることができる。   Then, the U / I unit 151 receives the result of clustering from the matching engine 153, and displays representative images 405 to 408 in association with the classification item 402a selected by the user, as shown in FIG. In FIG. 47, since four representative images are displayed, it is shown that the images in the image DB 108 are classified into four clusters by the color feature amount. That is, in the twenty-fifth embodiment, a cluster generated by designating the type of feature amount is a substantial classification item. The user can display and view images belonging to each cluster other than the representative image as necessary.

図48は、代表画像407のクラスタを色の特徴空間でさらにクラスタリングして分類した結果を示している。このように、段階的に特徴量の種類を指定していくことにより、ユーザは目的の画像にたどり着くことができる。   FIG. 48 shows the result of further clustering and classifying the clusters of the representative image 407 in the color feature space. In this way, the user can reach the target image by designating the type of feature value step by step.

なお、色以外の特徴量については詳細な説明を省略するが、構造やテクスチャの特徴量が選択された場合であっても、同様に特徴空間でクラスタリングが行われ、画像が分類されていくことになる。   Although detailed descriptions of feature quantities other than colors are omitted, clustering is similarly performed in the feature space to classify images even when structure or texture feature quantities are selected. become.

このように、実施の形態25に係る画像分類装置によれば、特徴量の種類が指定されると、指定された種類の特徴量を用いて分類対象の各画像間の類似度を求め、求めた分類対象の各画像間の類似度に基づいて、分類対象の各画像を類似する画像同士のグループに分類し、分類された各グループからそれぞれグループを代表する代表画像を選択して画面表示し、さらに、表示された代表画像の一つが指定されるとと共に、特徴量の種類が指定されると、指定された種類の特徴量を用いて代表画像の属するグループに分類された各画像を類似する画像同士のグループに分類し、分類された各グループからそれぞれグループを代表する代表画像を選択して画面表示することにより、画像を分類したい時にユーザが希望する基準で画像を動的に分類していくことが可能となるため、画像の分類を利用して所望の画像を探し出すことが可能となる。したがって、新たな分類方法で画像を分類可能な画像分類装置を提供することができる。   As described above, according to the image classification device according to the twenty-fifth embodiment, when the type of feature amount is designated, the similarity between the images to be classified is obtained by using the feature amount of the designated type. Based on the similarity between the images to be classified, the images to be classified are classified into groups of similar images, and representative images representing the groups are selected from the classified groups and displayed on the screen. Further, when one of the displayed representative images is specified and the type of feature amount is specified, the images classified into the group to which the representative image belongs are similar using the specified type of feature amount. The images are classified into groups of images to be classified, and representative images representing the groups are selected from the classified groups and displayed on the screen, so that the images are dynamically classified according to the criteria desired by the user when the images are to be classified. Since it is possible gradually, using the classification of the image it is possible to find a desired image. Therefore, it is possible to provide an image classification device that can classify images by a new classification method.

また、特徴量の種類を分類項目402,403および404として画面表示し、指定された分類項目に関連付けて、分類された各グループの代表画像を画面表示することにより、図48に示すように画像DB108中の画像を分類した結果を木構造で画面表示できるため、ユーザが画像分類処理の様子を一目で認識でき、動的な画像分類処理の利便性の向上を図ることができる。   Further, the type of feature quantity is displayed on the screen as classification items 402, 403, and 404, and a representative image of each classified group is displayed on the screen in association with the designated classification item, thereby displaying an image as shown in FIG. Since the result of classifying the images in the DB 108 can be displayed on the screen in a tree structure, the user can recognize the state of the image classification processing at a glance, and the convenience of the dynamic image classification processing can be improved.

なお、実施の形態25の画像分類処理によって画像を分類した結果を、例えば分類履歴として分類木DB302に登録しておくことにより、再利用することができる。   Note that the result of classifying the image by the image classification process of the twenty-fifth embodiment can be reused by registering the result in the classification tree DB 302 as a classification history, for example.

また、分類対象の画像は画像DB108中の画像に限定されるものではなく、例えば実施の形態1〜13の画像検索装置で検索した結果の複数の画像を分類対象の画像として用いることもできる。   Further, the images to be classified are not limited to the images in the image DB 108, and for example, a plurality of images obtained as a result of retrieval by the image retrieval apparatus according to the first to thirteenth embodiments can be used as the images to be classified.

〔実施の形態26〕
つぎに、実施の形態26の画像分類装置について説明する。実施の形態26に係る画像分類装置は、実施の形態14〜25で説明した画像分類装置の一部または全てを一つの画像分類装置として統合したものである。すなわち、実施の形態14〜25における説明から明らかなように、これらの装置は図33および図34に示したような共通の構成で実現可能なものであるため、容易に統合することができる。
[Embodiment 26]
Next, an image classification apparatus according to Embodiment 26 will be described. The image classification device according to the twenty-sixth embodiment is obtained by integrating a part or all of the image classification devices described in the fourteenth to twenty-fifth embodiments as one image classification device. That is, as is apparent from the descriptions in the fourteenth to twenty-fifth embodiments, these devices can be realized with a common configuration as shown in FIGS. 33 and 34, and can be easily integrated.

実施の形態14〜25で説明した画像分類装置を一つに統合することにより、各フォルダ毎に異なる方法で分類条件を設定することができる。例えば、図35において、フォルダ352には実施の形態14で説明した分類条件を、フォルダ353には実施の形態17で説明した分類条件を、フォルダ358には実施の形態21で説明した分類条件をそれぞれ設定することができる。   By integrating the image classification apparatuses described in the fourteenth to twenty-fifth embodiments into one, classification conditions can be set by different methods for each folder. For example, in FIG. 35, the folder 352 has the classification conditions described in the fourteenth embodiment, the folder 353 has the classification conditions described in the seventeenth embodiment, and the folder 358 has the classification conditions described in the twenty-first embodiment. Each can be set.

なお、分類条件の設定処理や画像の分類処理については各実施の形態の項で説明した通りであるため、ここでは説明を省略する。   Note that the classification condition setting process and the image classification process are the same as those described in each embodiment, and thus the description thereof is omitted here.

このように、実施の形態14〜25で説明した画像分類装置を一つに統合することにより、さまざまな視点で分類条件を設定することができ、分類条件の設定に関する自由度を増すことができる。   Thus, by integrating the image classification apparatuses described in Embodiments 14 to 25 into one, classification conditions can be set from various viewpoints, and the degree of freedom regarding the setting of classification conditions can be increased. .

なお、画像分類装置の場合と同様の理由で、実施の形態1〜13で説明した画像検索装置を一つの装置として統合することも可能である。これにより、異なる検索方法を組み合わせて所望の画像を検索することが可能となる。   For the same reason as in the case of the image classification device, the image search devices described in the first to thirteenth embodiments can be integrated as one device. This makes it possible to search for a desired image by combining different search methods.

〔実施の形態27〕
さらに、実施の形態1〜25で説明した画像検索装置および画像分類装置の一部または全てを一つの装置として統合することもできる(画像検索装置または画像分類装置のマッチング・エンジン153に画像検索処理および画像分類処理の両方の機能を持たせるということ)。つまり、本発明の実施の形態で説明した画像検索処理および画像分類処理においては、図2および図34に示したマッチング・エンジン153が画像から抽出した特徴量を用いて画像間の類似度を求めることが基本となっていることから、実施の形態1〜25で説明した画像検索装置および画像分類装置を一つの装置に容易に統合することが可能である。
[Embodiment 27]
Furthermore, part or all of the image search device and the image classification device described in Embodiments 1 to 25 can be integrated as one device (the image search process is performed in the matching engine 153 of the image search device or the image classification device). And image classification processing). That is, in the image search process and the image classification process described in the embodiment of the present invention, the similarity between images is obtained using the feature amount extracted from the image by the matching engine 153 shown in FIGS. Therefore, the image search device and the image classification device described in Embodiments 1 to 25 can be easily integrated into one device.

詳細な説明については省略するが、実施の形態1〜25で説明した画像検索装置および画像分類装置を一つの装置に統合することによって以下のような処理を行うことが可能となる。   Although detailed description is omitted, the following processing can be performed by integrating the image search device and the image classification device described in Embodiments 1 to 25 into one device.

(1)実施の形態14〜25で説明したいずれかの画像分類処理で各フォルダ(分類項目)に分類した画像の中から選択した画像を問合せ画像として指定して、実施の形態1〜13で説明したいずれかの画像検索処理で画像検索を行うことができる。
(2)実施の形態1〜13で説明したいずれかの画像検索処理で検索された検索結果の画像を分類対象とし、実施の形態14〜25(または26)で説明したいずれかの画像分類処理で分類することができる。
(3)実施の形態14〜25で説明したいずれかの画像分類処理で特定のフォルダ(分類項目)に分類された複数の画像を検索対象とし、実施の形態1〜13で説明したいずれかの画像検索処理で所望の画像を検索することができる。
(1) In the first to thirteenth embodiments, an image selected from images classified into each folder (classification item) by any one of the image classification processes described in the fourteenth to twenty-fifth embodiments is designated as an inquiry image. An image search can be performed by any of the described image search processes.
(2) Any of the image classification processes described in the fourteenth to twenty-fifth (or twenty-sixth) embodiments, with the search result image retrieved in any one of the image retrieval processes described in the first to thirteenth embodiments as a classification target. It can be classified by.
(3) One of the images described in the first to thirteenth embodiments, with a plurality of images classified into a specific folder (category item) in any one of the image classification processes described in the fourteenth to twenty-fifth embodiments as search targets. A desired image can be searched by image search processing.

このように、実施の形態1〜25で説明した画像検索装置および画像分類装置の一部または全てを一つの装置に統合することにより、自由に画像検索処理や画像分類処理を実行することが可能となる。   As described above, by integrating a part or all of the image search apparatus and the image classification apparatus described in Embodiments 1 to 25 into one apparatus, it is possible to freely execute the image search process and the image classification process. It becomes.

以上説明したように、本発明に係る画像処理装置および画像分類装置は、各フローチャートに基づく手順に従って、予め用意されたプログラムをコンピュータで実行することによって実現される。このプログラムは、前述した各実施の形態毎、または任意に組み合わせて提供することが可能である。   As described above, the image processing apparatus and the image classification apparatus according to the present invention are realized by executing a program prepared in advance by a computer according to a procedure based on each flowchart. This program can be provided for each of the embodiments described above or in any combination.

このプログラムは、ハードディスク,フロッピー(登録商標)ディスク,CD−ROM,MO,DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供される。そして、図49(a)に示すように、プログラムは、記録媒体450からCPU101(コンピュータ100)によって読み出され、CPU101がプログラムに基づく処理を実行することによって本発明に係る画像検索装置および/または画像分類装置が実現される。   This program is provided by being recorded on a computer-readable recording medium such as a hard disk, floppy (registered trademark) disk, CD-ROM, MO, DVD or the like. As shown in FIG. 49A, the program is read from the recording medium 450 by the CPU 101 (computer 100), and the CPU 101 executes processing based on the program, whereby the image search apparatus according to the present invention and / or An image classification device is realized.

また、このプログラムは、図49(b)に示すように、サーバ451の記録媒体からインターネットやLANのようなネットワークを介してダウンロードし、CPU101に読み込むという形態においても実行可能なものである。また、ネットワークではなく、例えば放送波でプログラムを配信することによってもダウンロードして実行することができる。   Further, as shown in FIG. 49B, this program can also be executed in the form of downloading from the recording medium of the server 451 via a network such as the Internet or a LAN and reading it into the CPU 101. Further, the program can be downloaded and executed not by the network but also by, for example, distributing the program by broadcast waves.

また、前述した各実施の形態においては特に言及しなかったが、本発明に係る画像検索装置および画像分類装置は、静止画に限らず、動画像にも適用することができる。これは、動画像は連続する静止画からなるものであるからである。   Although not particularly mentioned in the above-described embodiments, the image search device and the image classification device according to the present invention can be applied not only to still images but also to moving images. This is because a moving image consists of continuous still images.

また、実施の形態1〜3で説明した画像検索処理は実施の形態4〜7で説明したAND検索と同様の手法を用いたものであるといえ、それらに対して実施の形態8〜11で説明したOR検索を適用することも可能であることから、検索ウインドウ200a,200bおよび200c(図5,図7および図9)において、AND条件およびOR条件を指定できるようにしても良い。実施の形態14〜16で説明した画像分類装置においても、同様に、分類条件の一つしてAND条件およびOR条件を指定できるようにしても良い。   In addition, it can be said that the image search processing described in the first to third embodiments uses the same technique as the AND search described in the fourth to seventh embodiments. Since the described OR search can be applied, the AND condition and the OR condition may be specified in the search windows 200a, 200b, and 200c (FIGS. 5, 7, and 9). Similarly, in the image classification apparatuses described in the fourteenth to sixteenth embodiments, an AND condition and an OR condition may be designated as one of the classification conditions.

また、実施の形態4〜7で説明した画像検索装置,実施の形態8〜11で説明した画像検索装置,実施の形態17〜20で説明した画像分類装置,および実施の形態21〜24で説明した画像分類装置においては、それぞれAND条件またはOR条件を指定することにしているが、AND条件またはOR条件の指定は必須のものではない。換言すれば、AND条件またはOR条件を指定しなくても、各実施の形態で説明した処理を実行するように装置を構成することができる。   Also, the image search device described in the fourth to seventh embodiments, the image search device described in the eighth to eleventh embodiments, the image classification device described in the seventeenth to twenty-first embodiments, and the embodiments 21 to 24 described. In the image classification apparatus described above, an AND condition or an OR condition is designated, but the designation of the AND condition or the OR condition is not essential. In other words, the apparatus can be configured to execute the processing described in each embodiment without specifying an AND condition or an OR condition.

また、詳細な説明については省略するが、実施の形態14〜24で説明した画像分類装置において、例えば図35に示したフォルダ354に画像を分類する処理を実行するタイミングは、フォルダ353に画像が分類された後となる。なぜなら、フォルダ354はフォルダ353に分類された画像をさらに分類するためのものであるからである。加えて、画像を分類するためのフォルダの追加・削除や、フォルダに設定した分類条件の変更等の処理を自由に行うこともできる。   Although detailed description is omitted, in the image classification apparatus described in the fourteenth to twenty-fourth embodiments, for example, when the process of classifying images into the folder 354 shown in FIG. After being classified. This is because the folder 354 is for further classifying the images classified in the folder 353. In addition, it is possible to freely perform processing such as addition / deletion of folders for classifying images and change of classification conditions set in the folders.

さらに、詳細な説明については省略するが、例えばクライアント・サーバシステムにおいて、サーバに各実施の形態で説明した画像検索装置または画像分類装置の機能を持たせるようにして、クライアントから検索条件を指定したり、分類された画像をクライアントの画面に表示させたりすることが可能であることは明らかである。   Further, although detailed description is omitted, for example, in a client / server system, the server is provided with the function of the image search device or image classification device described in each embodiment, and the search condition is designated from the client. Obviously, it is possible to display classified images on the client screen.

(1)以上説明したように、上記実施形態の画像検索装置によれば、問合せ画像および検索対象の画像の類似度を求める際に使用される各種類の特徴量毎にそれぞれ一つの問合せ画像を指定し、検索対象の画像毎に、指定された各問合せ画像との類似度を対応する種類の特徴量を用いて求めると共に、求めた各問合せ画像との類似度を合計して検索対象の画像の総合類似度を求め、検索対象の画像毎に求めた総合類似度に基づいて検索結果を出力することにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることができると共に、検索に対するユーザの意図を確実に装置に伝えることができるため、検索に対するユーザの意図を正確に反映した検索結果を得ることができ、ユーザが望む通りの精度の高い画像検索処理を行うことができる。具体的には、例えば、問合せ画像として適切な画像が存在しない場合であっても、検索結果として望む画像に色の雰囲気が似た画像やオブジェクトの形状の雰囲気が似た画像を問合せ画像として指定し、これらの画像を合わせたものを一つの問合せとして使用することができる。   (1) As described above, according to the image search apparatus of the above-described embodiment, one inquiry image is obtained for each type of feature amount used when obtaining the similarity between the inquiry image and the image to be searched. For each image to be searched, the similarity to each specified query image is obtained using the corresponding type of feature amount, and the similarity to each obtained query image is totaled to obtain the image to be searched The user's intention can be accurately expressed as a search condition by outputting a search result based on the total similarity obtained for each image to be searched. In addition to being able to convey the user's intention for the search to the device, it is possible to obtain a search result that accurately reflects the user's intention for the search, and to perform as precisely as the user desires. High image retrieval processing of can be performed. Specifically, for example, even when an appropriate image does not exist as an inquiry image, an image having a color atmosphere similar to the desired image or an image having an object shape atmosphere is specified as an inquiry image as a search result. A combination of these images can be used as one query.

(2)また、上記実施形態の画像検索装置によれば、問合せ画像を複数指定すると共に、指定した各問合せ画像毎に検索対象の画像との類似度を求める際に使用する特徴量の種類を指定し、検索対象の画像毎に、指定された種類の特徴量を用いて各問合せ画像との類似度を求めると共に、求めた各問合せ画像との類似度を合計して検索対象の画像の総合類似度を求め、検索対象の画像毎に求めた総合類似度に基づいて検索結果を出力することにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることができると共に、検索に対するユーザの意図を確実に装置に伝えることができるため、検索に対するユーザの意図を正確に反映した検索結果を得ることができ、ユーザが望む通りの精度の高い画像検索処理を行うことができる。具体的には、例えば、問合せ画像として適切な画像が存在しない場合であっても、検索結果として望む画像に色の雰囲気が似た画像やオブジェクトの形状の雰囲気が似た画像を問合せ画像として指定し、これらの画像を合わせたものを一つの問合せとして使用することができる。   (2) Further, according to the image search device of the above embodiment, a plurality of query images are specified, and the type of feature amount used when obtaining the similarity with the search target image for each specified query image. For each image to be searched, the degree of similarity with each query image is obtained using the specified type of feature amount, and the similarity with each obtained query image is totaled to obtain a total of the images to be searched By calculating the similarity and outputting the search result based on the total similarity obtained for each image to be searched, the user's intention can be accurately expressed as a search condition, so that the user's intention is accurately communicated to the device In addition, the user's intention for the search can be surely transmitted to the apparatus, so that a search result that accurately reflects the user's intention for the search can be obtained, and an image with high accuracy as desired by the user. It is possible to perform the search process. Specifically, for example, even when an appropriate image does not exist as an inquiry image, an image having a color atmosphere similar to the desired image or an image having an object shape atmosphere is specified as an inquiry image as a search result. A combination of these images can be used as one query.

(3)また、上記実施形態の画像検索装置によれば、問合せ画像を複数指定し、検索対象の画像毎に、指定された各問合せ画像との類似度を求めると共に、求めた各問合せ画像との類似度を合計して検索対象の画像の総合類似度を求め、検索対象の画像毎に求めた総合類似度に基づいて、検索結果を出力することにより、AND検索を行うことが可能となるため、ユーザの意図を検索条件として正確に表現するための一つの手法を提供することができる。   (3) Further, according to the image search device of the above embodiment, a plurality of query images are specified, and for each search target image, a similarity with each specified query image is obtained, and each obtained query image It is possible to perform an AND search by calculating the total similarity of the images to be searched by summing the similarities of the images and outputting the search result based on the total similarity calculated for each image to be searched. Therefore, it is possible to provide one method for accurately expressing the user's intention as a search condition.

(4)また、上記実施形態の画像検索装置によれば、問合せ画像を複数指定し、検索対象の画像毎に、指定された各問合せ画像との類似度を求めると共に、求めた各問合せ画像との類似度の中から最も高い類似性を示す類似度を選択して検索対象の画像の総合類似度を求め、検索対象の画像毎に求めた総合類似度に基づいて、検索結果を出力することにより、OR検索を行うことが可能となるため、ユーザの意図を検索条件として正確に表現するための一つの手法を提供することができる。   (4) Further, according to the image search device of the above embodiment, a plurality of query images are specified, and for each search target image, a similarity with each specified query image is obtained, and each obtained query image The similarity that shows the highest similarity is selected from among the similarities, the overall similarity of the image to be searched is obtained, and the search result is output based on the overall similarity obtained for each image to be searched Thus, it is possible to perform an OR search, and therefore it is possible to provide one method for accurately expressing the user's intention as a search condition.

(5)また、上記実施形態の画像検索装置によれば、さらに、求めた類似度に対し、問合せ画像の種類に応じて任意の重み付けを行うことができるように、各問合せ画像毎に重要度を指定することが可能であり、検索対象の画像毎に、各問合せ画像との類似度を求め、求めた各問合せ画像との類似度に対し、指定された重要度に応じた重み付けを行った後、総合類似度を求めることにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。   (5) Further, according to the image search device of the above-described embodiment, the degree of importance for each inquiry image so that the obtained similarity can be arbitrarily weighted according to the type of inquiry image. For each image to be searched, the similarity with each query image was obtained, and the similarity with each obtained query image was weighted according to the designated importance. Later, by calculating the overall similarity, the user's intention can be accurately expressed as a search condition, so that the user's intention can be accurately transmitted to the apparatus, and the importance is reflected as a weight for the similarity. Therefore, it is possible to obtain a search result image reflecting the user's intention.

(6)また、上記実施形態の画像検索装置によれば、さらに、複数種類の特徴量を用いて問合せ画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、問合せ画像および特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎の重要度を各問合せ画像毎に指定することが可能であり、検索対象の画像それぞれについて、各種類の特徴量毎に各問合せ画像との類似度を求め、各種類の特徴量毎に求めた各問合せ画像との類似度に対し、指定された重要度に応じた重み付けを行った後、総合類似度を求めることにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。   (6) Further, according to the image search device of the above embodiment, when the similarity between the query image and the search target image is further determined using a plurality of types of feature amounts, the query image is compared with the calculated similarity. In addition, it is possible to specify the importance for each type of feature quantity for each query image so that arbitrary weighting can be performed according to the type of feature quantity. After obtaining the similarity with each query image for each type of feature quantity, weighting according to the specified importance for the similarity with each query image obtained for each type of feature quantity, Since the user's intention can be accurately expressed as a search condition by obtaining the similarity, it is possible to accurately convey the user's intention to the apparatus, and the importance is reflected as a weight for the similarity. The intent of The becomes possible to obtain an image of the search results are reflected.

(7)また、上記実施形態の画像検索装置によれば、さらに、複数種類の特徴量を用いて問合せ画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎に、指定された各問合せ画像間の類似度を求め、求めた各種類の特徴量毎の類似度に基づいて各問合せ画像間における各種類の特徴量毎の重要度を決定し、検索対象の画像それぞれについて、各種類の特徴量毎に各問合せ画像との類似度を求め、各種類の特徴量毎に求めた各問合せ画像との類似度に対し、決定した各種類の特徴量毎の重要度に応じた重み付けを行った後、総合類似度を求めることにより、装置側でユーザが指定した問合せ画像間における各種類の特徴量の重要度を判断し、判断した重要度を画像間の類似度に反映させるため、ユーザの意図に合った検索結果を返すことが可能となる。したがって、ユーザが望む通りの検索処理を実現することができ、ユーザが望む検索結果を得ることができる。   (7) Further, according to the image search apparatus of the above embodiment, when the similarity between the query image and the search target image is obtained using a plurality of types of feature quantities, the feature quantity is compared with the obtained similarity degree. The degree of similarity between each specified query image is obtained for each type of feature quantity so that arbitrary weighting can be performed according to the type of the type, and based on the obtained degree of similarity for each type of feature quantity The degree of importance of each type of feature amount between each query image is determined, and for each search target image, the similarity to each query image is obtained for each type of feature amount, and for each type of feature amount. Between the query images specified by the user on the device side by weighting the degree of similarity with each obtained query image according to the importance for each type of feature amount determined, and then obtaining the overall similarity The importance of each type of feature To reflect the importance of determining the similarity between images, it is possible to return search results that match the user's intention. Therefore, the search process as desired by the user can be realized, and the search result desired by the user can be obtained.

(8)また、上記実施形態の画像検索装置によれば、問合せ画像を少なくとも一つ指定すると共に、画像から抽出する特徴量の粗さのレベルを粗から細に向かって段階的に定義した抽出基準に基づいて、検索に利用する特徴量の粗さのレベルを少なくとも一つ指定し、抽出基準に基づいて、問合せ画像および複数の検索対象の画像から少なくとも指定された粗さのレベルに該当する特徴量を所定のタイミングで抽出し、検索対象の画像毎に、指定された粗さのレベルに応じた特徴量を用いて問合せ画像との類似度を求め、検索対象の画像毎に求めた類似度に基づいて検索結果を出力するため、検索精度の異なる複数種類の検索処理を実行することが可能となる。すなわち、ユーザが検索に使用する特徴量の粗さのレベルを少なくとも一つ指定することができるため、検索に対するユーザの視点の細かさを検索条件として表現でき、ユーザの意図を検索条件として正確に表現することができる。したがって、ユーザが望む通りの画像検索処理を行うことが可能となる。   (8) According to the image search device of the above embodiment, at least one inquiry image is specified, and the level of roughness of the feature quantity extracted from the image is defined stepwise from coarse to fine. Based on the criteria, specify at least one roughness level of the feature quantity used for the search, and based on the extraction criteria, it corresponds to at least the roughness level specified from the query image and multiple search target images The feature amount is extracted at a predetermined timing, the similarity with the query image is obtained for each image to be searched using the feature amount according to the specified roughness level, and the similarity obtained for each image to be searched Since the search result is output based on the degree, it is possible to execute a plurality of types of search processes with different search accuracy. In other words, since the user can specify at least one level of roughness of the feature amount used for the search, the fineness of the user's viewpoint for the search can be expressed as a search condition, and the user's intention can be accurately set as the search condition Can be expressed. Therefore, it is possible to perform image search processing as desired by the user.

(9)また、上記実施形態の画像検索装置によれば、さらに、抽出基準が、少なくとも画像を何分割するかを表す分割数を粗さのレベルとして段階的に定義しており、段階的に定義された粗さのレベルのいずれか一つに応じて特徴量を抽出する場合、該当する分割数に基づいて画像を分割して複数の分割画像を生成し、生成した各分割画像から特徴量をそれぞれ抽出することにより、問合せ画像および検索対象の画像から分割画像単位の特徴量からなる特徴量群を抽出し、特徴量群を利用して問合せ画像および検索対象の画像の類似度を求める場合、問合せ画像および検索対象の画像の対応する分割画像毎の類似度を該当する特徴量を用いてそれぞれ求めることにより、問合せ画像および検索対象の画像の類似度を求めるようにしたため、画像の分割数で特徴量の粗さのレベルを容易に定義することができ、各分割画像毎に類似度を求めることによって画像検索に画像特徴の位置関係という概念を導入することが可能となる。したがって、精度の高い画像検索処理を実行することが可能となる。   (9) Further, according to the image search device of the above-described embodiment, the extraction criterion further defines stepwise the number of divisions representing at least how many images are divided as the level of roughness. When extracting feature values according to one of the defined roughness levels, the image is divided based on the number of divisions to generate a plurality of divided images, and feature values are generated from the generated divided images. To extract a feature quantity group consisting of feature quantities in units of divided images from the query image and the search target image, and obtain the similarity between the query image and the search target image using the feature quantity group The similarity between the query image and the search target image is obtained by using the corresponding feature amount to obtain the similarity for each of the corresponding divided images of the query image and the search target image. Level of the division number by the feature amount of roughness can be easily defined, it is possible to introduce the concept that the position relationship between the image features in the image search by determining the similarity for each divided image. Therefore, it is possible to execute an image search process with high accuracy.

(10)また、上記実施形態の画像検索装置によれば、さらに、抽出基準が、段階的に定義された粗さのレベル中の最も粗い特徴量を示すレベルとして、画像を分割することなく、画像全体を特徴量の抽出対象とするレベルを含み、画像全体を特徴量の抽出対象とするレベルに応じて特徴量を抽出する場合、問合せ画像および検索対象の画像から画像全体を対象として特徴量を抽出するため、画像特徴の位置関係を無視した単純なレベルでの検索処理を含めることが可能となる。   (10) Further, according to the image search device of the above-described embodiment, the extraction criterion is further set to a level indicating the roughest feature amount among the stepwise defined roughness levels without dividing the image. When a feature amount is extracted according to a level where the entire image is a feature amount extraction target and the entire image is a feature amount extraction target, the feature amount is targeted for the entire image from the query image and the search target image. Therefore, it is possible to include a search process at a simple level ignoring the positional relationship of image features.

(11)また、上記実施形態の画像検索装置によれば、さらに、抽出基準が、画像中に存在するオブジェクトを特徴量の抽出対象とする場合に、オブジェクトから抽出する特徴量の粗さのレベルの定義を含むため、さらに異なる視点で検索条件を指定することが可能となり、ユーザの意図を検索条件として正確に表現することができる。   (11) Further, according to the image search device of the above-described embodiment, when the extraction criterion is to extract an object existing in the image as a feature amount extraction target, the level of roughness of the feature amount extracted from the object Therefore, the search condition can be specified from a different viewpoint, and the user's intention can be accurately expressed as the search condition.

(12)また、上記実施形態の画像検索装置によれば、さらに、複数の検索対象の画像については抽出基準で定義された全ての粗さのレベルに応じた特徴量を予め抽出しておき、指定された問合せ画像のうち、特徴量が抽出されていない問合せ画像については類似度を求める処理を実行する前に指定された粗さのレベルに応じた特徴量を抽出するようにしたため、画像検索処理の高速化を図ることができる。   (12) Further, according to the image search device of the above embodiment, for a plurality of search target images, feature amounts corresponding to all the roughness levels defined by the extraction criteria are extracted in advance. For query images for which no feature value has been extracted from the specified query images, the feature value corresponding to the specified roughness level is extracted before executing the processing for obtaining the similarity. Processing speed can be increased.

(13)また、上記実施形態の画像検索装置によれば、さらに、問合せ画像を少なくとも一つ指定し、検索対象の画像毎に、検索対象の画像中の所定のサイズの領域と指定された問合せ画像との類似度を予め抽出した所定の特徴量を用いて求める処理を検索対象の画像全体にわたって繰り返し実行し、検索対象の画像毎に求めた類似度に基づいて検索結果を出力するため、検索対象の画像の中から、問合せ画像を含む画像を探し出すことができる。したがって、ユーザの意図するような画像検索を実現する一つの手法を提供することができる。   (13) Further, according to the image search device of the above-described embodiment, at least one inquiry image is specified, and for each search target image, a specified size area in the search target image is specified. A process for repeatedly executing a process for obtaining a similarity with an image using a predetermined feature amount extracted in advance over the entire image to be searched, and outputting a search result based on the similarity obtained for each image to be searched. An image including an inquiry image can be found from the target images. Therefore, it is possible to provide one method for realizing an image search as intended by the user.

(14)また、上記実施形態の画像検索装置によれば、さらに、検索結果の画像を問合せ画像として指定できるため、さらに詳細な絞込み検索を行うことができ、ユーザが望む通りの検索処理を実現することができる。   (14) Further, according to the image search device of the above embodiment, since the image of the search result can be specified as the inquiry image, further detailed search can be performed, and the search process as desired by the user is realized. can do.

(15)また、上記実施形態のコンピュータ読み取り可能な記録媒体によれば、上記実施形態のいずれか1つに記載の画像検索装置の各手段としてコンピュータを機能させるためのプログラムを記録したため、このプログラムをコンピュータに実行させることにより、検索条件を指定する際にユーザの視点を確実に装置に伝えることを可能とすると共に、ユーザの視点に合った検索結果を返すことを可能とする画像検索装置を実現することが可能となる。すなわち、ユーザが望む通りの検索処理を実現することができる画像検索装置を実現することが可能となる。   (15) According to the computer-readable recording medium of the above embodiment, the program for causing the computer to function as each unit of the image search device according to any one of the above embodiments is recorded. An image search device that enables a computer to execute a search condition so that a user's viewpoint can be reliably transmitted to a device when a search condition is specified and a search result that matches the user's viewpoint can be returned. It can be realized. That is, it is possible to realize an image search apparatus that can realize search processing as desired by the user.

(16)また、上記実施形態の画像分類装置によれば、分類項目を設定し、設定した分類項目それぞれに対し、基準画像および分類対象の画像の類似度を求める際に使用される各種類の特徴量毎にそれぞれ一つの基準画像を設定し、分類項目毎に、設定された各基準画像および分類対象の画像の類似度を対応する種類の特徴量を用いて求めると共に、求めた類似度を合計して分類対象の画像の総合類似度を求め、分類項目毎に求めた分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、分類対象の画像の分類先となる分類項目を決定することにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることができると共に、分類に対するユーザの意図を確実に装置に伝えることができるため、分類に対するユーザの意図を正確に反映した分類結果を得ることができ、ユーザが望む通りの分類処理を実現することができる。すなわち、基準画像として適切な画像が存在しない場合であっても、例えば分類結果として望む画像に色の雰囲気が似た画像やオブジェクトの形状の雰囲気が似た画像を基準画像として指定し、これらの画像を合わせたものを一つの基準画像として使用するため、分類条件を指定する際にユーザの視点を確実に装置に伝えることができると共に、このような基準画像を使用して分類処理を実行するため、ユーザの望む分類先に画像を適切に分類することが可能となる。   (16) Also, according to the image classification device of the above-described embodiment, classification items are set, and for each type of classification item set, each type of image used when obtaining the similarity between the reference image and the classification target image. One reference image is set for each feature amount, and for each classification item, the similarity between each set reference image and the classification target image is obtained using the corresponding type of feature amount, and the obtained similarity is obtained. The total similarity of the images to be classified is calculated in total, and the classification target images are classified based on the total similarity of the images to be classified obtained for each classification item and a preset classification destination determination criterion. By determining the classification item, the user's intention can be accurately expressed as a classification condition, so that the user's intention can be accurately transmitted to the device, and the user's intention for the classification can be reliably transmitted to the device. Since it is, it is possible to obtain a classification result that accurately reflects the intention of the user for the classification, it is possible to realize the classification process as the user desires. That is, even when an appropriate image does not exist as a reference image, for example, an image having a similar color atmosphere to an image desired as a classification result or an image having an object shape atmosphere is designated as a reference image. Since the combined image is used as one reference image, the user's viewpoint can be reliably transmitted to the apparatus when specifying the classification condition, and the classification process is executed using such a reference image. Therefore, it is possible to appropriately classify the image into the classification destination desired by the user.

(17)また、上記実施形態の画像分類装置によれば、分類項目を設定し、設定した分類項目毎に、基準画像を複数設定すると共に、設定した各基準画像毎に分類対象の画像との類似度を求める際に使用する特徴量の種類を設定し、分類項目毎に、設定された種類の特徴量を用いて各基準画像および分類対象の画像の類似度を求めると共に、求めた類似度を合計して分類対象の画像の総合類似度を求め、分類項目毎に求めた分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、分類対象の画像の分類先となる分類項目を決定することにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることができると共に、分類に対するユーザの意図を確実に装置に伝えることができるため、分類に対するユーザの意図を正確に反映した分類結果を得ることができ、ユーザが望む通りの分類処理を実現することができる。すなわち、基準画像として適切な画像が存在しない場合であっても、例えば分類結果として望む画像に色の雰囲気が似た画像やオブジェクトの形状の雰囲気が似た画像を基準画像として指定し、これらの画像を合わせたものを一つの基準画像として使用するため、分類条件を指定する際にユーザの視点を確実に装置に伝えることができると共に、このような基準画像を使用して分類処理を実行するため、ユーザの望む分類先に画像を適切に分類することが可能となる。   (17) Further, according to the image classification apparatus of the above embodiment, classification items are set, a plurality of reference images are set for each set classification item, and each set reference image is compared with an image to be classified. Set the type of feature quantity used to calculate the similarity, and for each category item, use the set type of feature quantity to obtain the similarity between each reference image and the image to be classified, and the obtained similarity To determine the total similarity of the images to be classified, and based on the total similarity of the images to be classified obtained for each classification item and a preset classification destination determination criterion, By determining the classification item, the user's intention can be accurately expressed as a classification condition, so that the user's intention can be accurately transmitted to the device, and the user's intention for the classification can be reliably transmitted to the device. Therefore, it is possible to obtain a classification result that accurately reflects the intention of the user for the classification, it is possible to realize the classification process as the user desires. That is, even when an appropriate image does not exist as a reference image, for example, an image having a similar color atmosphere to an image desired as a classification result or an image having an object shape atmosphere is designated as a reference image. Since the combined image is used as one reference image, the user's viewpoint can be reliably transmitted to the apparatus when specifying the classification condition, and the classification process is executed using such a reference image. Therefore, it is possible to appropriately classify the image into the classification destination desired by the user.

(18)また、上記実施形態の画像分類装置によれば、分類項目を設定し、設定した分類項目毎に、基準画像を複数設定し、分類項目毎に、設定された各基準画像および分類対象の画像の類似度を求めると共に、求めた類似度を合計して分類対象の画像の総合類似度を求め、分類項目毎に求めた分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、分類対象の画像の分類先となる分類項目を決定するため、AND検索処理を応用した画像分類処理を行うことが可能となる。したがって、新たな分類方法で画像を分類可能な画像分類装置を提供することができる。   (18) According to the image classification device of the above embodiment, a classification item is set, a plurality of reference images are set for each set classification item, and each set reference image and classification target are set for each classification item. The similarity of the images to be classified, and the obtained similarities are totaled to obtain the overall similarity of the images to be classified, and the overall similarity of the images to be classified obtained for each classification item and a predetermined classification destination determination Since the classification item that is the classification destination of the image to be classified is determined based on the reference, it is possible to perform image classification processing using AND search processing. Therefore, it is possible to provide an image classification device that can classify images by a new classification method.

(19)また、上記実施形態の画像分類装置によれば、分類項目を設定し、設定した分類項目毎に、基準画像を複数設定し、分類項目毎に、設定された各基準画像および分類対象の画像の類似度を求めると共に、求めた類似度の中から最も高い類似性を示す類似度を選択して分類対象の画像の総合類似度を求め、分類項目毎に求めた分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、分類対象の画像の分類先となる分類項目を決定するため、OR検索処理を応用した画像分類処理を行うことが可能となる。したがって、新たな分類方法で画像を分類可能な画像分類装置を提供することができる。   (19) Further, according to the image classification device of the above embodiment, classification items are set, a plurality of reference images are set for each set classification item, and each set reference image and classification target are set for each classification item. The similarity of the images to be classified is determined, and the similarity indicating the highest similarity is selected from the obtained similarities to obtain the overall similarity of the images to be classified. Based on the total similarity and a preset classification destination determination criterion, a classification item to be a classification destination of the image to be classified is determined, so that it is possible to perform an image classification process using an OR search process. Therefore, it is possible to provide an image classification device that can classify images by a new classification method.

(20)また、上記実施形態の画像分類装置によれば、さらに、求めた類似度に対し、基準画像の種類に応じて任意の重み付けを行うことができるように、各基準画像毎に重要度を設定することが可能であり、分類項目毎に、各基準画像および分類対象の画像の類似度を求め、求めた類似度に対し、設定された重要度に応じた重み付けを行った後、総合類似度を求めることにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された画像の分類結果を得ることが可能となる。   (20) Further, according to the image classification device of the above-described embodiment, the degree of importance is further determined for each reference image so that the obtained similarity can be arbitrarily weighted according to the type of the reference image. For each classification item, the similarity between each reference image and the image to be classified is obtained, and the obtained similarity is weighted according to the set importance, Since the user's intention can be accurately expressed as a classification condition by obtaining the similarity, the user's intention can be accurately transmitted to the apparatus, and the importance is reflected as a weight for the similarity. It is possible to obtain an image classification result reflecting the intention.

(21)また、上記実施形態の画像分類装置によれば、さらに、複数種類の特徴量を用いて基準画像および分類対象の画像の類似度を求める場合に、求めた類似度に対し、基準画像および特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎の重要度を各基準画像毎に設定することが可能であり、分類項目それぞれについて、各種類の特徴量毎に各基準画像および分類対象の画像の類似度を求め、各種類の特徴量毎に求めた類似度に対し、設定された重要度に応じた重み付けを行った後、総合類似度を求めることにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された画像の分類結果を得ることが可能となる。   (21) Further, according to the image classification device of the above embodiment, when the similarity between the reference image and the image to be classified is obtained using a plurality of types of feature amounts, the reference image is compared with the obtained similarity. In addition, it is possible to set the importance for each type of feature quantity for each reference image so that arbitrary weighting can be performed according to the type of feature quantity. The similarity between each reference image and the image to be classified is calculated for each feature amount, and the similarity obtained for each type of feature amount is weighted according to the set importance, and then the overall similarity is calculated. As a result, the user's intention can be accurately expressed as a classification condition, so that the user's intention can be accurately transmitted to the apparatus, and the importance is reflected as a weight for the similarity. It is possible to obtain a classification result reflects images.

(22)また、上記実施形態の画像分類装置によれば、さらに、複数種類の特徴量を用いて基準画像および分類対象の画像の類似度を求める場合に、求めた類似度に対し、特徴量の種類に応じて任意の重み付けを行うことができるように、分類項目毎に、設定された各基準画像間の類似度を各種類の特徴量毎に求め、各種類の特徴量毎に求めた類似度に基づいて各基準画像間における各特徴量毎の重要度を決定し、分類項目それぞれについて、各種類の特徴量毎に各基準画像および分類対象の画像の類似度を求め、各種類の特徴量毎に求めた類似度に対し、決定された重要度に応じた重み付けを行った後、総合類似度を求めることにより、装置側でユーザが指定した基準画像間における各種類の特徴量の重要度を判断し、判断した重要度を画像間の類似度に反映させるため、ユーザの意図に合った画像の分類結果を返すことが可能となる。したがって、ユーザが望む通りの分類処理を実現することができ、ユーザが望む分類結果を得ることができる。   (22) Further, according to the image classification device of the above embodiment, when the similarity between the reference image and the classification target image is obtained using a plurality of types of feature quantities, the feature quantity is compared with the obtained similarity degree. For each classification item, the similarity between each set reference image is obtained for each type of feature quantity, and for each type of feature quantity so that arbitrary weighting can be performed according to the type of The importance for each feature amount between each reference image is determined based on the similarity, and for each classification item, the similarity between each reference image and the classification target image is obtained for each type of feature amount. After weighting according to the determined importance for the similarity obtained for each feature quantity, the overall similarity is obtained, so that each type of feature quantity between the reference images specified by the user on the device side is obtained. Judgment of importance and display the judged importance To reflect the degree of similarity between, it is possible to return the classification result of the image matching the intention of the user. Therefore, the classification process as desired by the user can be realized, and the classification result desired by the user can be obtained.

(23)また、上記実施形態の画像分類装置によれば、さらに、分類項目毎に分類された画像をさらに分類するための分類項目を設定できるため、詳細な画像の分類処理を実行することが可能となる。   (23) Further, according to the image classification device of the above embodiment, since the classification items for further classifying the images classified for each classification item can be set, the detailed image classification processing can be executed. It becomes possible.

(24)また、上記実施形態の画像分類装置によれば、特徴量の種類が指定されると、指定された種類の特徴量を用いて分類対象の各画像間の類似度を求め、求めた分類対象の各画像間の類似度に基づいて、分類対象の各画像を類似する画像同士のグループに分類し、分類された各グループからそれぞれグループを代表する代表画像を選択して画面表示し、さらに、表示された代表画像の一つを指定すると共に、特徴量の種類を指定すると、指定された種類の特徴量を用いて代表画像の属するグループに分類された各画像を類似する画像同士のグループに分類し、分類された各グループからそれぞれグループを代表する代表画像を選択して画面表示することにより、画像を分類したい時にユーザが希望する基準で画像を動的に分類していくことが可能となるため、画像の分類を利用して所望の画像を探し出すことが可能となる。したがって、新たな分類方法で画像を分類可能な画像分類装置を提供することができる。   (24) Further, according to the image classification device of the above embodiment, when the type of feature amount is designated, the similarity between the images to be classified is obtained by using the designated type of feature amount. Based on the similarity between the images to be classified, the images to be classified are classified into groups of similar images, and representative images representing the groups are selected from the classified groups and displayed on the screen. Furthermore, when one of the displayed representative images is specified and the type of feature amount is specified, each image classified into the group to which the representative image belongs using the specified type of feature amount is compared between similar images. By classifying the images into groups and selecting a representative image representing each group from the classified groups and displaying them on the screen, the user can dynamically classify the images according to the criteria desired by the user. Since it is possible, by using the classification of the image it is possible to find a desired image. Therefore, it is possible to provide an image classification device that can classify images by a new classification method.

(25)また、上記実施形態の画像分類装置によれば、さらに、指定可能な特徴量の種類を画面表示し、指定された特徴量の種類に関連付けて各グループの代表画像を画面表示し、分類対象の複数の画像を分類した結果を木構造で画面表示するため、ユーザが画像分類処理の様子を一目で認識でき、動的な画像分類処理の利便性の向上を図ることができる。   (25) Further, according to the image classification device of the above embodiment, the types of feature quantities that can be specified are further displayed on the screen, and the representative images of each group are displayed on the screen in association with the types of the specified feature quantities. Since the result of classifying a plurality of images to be classified is displayed on the screen in a tree structure, the user can recognize the state of the image classification process at a glance, and the convenience of the dynamic image classification process can be improved.

(26)また、上記実施形態の画像分類装置によれば、さらに、分類項目毎に分類された任意の画像を問合せ画像として用いて、問合せ画像と同一または類似の画像を検索するため、装置の利便性の向上を図ることができる。   (26) Further, according to the image classification device of the above embodiment, since an arbitrary image classified for each classification item is used as an inquiry image to search for an image that is the same as or similar to the inquiry image, Convenience can be improved.

(27)また、上記実施形態の画像分類装置によれば、さらに、上記実施形態のいずれか一つに記載の画像検索装置を用いて検索を行うため、検索条件を指定する際にユーザの視点を確実に装置に伝えることが可能となると共に、ユーザの視点に合った検索結果を返すことが可能となり、装置の利便性の向上を図ることができる。   (27) Further, according to the image classification device of the above embodiment, since the search is further performed using the image search device according to any one of the above embodiments, the viewpoint of the user when specifying the search condition Can be reliably transmitted to the apparatus, and a search result suitable for the user's viewpoint can be returned, so that the convenience of the apparatus can be improved.

(28)また、上記実施形態の画像分類装置によれば、さらに、分類対象の画像が検索結果の画像であるため、例えば、画像の分類を検索結果の絞込みに応用することが可能となる。   (28) Further, according to the image classification device of the above embodiment, since the image to be classified is an image of a search result, for example, it is possible to apply image classification to search result narrowing.

(29)また、上記実施形態のコンピュータ読み取り可能な記録媒体によれば、上記実施形態のいずれか一つに記載の画像分類装置の各手段としてコンピュータを機能させるためのプログラムを記録したため、このプログラムを実行することにより、分類条件を指定する際にユーザの視点を確実に装置に伝えることを可能とすると共に、ユーザの視点に合った分類項目に画像を分類することを可能とする画像分類装置を実現することが可能となる。すなわち、ユーザの望む分類先に画像を適切に分類することが可能となる画像分類装置を実現することができる。   (29) According to the computer-readable recording medium of the above embodiment, since the program for causing the computer to function as each unit of the image classification device according to any one of the above embodiments is recorded, the program By executing the above, it is possible to reliably convey the user's viewpoint to the apparatus when specifying the classification condition, and to classify the image into the classification items suitable for the user's viewpoint Can be realized. That is, it is possible to realize an image classification device that can appropriately classify images into classification destinations desired by the user.

100 コンピュータ
107 画像検索ソフト
108 画像DB
109 画像特徴DB
151 U/I部
152 特徴抽出エンジン
153 マッチング・エンジン
200a〜200h 検索ウインドウ
201 検索ボタン
202 画像表示欄
203,362 特徴量指定ボタン
204,207,208,363,366,367 重要度指定バー
205,364 AND指定ボタン
206,365 OR指定ボタン
209 特徴指定欄
210 粗さレベル指定欄
301 画像分類ソフト
302 分類木DB
350a〜350f 画像分類ウインドウ
351〜358 フォルダ
360a〜360f 分類条件設定ウィンドウ
361 設定ボタン
400 画像分類ウインドウ
401,402a〜404a,402b〜404b 分類項目
405〜412 代表画像
450 記録媒体
451 サーバ
100 Computer 107 Image Search Software 108 Image DB
109 Image feature DB
151 U / I unit 152 Feature extraction engine 153 Matching engine 200a to 200h Search window 201 Search button 202 Image display field 203, 362 Feature amount designation button 204, 207, 208, 363, 366, 367 Importance level designation bar 205, 364 AND designation buttons 206 and 365 OR designation button 209 Feature designation column 210 Roughness level designation column 301 Image classification software 302 Classification tree DB
350a-350f Image classification window 351-358 Folder 360a-360f Classification condition setting window 361 Setting button 400 Image classification window 401, 402a-404a, 402b-404b Classification item 405-412 Representative image 450 Recording medium 451 Server

Claims (8)

分類対象の画像の分類先となる分類項目ごとに、前記分類対象の画像の分類基準となる画像であって、画像の特徴を表す複数の特徴量の種類のうちいずれか1つの特徴量の種類が対応づけられた1以上の基準画像と、画像の類似度に基づいて画像を前記分類項目に分類するか否かを決定する予め定められた閾値と、を設定する設定手段と、
前記基準画像のそれぞれについて、対応づけられた種類の特徴量についての前記分類対象の画像に対する類似度を算出する算出手段と、
算出された類似度と前記閾値とに基づいて、前記分類対象の画像を前記分類項目に分類するか否かを決定する決定手段と備え
前記設定手段は、分類対象の画像の分類先となる分類項目ごとに、さらに類似度の重要度を設定し、
前記決定手段は、前記基準画像のそれぞれについて算出された類似度を前記重要度で重み付けて合計した総合類似度を算出し、前記総合類似度と前記閾値とに基づいて、前記分類対象の画像を前記分類項目に分類するか否かを決定する
ことを特徴とする画像分類装置。
For each classification item that is the classification destination of the classification target image, the classification target image is a classification reference for the classification target image, and one of the plurality of characteristic amount types representing the feature of the image Setting means for setting one or more reference images associated with each other and a predetermined threshold value for determining whether to classify the image into the classification items based on the similarity of the images;
For each of the reference images, calculation means for calculating a similarity with respect to the classification target image with respect to the feature type of the associated type;
Based calculated similarity and the said threshold value, an image of the classified and a determining means for determining whether or not to classify the categories,
The setting means further sets the importance of the similarity for each classification item that is the classification destination of the image to be classified,
The determining means calculates a total similarity obtained by weighting and summing the similarities calculated for each of the reference images with the importance, and based on the total similarity and the threshold value, determines the images to be classified. An image classification apparatus for determining whether to classify into the classification items .
前記特徴量の種類は、画像の色、画像の構造、および、画像のテクスチャを含むことを特徴とする請求項1に記載の画像分類装置。   The image classification apparatus according to claim 1, wherein the type of the feature amount includes an image color, an image structure, and an image texture. 前記設定手段は、前記基準画像それぞれに対して前記重要度を設定し、
前記決定手段は、前記基準画像のそれぞれについて算出された類似度を、前記基準画像に対して設定された前記重要度で重み付けて合計した総合類似度を算出し、前記総合類似度と前記閾値とに基づいて、前記分類対象の画像を前記分類項目に分類するか否かを決定することを特徴とする請求項1又は2に記載の画像分類装置。
The setting means sets the importance for each of the reference images;
The determining means calculates a total similarity obtained by weighting and summing the similarities calculated for each of the reference images with the importance set for the reference image, and calculating the total similarity and the threshold value . The image classification apparatus according to claim 1 , wherein the image classification apparatus determines whether to classify the image to be classified into the classification items based on the classification.
前記設定手段は、前記分類項目毎に分類された画像をさらに分類するための分類項目を設定可能であることを特徴とする請求項1ないしのいずれか一つに記載の画像分類装置。 The setting means, the image classification apparatus according to any one of claims 1 to 3, characterized in that it is possible to set the categories for further classifying the classified images for each of the classification items. 前記決定手段は、前記基準画像のそれぞれについて算出された類似度のうち、最も高い類似度と前記閾値とに基づいて、前記分類対象の画像を前記分類項目に分類するか否かを決定することを特徴とする請求項1に記載の画像分類装置。 The determining means determines whether to classify the image to be classified into the classification items based on the highest similarity calculated for each of the reference images and the threshold value. The image classification device according to claim 1. 前記分類項目に分類された画像から代表画像を選択する選択手段と、
前記分類項目ごとに前記代表画像を表示する表示手段と、をさらに備えたこと、
を特徴とする請求項1に記載の画像分類装置。
Selecting means for selecting a representative image from the images classified into the classification items;
Display means for displaying the representative image for each classification item,
The image classification device according to claim 1.
前記基準画像のそれぞれについて、前記特徴量の種類ごとに類似度の重要度を決定する重要度決定手段をさらに備えること、
を特徴とする請求項1に記載の画像分類装置。
For each of the reference images, further comprising importance level determining means for determining the importance level of the similarity for each type of the feature amount,
The image classification device according to claim 1.
前記請求項1ないしのいずれか一つに記載の画像分類装置の各手段としてコンピュータを機能させるためのプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium having recorded thereon a program for causing a computer to function as each unit of the image classification apparatus according to any one of claims 1 to 7 .
JP2009005055A 1999-01-27 2009-01-13 Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus Expired - Fee Related JP4674257B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009005055A JP4674257B2 (en) 1999-01-27 2009-01-13 Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP1910599 1999-01-27
JP2009005055A JP4674257B2 (en) 1999-01-27 2009-01-13 Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP35993999A Division JP4340367B2 (en) 1999-01-27 1999-12-17 Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus

Publications (2)

Publication Number Publication Date
JP2009134735A JP2009134735A (en) 2009-06-18
JP4674257B2 true JP4674257B2 (en) 2011-04-20

Family

ID=40866506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009005055A Expired - Fee Related JP4674257B2 (en) 1999-01-27 2009-01-13 Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus

Country Status (1)

Country Link
JP (1) JP4674257B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5438436B2 (en) * 2009-08-27 2014-03-12 株式会社日立国際電気 Image search device
JP5408241B2 (en) * 2011-12-21 2014-02-05 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing method, and program
EP2608062A1 (en) * 2011-12-23 2013-06-26 Thomson Licensing Method of automatic management of images in a collection of images and corresponding device
CN106649762A (en) * 2016-12-27 2017-05-10 竹间智能科技(上海)有限公司 Intention recognition method and system based on inquiry question and feedback information
JP6857586B2 (en) * 2017-10-02 2021-04-14 富士フイルム株式会社 An image extraction device, an image extraction method, an image extraction program, and a recording medium in which the program is stored.
JP7010538B2 (en) * 2018-03-29 2022-01-26 Necソリューションイノベータ株式会社 File management device, file management method, and program
CN108563767B (en) * 2018-04-19 2020-11-27 深圳市商汤科技有限公司 Image retrieval method and device
KR102242042B1 (en) * 2019-07-08 2021-04-19 네이버 주식회사 Method, apparatus and computer program for data labeling

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3284168B2 (en) * 1995-11-14 2002-05-20 正夫 坂内 Image retrieval device
JP4084445B2 (en) * 1996-07-18 2008-04-30 松下電器産業株式会社 Data search support device, data search support method, and medium storing program
JPH10162020A (en) * 1996-12-03 1998-06-19 Ricoh Co Ltd Browsing method for image data base
JPH10198683A (en) * 1997-01-07 1998-07-31 Ricoh Co Ltd Method for sorting document picture
JP3571162B2 (en) * 1997-03-03 2004-09-29 日本電信電話株式会社 Similar object search method and apparatus

Also Published As

Publication number Publication date
JP2009134735A (en) 2009-06-18

Similar Documents

Publication Publication Date Title
JP4340367B2 (en) Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus
JP4674257B2 (en) Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus
JP5229744B2 (en) Image classification device and image classification program
US6711287B1 (en) Image-feature extraction method and computer-readable record medium with a program for making a computer execute steps of the method recorded therein
JP5830784B2 (en) Interest graph collection system by relevance search with image recognition system
JP4579404B2 (en) Image processing method and apparatus
US6556710B2 (en) Image searching techniques
JP5236785B2 (en) Color image search method, color image search apparatus, color image search system, and computer executable program
CN102073748B (en) Visual keyword based remote sensing image semantic searching method
JP4366119B2 (en) Document processing device
US8731308B2 (en) Interactive image selection method
JP4111198B2 (en) Image search system, image search program and storage medium, and image search method
JP2004361987A (en) Image retrieval system, image classification system, image retrieval program, image classification program, image retrieval method, and image classification method
JP5180922B2 (en) Image search system and image search method
JP6173754B2 (en) Image search system, image search apparatus, and image search method
JP2011039944A (en) Image processor, image processing method, and image processing program
US8885981B2 (en) Image retrieval using texture data
US6522779B2 (en) Representing an image with a posterized joint histogram
US7755646B2 (en) Image management through lexical representations
JP2005353101A (en) Image-feature extraction method and computer-readable recording medium stored with program for executing on computer each step of the method
JP2007102362A (en) Automatic classification category forming device, automatic digital image content classification device and digital image content management system
JP2011043954A (en) Image processor, image processing method, and image processing program
JP2004240751A (en) Picture retrieval device
JP2004192121A (en) Image retrieval device, image classification method, image retrieval method, and program
JP4331882B2 (en) Element image extraction device for search, search reference image input device, and recording medium recording program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100720

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110124

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees