WO2004047026A1 - Image search program - Google Patents

Image search program Download PDF

Info

Publication number
WO2004047026A1
WO2004047026A1 PCT/JP2002/012135 JP0212135W WO2004047026A1 WO 2004047026 A1 WO2004047026 A1 WO 2004047026A1 JP 0212135 W JP0212135 W JP 0212135W WO 2004047026 A1 WO2004047026 A1 WO 2004047026A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image data
similarity
feature
search
Prior art date
Application number
PCT/JP2002/012135
Other languages
French (fr)
Japanese (ja)
Inventor
Yusuke Uehara
Daiki Masumoto
Shuichi Shiitani
Susumu Endo
Takayuki Baba
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to PCT/JP2002/012135 priority Critical patent/WO2004047026A1/en
Priority to JP2004553119A priority patent/JP4160050B2/en
Priority to CNB02829713XA priority patent/CN100346339C/en
Publication of WO2004047026A1 publication Critical patent/WO2004047026A1/en
Priority to US11/124,107 priority patent/US20050210019A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

An image search program includes a feature amount data extraction unit (103) for extracting feature amount data of a plurality of types (such as layout feature amount, texture feature amount, and shape feature amount) from key image data, adaptation judgment unit (104) for judging presence/absence of adaptation depending on whether the similarity calculation is matched with the human similarity sense for the types of the feature amount data extracted by the feature amount data extraction unit (103), a similarity calculation unit (105) for calculating similarity between the key image data and each image data to be searched, according to the result of judgment of the adaptation judgment unit (104), and a search unit (106) for outputting the image data corresponding to the similarity as a search result.

Description

画像検索プログラム 技術分野 Image search program Technical field
本発明は、 キー画像データに基づいて、 画像データベースから所望の画像デー タを検索する画像検索プログラムに関するものであり、 特に、 検索精度を高める ことができる画像検索プログラムに関するものである。  The present invention relates to an image retrieval program for retrieving desired image data from an image database based on key image data, and more particularly to an image retrieval program capable of improving retrieval accuracy.
 Light
 Thread
背景技術 田 1 Background Technology Field 1
 Food
従来より、 大量の画像データが蓄積された画像データベースからユーザが検索 要求として与えたキー画像データに類似する画像データを類似する順に取出し、 表示することで、 ユーザが所望の画像データを効率的に見つけ出すための画像検 索装置が数多く開発されている。  Conventionally, by extracting and displaying image data similar to key image data given by a user as a search request from an image database storing a large amount of image data in a similar order, the user can efficiently obtain desired image data. Many image search devices have been developed to find them.
力かる画像検索装置においては、 類似画像検索技術が用いられており、 キー画 像データと検索対象の画像データとの類似度を数値的に計算するため、 画像デー タの特徴を数値的に表す特徴量が定義されている。 この特徴量は、 画像の類似度 計算に用いられる。  A powerful image search device uses a similar image search technology, which numerically calculates the degree of similarity between key image data and the image data to be searched. The feature amount is defined. This feature is used for calculating the similarity of the images.
ここで、 上記特徴量には、 画像が持っている色のレイアウト、 テクスチャ (グ ラフィックスなどにおいて、 図形の表面に付けられた模様や、 質感を表わすため の描き込みを指す) や、 画像中に存在する物体の輪郭の形状など、 特徴を捉える 観点によって分けられるタイプがある。  Here, the feature amount includes the color layout and texture of the image (in the case of graphics, etc., the pattern attached to the surface of the figure and the drawing for expressing the texture) and the image There are types that can be classified according to the viewpoint of capturing features, such as the shape of the contour of an object that exists in the area.
このことより、 従来では、 それぞれの特徴量のタイプごとに人間の類似性に関 する感覚に合致することを目指して多くの有効な定義とその抽出方法が提案され ている(片山紀生, 佐藤真一: 類似検索のための索引技術, 情報処理学会誌, Vol. 42, No. 10, pp. 958- 964(2001) . )。  For this reason, many effective definitions and extraction methods have been proposed in the past with the aim of matching the sense of human similarity for each feature type (Norio Katayama, Shinichi Sato). : Index technology for similarity search, IPSJ Journal, Vol. 42, No. 10, pp. 958-964 (2001).
従って、 従来の画像検索装置では、 様々な観点から類似画像を検索するため、 複数のタイプの特徴量を用意しておき、 ユーザにより目的に合った特徴量のタイ プが指定された後、 検索が実行される。 Therefore, the conventional image search device searches for similar images from various viewpoints. A plurality of types of feature values are prepared, and after the user specifies the type of feature value that suits the purpose, the search is executed.
し力 しながら、 従来の画像検索装置においては、 画像の特徴量に関する知識を 持たない一般ユーザにとって、 検索の目的に合った特徴量のタイプを選択するこ とは容易ではない。  However, in the conventional image retrieval device, it is not easy for a general user who does not have knowledge about the characteristic amount of an image to select a type of the characteristic amount suitable for the purpose of the retrieval.
この結果、 特徴量のタイプを試行 i ^的に決めて検索することを繰り返す必要 があり、 検索作業に要するユーザの労力が大きいという問題があった。  As a result, it is necessary to repeat the search by deciding the type of the feature amount on a trial basis, and there is a problem that the user's labor required for the search operation is large.
さらに、 これらの特徴量を用いて計算した類似度が人間の持つ類似性に関する 感覚に合致するためには、 対象とする画像データの内容が特徴量のタイプごとに 定まる一定の条件を満たしている必要があった。  Furthermore, in order for the similarity calculated using these features to match the human sense of similarity, the content of the target image data must satisfy certain conditions that are determined for each type of feature. Needed.
このため、 条件に合わない画像データが検索対象に含まれている場合、 類似度 計算が人間の感覚とずれることがあり、 ユーザにとってキー画像との類似性が著 しく欠如していると感じる画像データが検索結果に含まれてしまうことになる。 この問題は、 検索対象の画像データを用いる特徴量のタィプの条件に合致したも のだけに制限できる場合には生じない。  For this reason, if image data that does not meet the conditions is included in the search target, the similarity calculation may deviate from the human sense, and the image that the user feels remarkably lacks similarity with the key image. The data will be included in the search results. This problem does not occur when the search can be restricted to only those that meet the condition of the type of feature using the image data to be searched.
しかし、 近年普及しているインターネットを活用して収集した画像データなど 様々な内容の画像データが混在している画像データの集まりを検索対象とする場 合には特徴量のタイプの条件に合致しない画像データも多く含まれることになり、 検索精度が低下するという問題があった。  However, if the search target is a collection of image data in which image data of various contents are mixed, such as image data collected using the Internet that has become widespread in recent years, the condition of the feature type will not be met. There is also a problem that a large amount of image data is included and the search accuracy is reduced.
本発明は、 上記に鑑みてなされたもので、 検索精度を高めることができる画像 検索プログラムを提供することを目的としている。 発明の開示  The present invention has been made in view of the above, and an object of the present invention is to provide an image search program capable of improving search accuracy. Disclosure of the invention
上記目的を達成するために、 本発明は、 コンピュータを、 キー画像から複数タ イブの特徴量を抽出する特徴量抽出手段、 前記特徴量抽出手段により抽出された 各特徴量のタィプについて、 人間の類似感覚に合致した類似度が計算されるカゝ否 かを適合性の有無として判定する適合性判定手段、 前記適合性判定手段の判定結 PC漏 002/012135 In order to achieve the above object, the present invention provides a computer comprising: a feature amount extracting unit configured to extract a plurality of types of feature amounts from a key image; and a type of each feature amount extracted by the feature amount extracting unit. A suitability determining means for determining whether or not the similarity matching the similar sensation is calculated as the presence or absence of the suitability; and a determination result of the suitability determining means. PC leak 002/012135
3 Three
果に基づいて、 前記キー画像と検索対象の各画像との類似度を計算する類似度計 算手段、前記類似度に対応する画像を検索結果として出力する検索結果出力手段、 として機能させるための画像検索プログラムである。 Based on the result, a similarity calculating unit that calculates a similarity between the key image and each image to be searched, and a search result output unit that outputs an image corresponding to the similarity as a search result. It is an image search program.
この発明によれば、 キー画像から抽出された各特徴量のタイプについて、 人間 の類似感覚に合致した鎮似度が計算される力、否かを適合性の有無として判定し、 この判定結果に基づいて、 キー画像と検索対象の各画像との類似度を計算し、 類 似度に対応する画像を検索結果として出力することとしたので、 類似度を計算す る際に適用される特徴量のタイプの選択ミスが防止され、 検索精度を高めること ができる。 図面の簡単な説明  According to the present invention, for each type of feature amount extracted from the key image, a force for calculating a similarity degree that matches a human similarity is determined as whether or not there is compatibility. Based on this, the similarity between the key image and each image to be searched is calculated, and the image corresponding to the similarity is output as a search result. This prevents mis-selection of these types, and improves search accuracy. BRIEF DESCRIPTION OF THE FIGURES
第 1図は、 本発明にかかる一実施の形態の構成を示すブロック図であり、 第 2 図は、 第 1図に示した画像データベース 1 1 0のテーブル構造を示す図であり、 第 3図は、 第 1図に示した特徴量データベース 1 2 0のテーブル構造を示す図で あり、 第 4図は、 同一実施の形態の動作を説明するフローチャートであり、 第 5 図は、 第 4図に示した特徴量データ格納処理を説明するフローチヤ一トであり、 第 6図は、第 4図に示した検索処理を説明するフローチャートであり、第 7図は、 第 6図に示した適合性判定処理を説明するフローチャートであり、 第 8図は、 第 6図に示した検索処理を説明する図であり、 第 9図は、 同 実施の形態における 色レイアウト特徴量に関する適合性判定を説明する図であり、 第 1 0図は、 同一 実施の形態における色レイァゥト特徴量に関する適合性判定を説明する図であり、 第 1 1図は、 同一実施の形態における色レイアウト特徴量に関する適合性判定を 説明する図であり、 第 1 2図は、 同一実施の形態における色レイアウト特徴量を 説明する図であり、 第 1 3図は、 同一実施の形態における色レイアウト特徴量に 関する適合性判定に用いられる計算式を示す図であり、 第 1 4図は、 同一実施の 形態におけるテクスチャ特徴量に関する適合性判定を説明する図であり、 第 1 5 図は、 同一実施の形態における形状特徴量に関する適合性判定を説明する図であ り、 第 1 6図は、 同一実施の形態において色レイアウト特徴量を利用した場合の 検索結果画面 3 0 0を示す囡であり、 第.1 7図は、 同一実施の形態においてテク スチヤ特徴量を利用した場合の検索結果画面 3 1 0を示す図であり、第 1 8図は、 同一実施の形態において形状特徴量を利用した場合の検索結果画面 3 2 0を示す 図であり、第 1 9図は、同一実施の形態の変形例の構成を示すプロック図である。 発明を実施するための最良の形態 FIG. 1 is a block diagram showing a configuration of an embodiment according to the present invention. FIG. 2 is a diagram showing a table structure of an image database 110 shown in FIG. FIG. 4 is a diagram showing a table structure of a feature amount database 120 shown in FIG. 1, FIG. 4 is a flowchart for explaining an operation of the same embodiment, and FIG. FIG. 6 is a flowchart for explaining the feature amount data storage processing shown in FIG. 6. FIG. 6 is a flowchart for explaining the search processing shown in FIG. 4, and FIG. 7 is a flowchart showing the compatibility determination shown in FIG. FIG. 8 is a flow chart for explaining the processing, FIG. 8 is a view for explaining the search processing shown in FIG. 6, and FIG. 9 is a view for explaining the suitability judgment regarding the color layout feature amount in the embodiment. FIG. 10 shows the colors in the same embodiment. FIGS. 11A and 11B are diagrams for explaining the suitability determination relating to the art feature, FIG. 11 is a diagram illustrating the compatibility determination regarding the color layout feature in the same embodiment, and FIGS. 12A and 12B are the same embodiment. FIG. 13 is a diagram illustrating a color layout feature quantity in FIG. 13. FIG. 13 is a diagram showing a calculation formula used for determining suitability of the color layout feature quantity in the same embodiment. FIG. 15 is a diagram for explaining the suitability judgment regarding the texture feature amount in the embodiment. FIG. 15 is a diagram for explaining the suitability judgment regarding the shape feature amount in the same embodiment. FIG. 16 shows a search result screen 300 when the color layout feature is used in the same embodiment. FIG. 17 shows a texture feature in the same embodiment. FIG. 18 is a diagram showing a search result screen 310 when using a shape feature, and FIG. 18 is a diagram showing a search result screen 320 when using a shape feature in the same embodiment. FIG. 9 is a block diagram showing a configuration of a modification of the same embodiment. BEST MODE FOR CARRYING OUT THE INVENTION
以下、 図面を参照して本発明にかかる一実施の形態について詳細に説明する。 第 1図は、 本発明にかかる一実施の形態の構成を示すプロック図である。  Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an embodiment according to the present invention.
同図に示した画像検索装置 1 0 0は、 キー画像データと、 後述する画像データ ベース 1 1 0内の画像データとの間の類似度を計算するために用いられる複数の 特徴量 (色レイアウト特徴量、 テクスチャ特 ί敷量、 形状特徴量等) の中から、 人 間の類似感覚と合致する可能性が高い特徴量を選択し、 この特徴量を用いて画像 検索を行う装置である。  The image retrieval apparatus 100 shown in FIG. 1 includes a plurality of feature amounts (color layouts) used to calculate the similarity between key image data and image data in an image database 110 described later. This is a device that selects a feature value that is highly likely to match human similar sensations from among the feature values, texture features, shape features, etc.), and performs an image search using this feature value.
画像検索装置 1 0 0において、 入力部 1 0 1は、 類似画像検索の検索キーとな るキー画像データの入力や、 各種キー入力に用いられる入力デバイスであり、 デ イジタルカメラ、 スキャナ、 インターネット通信機器や、 キーボード、 マウス等 で ¾>る。  In the image search device 100, the input unit 101 is an input device used for inputting key image data as a search key for similar image search and various key inputs, and includes a digital camera, a scanner, and an Internet communication device. Use a device, keyboard, mouse, etc.
表示部 1 0 2は、 L C D (Liquid Crystal Display )や C R T (Cathode Ray Tube) 等であり、 画像検索に関する検索結果画面 (第 1 6図〜第 1 8図参照) により、 キー画像データと類似度が高い順に所定件数の検索結果 (画像データ) をユーザ に表示する。  The display unit 102 is an LCD (Liquid Crystal Display), CRT (Cathode Ray Tube), or the like, and displays a key image data and similarity on a search result screen (see FIGS. 16 to 18) related to image search. A predetermined number of search results (image data) are displayed to the user in descending order of the number of search results.
画像データベース 1 1 0は、磁気記憶装置や半導体メモリ上に構成されており、 検索対象となる画像データを格納するデータベースである。 具体的には、 画像デ ータベース 1 1 0は、 第 2図に示したように、 画像 I Dおよぴァドレスというフ ィールドを備えている。 画像 I Dは、 検索対象となる各画像データやキー画像デ ータを識別するための識別子である。 アドレスは、 画像データが実際に格納され ている場所を表す。 The image database 110 is a database that is configured on a magnetic storage device or a semiconductor memory and stores image data to be searched. Specifically, as shown in FIG. 2, the image database 110 has fields of an image ID and an address. The image ID is an identifier for identifying each image data and key image data to be searched. The address is where the image data is actually stored Represents the place where you are.
例えば、 画像 I Dが" 0000001" の画像データは、 第 8図 (b) に示し た検索対象の画像データ 11 1 に対応している。 この画像データ 111丄 は、 縦縞模様の壁紙画像を表している。  For example, the image data whose image ID is “0000001” corresponds to the image data 111 to be searched shown in FIG. 8 (b). This image data 111 # represents a wallpaper image with vertical stripes.
また、 画像 IDが" 0000002" の画像データは、 第 8図 (c) に示した 検索対象の画像データ 1112 に対応している。 この画像データ 1112 は、上 記画像データ 11 と同様にして、 縦縞模様の壁紙画像を表している。 The image data of the image ID is "0000002" corresponds to the image data 111 2 to be searched shown in FIG. 8 (c). The image data 111 2, the same procedure as above Symbol image data 11 represents the wallpaper image of stripes.
また、 画像 IDが" 0000003" の画像データは、 第 8図 (d) に示した 検索対象の画像データ 1113 に対応している。 この画像データ 1113 は、森 の木立と家を撮影した写真画像を表している。 The image data of the image ID is "0000003" corresponds to the image data 111 3 to be searched shown in FIG. 8 (d). The image data 111 3, represents the photographic images obtained by photographing the trees and the house of the forest.
特徴量データベース 120は、 画像データベース 110 (第 2図参照) に格納 された画像データ (例えば、画像データ 111 〜: L l l3 (第 8図(b)〜(d) 参照) ) や、 キー画像データ (例えば、 キー画像データ 200 (第 8図 (a) 参 照) ) のそれぞれの特徴を数値的に表す特徴量データを格納するデータベースで ある。 - ここで、一実施の形態においては、画像の特徴量のタイプとして、以下の (1) 〜 (3) の三種類を例示する。 Feature database 120, the image data stored in the image database 110 (see FIG. 2) (for example, image data 111 ~: L ll 3 (FIG. 8 (b) ~ (d) see)) or, the key image It is a database that stores feature data that numerically represents each feature of data (for example, key image data 200 (see FIG. 8 (a))). -Here, in one embodiment, the following three types (1) to (3) are illustrated as types of image feature amounts.
(1) 色レイアウト特徴量  (1) Color layout features
(2) テクスチャ特徴量  (2) Texture features
(3) 形状特徴量  (3) Shape features
上記 (1) 色レイアウト特徴量は、 画像データ上における色の空間的な分布状 態を表す特徴量である。 (2)テクスチャ特徴量は、画像データにおける模様や、 質感を表わすための描き込みを表す特徴量である。 (3) 形状特徴量は、 画像デ ータに存在する物体の輪郭の形状を表す特徴量である。  The (1) color layout feature quantity is a feature quantity representing a spatial distribution state of colors on image data. (2) The texture feature amount is a feature amount representing a pattern in image data or a drawing for representing a texture. (3) The shape feature is a feature representing the shape of the contour of the object existing in the image data.
具体的には、 特徴量データベース 120は、 第 3図に示したように、 色レイァ ゥト特徴量データテーブル 121、 テクスチャ特徴量データテーブル 122およ び形状特徴量データテーブル 123から構成されている。 これらの色レイァゥト特徴量データテーブル 1 2 1、 テクスチャ特徴量データ テーブル 1 2 2および形状特徴量データテープル 1 2 3のそれぞれは、 画像 I D および特徴量データというフィールドを備えている。 画像 I Dは、 画像データべ ース 1 1 0 (第 2図参照) の画像 I Dに対応している。 More specifically, as shown in FIG. 3, the feature amount database 120 includes a color layout feature amount data table 121, a texture feature amount data table 122, and a shape feature amount data table 123. . Each of these color rate feature data table 121, texture feature data table 122, and shape feature data table 123 has fields of image ID and feature data. The image ID corresponds to the image ID in the image database 110 (see Fig. 2).
色レイアウト特徴量データテーブル 1 2 1の特徴量データは、 画像 I Dに対応 する画像データに関する色レイアウト特徴量を表すデータである。 テクスチャ特 徴量データテーブル 1 2 2の特徴量データは、 画像 I Dに対応する画像データに 関するテクスチャ特徴量を表すデータである。 形状特徴量データテーブル 1 2 3 の特徴量データは、 画像 I Dに対応する画像データに関する形状特徴量を表すデ ータである。  The feature data in the color layout feature data table 122 is data representing a color layout feature related to image data corresponding to the image ID. The feature amount data of the texture feature amount data table 122 is data representing a texture feature amount regarding the image data corresponding to the image ID. The feature amount data of the shape feature amount data table 123 is data representing a shape feature amount regarding image data corresponding to the image ID.
第 1図に戻り、 特徴量データ抽出部 1 0 3は、 画像データベース 1 1 0に格納 された検索対象の各画像データゃキー画像データから、 上述した三種類の特徴量 (色レイアウト特徴量、 テクスチャ特徴量、 形状特徴量) にそれぞれ対応する特 徴量データを抽出し、 これらを特徴量データベース 1 2 0 (第 4図参照) に格納 する。  Returning to FIG. 1, the feature amount data extraction unit 103 extracts the above-described three types of feature amounts (color layout feature amount, color layout feature amount, The feature amount data corresponding to the texture feature amount and the shape feature amount) are extracted and stored in the feature amount database 120 (see FIG. 4).
これらの特徴量データは、 キー画像データと検索対象の画像データとの類似度 を計算する場合に用いられる。  These feature data are used to calculate the similarity between the key image data and the image data to be searched.
適合性判定部 1 0 4は、 キー画像データと検索対象としての画像データとの間 の類似度を数値的に計算する際に用いられる特徴量データについて、 類似度の計 算を行った場合に、 人間が持つ類似感覚 (類似性) に合致した類似度が計算され るか否かを、特徴量データ (特徴量) と与えられたキー画像デ一タ (画像データ) との適合性の有無として判定する。  The suitability determination unit 104 calculates the similarity of the feature data used to numerically calculate the similarity between the key image data and the image data to be searched. Whether or not the similarity matching the similar sensation (similarity) of the human being is calculated is determined by whether or not the feature data (feature) is compatible with the given key image data (image data). Is determined.
類似度計算部 1 0 5は、 適合性が有りと判定された、 キー画像データの特徴量 デ^"タに対応するべクトル値と、 検索対象の各画像データの特徴量データに対応 するべクトル値との間のユークリッド距離に基づいて、 キー画像データに対する 検索対象の各画像データの類似度を計算する。 検索部 1 0 6は、 画像検索に関す る処理を実行する。 つぎに、 一実施の形態の動^について、 第 4図〜第 7図に示したフローチヤ一 トを参照しつつ説明する。 第 1図に示した画像データベース 1 1 0には、 第2図 に示したように、検索対象の複数の画像データが予め格納されているものとする。 この状態で、 第 4図に示したステップ S A 1では、 ユーザより特徴量データの 格納に関する要求がある力否かが判断され、 この場合、 判断結果が 「N o」 とさ れる。 The similarity calculation unit 105 calculates a vector value corresponding to the feature value data of the key image data determined to be compatible and a feature value data of each image data to be searched. The search unit 106 calculates the similarity of each piece of image data to be searched with respect to the key image data based on the Euclidean distance from the vector value. Next, the operation of the embodiment will be described with reference to the flowcharts shown in FIGS. The image database 1 1 0 shown in FIG. 1, as shown in FIG. 2, and a plurality of image data to be retrieved is stored in advance. In this state, in step SA1 shown in FIG. 4, it is determined whether or not the user has a request for storing the feature amount data. In this case, the determination result is “No”.
ステップ S A 2では、 ユーザより画像検索に関する要求がある力否かが判断さ れ、 この場合、 判断結果が 「N o」 とされる。 以後、 ステップ S A 1またはステ ップ S A 2の判断結果が 「Y e s」 となるまで、 ステップ S A 1およびステップ S A 2の判断が繰り返される。  In step S A2, it is determined whether or not the user has a request for image search, and in this case, the determination result is “No”. Thereafter, the determination in step S A1 and step S A2 is repeated until the determination result in step S A1 or S A 2 becomes “Y e s”.
そして、 ユーザより、 特徴量データの格納に関する要求があると、 ステップ S Then, if there is a request from the user for storing the feature data, step S
A 1の判断結果が 「Y e s」 とされる。 ステップ S A 3では、 画像データベース 1 1 0に格納された画像データから、 前述した三種類の特徴量 (色レイアウト特 徴量、 テクスチャ特徴量および形状特徴量) に対応する特徴量データを抽出し、 これらを特徴量データベース 1 2 0に格納するための特徴量データ格納処理が実 行される。 The judgment result of A1 is "Yes". In step SA3, from the image data stored in the image database 110, feature amount data corresponding to the above three types of feature amounts (color layout feature amount, texture feature amount, and shape feature amount) are extracted. A feature amount data storage process for storing these in the feature amount database 120 is executed.
具体的には、 第 5図に示したステップ S B 1では、 特徴量データ抽出部 1 0 3 は、 画像データベース 1 1 0 (第 2図参照) 力 ら、 一つの画像データ (例えば、 画像データ 1 1 (第 8図 (b ) 参照) ) を取得する。 ステップ S B 2では、 特徴量データ抽出部 1 0 3は、 ステップ S B 1で取得した画像データから、 三種 類の特徴量 (色レイアウト特徴量、 テクスチャ特徴量および形状特徴量) にそれ ぞれ対応する特徴量データを抽出する。  More specifically, in step SB1 shown in FIG. 5, the feature data extraction unit 103 extracts one image data (for example, image data 1) from the image database 110 (see FIG. 2). 1 (See Fig. 8 (b))). In step SB2, the feature data extraction unit 103 corresponds to three types of features (color layout features, texture features, and shape features) from the image data acquired in step SB1. Extract feature data.
以下では、 色レイァゥト特徴量、 テクスチャ特徴量および形状特徴量のそれぞ れに対応する特徴量データの抽出方法について、 詳述する。  Hereinafter, a method of extracting feature data corresponding to each of the color layout feature, the texture feature, and the shape feature will be described in detail.
(色レイアウト特徴量)  (Color layout features)
はじめに、 色レイァゥト特徴量に対応する特徴量データの抽出方法について説 明する。 色レイアウト特徴量は、 例えば、 第 9図に示したように、 画像データを縦横に 適当な数で格子状に分割したときの、 各部分画像データ I の色値の平均を一 次元的に並べた値として表現される。 First, a method of extracting feature data corresponding to the color layout feature will be described. For example, as shown in Fig. 9, the color layout features are obtained by arranging the average of the color values of each partial image data I one-dimensionally when the image data is divided vertically and horizontally into an appropriate number of grids. It is expressed as a value.
ここで、部分画像データ I 5 j の色値の平均は、 RGB色空間における R (赤)、 G (緑)、 B (青)の強度を成分とする三次元ベクトルで表される。 Here, the average of the color values of the partial image data I 5 j is represented by a three-dimensional vector having components of R (red), G (green), and B (blue) in the RGB color space.
また、 部分画像データ I i 3 の色値の平均を (Ru, Gn, Βη) とした場合 に、 色レイアウトは (Ru, G11} BX1, R12, G12, B12J R44, G44, BFurther, the average of the color values of the partial image data I i 3 when (Ru, G n, Β η ) and, the color layout (Ru, G 11} B X1 , R 12, G 12, B 12J R 44 , G 44 , B
44 ) というべクトルで表される。 44 ).
色レイアウト特徴量が意味を持っためには、 つぎの二つの条件 (1 A) および (2A) を満たす部分画像データが所定数以上必要となる。  In order for the color layout features to be meaningful, a predetermined number or more of partial image data that satisfy the following two conditions (1A) and (2A) are required.
•条件(1A)  • Condition (1A)
画像データに一定値以上の割合で含まれる色があること  The image data contains a color that is included at a certain percentage or more
•条件(2A)  • Condition (2A)
条件( 1 A)を満たす色を持つ画素が空間的に集中していること これらの二つの条件 (1 A) および (2A) は、 部分画像データの色値の平均 1 その部分画像データ全体の色を近似していることを表すための条件である。 例えば、 画像データに多くの色が少しずつ存在している場合には、 その色値の 平均をとつても良い近似にはならない。 '  Pixels having colors satisfying the condition (1A) are spatially concentrated. These two conditions (1A) and (2A) are based on the average of the color values of the partial image data. This is a condition for indicating that colors are approximated. For example, if many colors exist little by little in image data, averaging the color values is not a good approximation. '
また、 画像データに一定以上の割合である色が存在していても、 当該色が細か い領域に分断され、 散在している場合には、 人間にとって顕著な色と感じない。 従って、 画像データにおいて空間的に画素が集中していることが条件となる。 上記条件 (1 Α)および(2Α) を満たすか否かは、つぎの方法で判定される。 ' (条件(1A)の判定方法)  Also, even if a certain percentage or more of the colors exist in the image data, if the colors are divided into small areas and scattered, they are not perceived by humans as remarkable colors. Therefore, the condition is that pixels are spatially concentrated in the image data. Whether or not the above conditions (1Α) and (2Α) are satisfied is determined by the following method. '(How to determine condition (1A))
まず、 RGB色空間が部分色空間に分割される。 つぎに、 各部分色空間におけ る部分画像データに含まれる画素の数がカウントされた後、 部分画像の総画'素数 に対する計算結果の画素数の割合値が部分色空間ごとに計算される。  First, the RGB color space is divided into partial color spaces. Next, after the number of pixels included in the partial image data in each partial color space is counted, a ratio value of the number of pixels of the calculation result to the total prime number of the partial image is calculated for each partial color space.
この割合値が所定値以上の部分色空間がある場合には、 その部分色空間が代表 する色値がその部分画像に対する部分画像の代表色とされる。 If there is a partial color space whose ratio value is equal to or greater than a predetermined value, that partial color space is The corresponding color value is set as a representative color of the partial image for the partial image.
部分画像の代表色の決め方としては、 例えば、 対応する部分色空間の重心位置 にある色とする方法がある。この部分画像の代表色が存在する場合には、条件(1 As a method of determining the representative color of the partial image, for example, there is a method of determining a color at the position of the center of gravity of the corresponding partial color space. If the representative color of this partial image exists, the condition (1
A)が満たさ; る。 A) is satisfied.
(条件(2 Α)の判定方法)  (How to determine the condition (2Α))
条件 ( 1 Α)の判定の過程で得られた部分画像の代表色につ!/、て、 つぎの方法で 集中度が計算される。 まず、 第 1 2図に示したように部分画像 Μ上の全ての画素 について、 その画素が中心にくるように w X hの大きさの窓 mを当てはめ、 その 窓 m中にある部分画像の代表色に対応する画素の数 R C x y をカウントする。 このとき、 図 1 3図に示した (1 ) 式により集中度 S Cを計算する。 (1 ) 式 において、 R Cは、 部分画像の代表色に対応する画素の総数、 Nは、 所定の値で める。 For the representative color of the partial image obtained in the process of judging the condition (1Α), the concentration is calculated by the following method. First, as shown in Fig. 12, for all the pixels on the partial image Μ, a window m with the size of w X h is applied so that the pixels are at the center, and the partial image in the window m is The number RCxy of pixels corresponding to the representative color is counted. At this time, the degree of concentration SC is calculated by the equation (1) shown in FIGS. In equation (1), RC is the total number of pixels corresponding to the representative color of the partial image, and N is a predetermined value.
この集中度 S Cが所定値以上の部分画像の代表色を持つ場合には、 条件 ( 2 A) が満たされる。  When the concentration SC has a representative color of a partial image that is equal to or greater than a predetermined value, the condition (2A) is satisfied.
(テクスチャ特徴量)  (Texture feature)
つぎに、 テクスチャ特徴量に対応する特徴量データの抽出方法にっレヽて説明す る。  Next, a method of extracting feature data corresponding to the texture feature will be described.
テクスチャ特徴量に対応する特徴量データの抽出に際しては、 画像データ全体 がー様なテクスチャ (模様) で覆われていることが前提とされる場合が大半を占 める。 従って、 一様なテクスチャで覆われていない画像データの場合には、 その 計算方法が意図した特徴量データが抽出されないことがある。  When extracting feature data corresponding to texture features, it is presumed that the entire image data is presumed to be covered with similar textures (patterns). Therefore, in the case of image data that is not covered with a uniform texture, the feature data intended by the calculation method may not be extracted.
この結果、 画像検索に際して、 一様なテクスチャで覆われていないキー画像デ ータが与えられたとき、 検索対象の画像データの中で、 人間の感覚としてより類 似しているように感じる画像データよりも、 そうでない画像データの方が高い類 似度を示す場合がある。  As a result, when key image data that is not covered with a uniform texture is given during image search, the image that looks more similar to the human sense in the search target image data In some cases, image data that is not so may show higher similarity than data.
類似度が高い順に画像検索結果が表示された場合には、 人間の感覚では似てい ないと感じる画像データが、 キー画像データに似ていると感じる画像よりも上位 になることで、 検索の効率を低下させることになる。 When image search results are displayed in order of similarity, image data that is not similar to human perception is higher than images that are similar to key image data. Would reduce the efficiency of the search.
例えば、 画像検索のキー画像として第 8図 (a ) に示したキー画像データ 2 0 0が与えられたとする。 —方、 検索対象は、 第 8図 (b ) 、 ( c ) および (d ) に示した画像データ 1 1 、 1 1 1 2 および 1 1 1 3であるとする。 For example, suppose that key image data 200 shown in FIG. 8 (a) is given as a key image for image search. - How the search target, FIG. 8 (b), and an image data 1 1, 1 1 1 2 and 1 1 1 3 shown in (c) and (d).
キー画像データ 2 0 0および画像データ 1 1 1 3 は、木立の中に家がある風景 を撮影した写真画像である。 一方、 画像データ 1 1 1 i および 1 1 1 2 は、 一様 なテクスチャで覆われた壁紙画像に対応している。 Key image data 2 0 0 and the image data 1 1 1 3 is a photographic image obtained by photographing a landscape where there is a house in the grove. On the other hand, the image data 1 1 1 i and 1 1 1 2 correspond to a wallpaper image covered with a uniform texture.
なお、 テクスチャ特徴量は、 周知の田村の方法 (H. Tamura, S. Mori, and T. Yamawaki, lexture Features Corresponding Visual Perception, IEEE Trans. System Man and Cybernetics, Vol. 8, No. 6, (1978) . )により計算される。  The texture features are calculated using the well-known Tamura method (H. Tamura, S. Mori, and T. Yamawaki, lexture Features Corresponding Visual Perception, IEEE Trans. System Man and Cybernetics, Vol. 8, No. 6, (1978). ) Calculated by.
田村の方法では、 テクスチャ特徴量を 「粗さ(coarseness)」 、 「コントラスト (contrast) J 、 「方向性(directionality)」 という三つの成分で表し、 各成分の 度合いをそれぞれ数値で表した三次元べクトルとして画像データから抽出される。  In Tamura's method, texture features are represented by three components: "coarseness", "contrast" J, and "directionality", and the degree of each component is represented by a three-dimensional numerical value. It is extracted from image data as a vector.
「粗さ」 は、 画像データ中に現れるパターンのスケールの大きさを表すもので あり、 スケールが大きいほど大きな値となる。 「コントラスト」 は、 輝度値のば らつきの度合 、を表すものであり、 ばらつきが大きいほど大きな値となる。  “Roughness” indicates the size of the scale of the pattern appearing in the image data, and the larger the scale, the larger the value. “Contrast” indicates the degree of variation in luminance value, and the larger the variation, the larger the value.
「方向性」 は、 画像データ中のエッジ成分の方向が一定方向に集中している度 合いを表すものであり、 エッジ成分の方向の中で最も頻度の高い方向における頻 度が大きいほど大きな値となる。  “Directivity” indicates the degree to which the direction of the edge component in the image data is concentrated in a certain direction. The larger the frequency in the direction with the highest frequency among the directions of the edge component, the larger the value. It becomes.
この田村の方法でキー画像データ 2 0 0 (第 8図 (a ) 参照) からテクスチャ 特徴量に対応する特徴量データを抽出した場合、 キー画像データ 2 0 0は、 「粗 さ」 、 「コントラスト」 、 「方向性」 のいずれにおいても、 画像データ 1 1 1 3 よりも、 画像データ 1 1 1 、 画像データ 1 1 1 2 の方が高い類似度を示す。 しかしながら、 上記画像検索でユーザが風景画像を検索しているとすれば、 検 索結果に画像データ 1 1 1 および 1 1 1 2 が含まれるのは不適切である。 この ような不適切な画像データが検索結果の上位にくる'ことで、 目的の画像データを 見つけるために不要な画像データを多く見ることになり、 検索効率の低下を招く ことになる。 When the feature data corresponding to the texture feature is extracted from the key image data 200 (see Fig. 8 (a)) by this Tamura method, the key image data 200 is composed of "roughness" and "contrast". ”And“ direction ”, the image data 1 1 1 and 1 1 1 2 show a higher similarity than the image data 1 1 1 3 . However, if the user by the image search is looking for landscape images, it is inappropriate for the image data 1 1 1 and 1 1 1 2 is included in the search results. If such inappropriate image data is ranked higher in the search results, more unnecessary image data will be seen in order to find the target image data, resulting in lower search efficiency. Will be.
そこで、 こうしたキー画像データについてはテクスチャの一様性を計算し、 一 様性の高さが所定の値より小さレ、場合は適合性がない 判定してテクスチャ特徴 を検索に使わないことができる。  Therefore, for such key image data, the uniformity of the texture is calculated, and if the uniformity is smaller than a predetermined value, it is determined that there is no suitability, and the texture feature can not be used in the search. .
テクスチャの一様性の計算方法について説明する。 まず、 計算対象の画像を縦 横に分割する。 例えば、 第 1 4図 (a ) や第 1 4図 (b ) に示したように、 画像 データ (キー画像データ 2 0 0等) を縦横二等分で四分割する。  A method of calculating texture uniformity will be described. First, the image to be calculated is divided vertically and horizontally. For example, as shown in FIG. 14 (a) and FIG. 14 (b), image data (key image data 200, etc.) is divided into four equal parts vertically and horizontally.
つぎに、分割された各部分画像からテクスチャ特徴をべクトルとして抽出する。 このときのテクスチャ特徴の計算方法としては、 類似度計算で用いる特徴を計算 した方法と同じ方法でも良いし、 別の方法でも良い。  Next, a texture feature is extracted as a vector from each of the divided partial images. At this time, the method of calculating the texture feature may be the same as the method of calculating the feature used in the similarity calculation, or may be another method.
ここでは、 同じ方法である田村の方法を用いるとすれば、 各部分画像から三次 元ベクトルの特徴が抽出される。 ここで、 テクスチャの一様性は、 抽出された特 徴べクトルのばらつきの度合いによって表すことができる。  Here, if the same method, Tamura's method, is used, the feature of the three-dimensional vector is extracted from each partial image. Here, the uniformity of the texture can be represented by the degree of variation of the extracted characteristic vectors.
一様であるほどばらつきは小さくなる。 そこで、 部分画像から得られた四つの 特徴ベクトルに対し、 ばらつきの度合いとして分散値を計算し、 分散値が所定の 値より大きい場合は一様性が低い、 すなわち、 適合性がないと判定する。 第 1 4 図 (a ) の例では、 キー画像データ 2 0 0の場合に右下の部分画像は他の三つと 比べて 「粗さ」 、 「コントラスト」 、 「方向性」 のいずれも大きく異なるので、 分散値は高くなり、 適合性なしと判定することができる。  The more uniform, the smaller the variation. Therefore, the variance is calculated as the degree of variation for the four feature vectors obtained from the partial images, and if the variance is larger than a predetermined value, the uniformity is low, that is, it is determined that there is no compatibility. . In the example of Fig. 14 (a), in the case of the key image data 200, the lower right partial image is significantly different from the other three in "roughness", "contrast", and "direction". Therefore, the variance value is high, and it can be determined that there is no compatibility.
(形状特徴量)  (Shape features)
つぎに、 形状特徴量に対応する特徴量データの抽出方法について説明する。 形状特徴量に対応する特徴量データの抽出においては、 画像データから予 輪 郭線が抽出されている場合の方法と、 抽出されていない場合の方法とがあるが、 インターネットから収集した画像データを扱うような場合、 輪郭線が予め抽出さ れていない場合が大半であるため、 後者の方法が用いられる。  Next, a method of extracting feature data corresponding to the shape feature will be described. There are two methods for extracting feature data corresponding to shape features: a method in which a pre- contour line is extracted from image data, and a method in which a pre- contour line is not extracted. In most cases, the latter method is used because the contour line has not been extracted in advance.
—方、 任意の画像データを対象とする場合、 画像データに存在する物体の輪郭 線を抽出するのが技術的に困難であるため、 物体の輪郭線が画像データ中で強い エッジ成分となることを利用して、 局所的なエッジ成分の方向別の頻度分布とし て近似的に形状特徴量を表すことになる。 On the other hand, in the case of arbitrary image data, it is technically difficult to extract the outline of the object existing in the image data, so that the outline of the object is strong in the image data. Utilizing the fact that it becomes an edge component, the shape feature is approximately represented as a frequency distribution for each direction of the local edge component.
このような形状特徴量に対応する特徴量データの抽出方法では、つぎの条件( 3 A) が前提となる。  In the method of extracting feature amount data corresponding to such a shape feature amount, the following condition (3A) is premised.
条件 ( 3 A)  Condition (3A)
単色の背景で、 画像データの特定部分に物体が存在すること。  The presence of an object in a specific part of the image data with a solid color background.
特定部分としては、 例えば画像データの中心付近がある。  The specific portion is, for example, near the center of the image data.
ここで、 条件 ( 3 A) に基づく適合性判定の方法はつぎの通りである。 まず、 第 1 5図 (a ) および (b ) に示したように画像データの中心から所定の角度ご とに放射状に引いた線分に沿って、 画像データの中心に向かう方向で画素を走查 する。  Here, the method of determining the suitability based on the condition (3A) is as follows. First, as shown in Fig. 15 (a) and (b), pixels are run in the direction toward the center of the image data along a line segment drawn radially from the center of the image data at predetermined angles.查
走査の過程で連続する画素の輝度値の差分を逐次計算し、 所定の値を超える差 分に出会った点の座標値 (X、 y ) を記憶する。 The difference between the luminance values of successive pixels is sequentially calculated in the scanning process, and the coordinate value ( X , y) of a point where the difference exceeds a predetermined value is stored.
この処理を各走査線分につ!/ヽて行つた結果から得られる座標値について、 隣り 合う走査線分間の座標値の距離を積算する。 この積算値を基準とし、 所定の値よ り大きい場合は適合性なしと判定する。 第 1 5図 (a ) のように前提条件を満た している画像データ 2 1 0の場合には、 記憶した座標値間の距離が小さくなる。 一方、 第 1 5図 (b ) に示したキー画像データ 2 0 0については、 対象物(家) 以外の背景にも別の物体が描力れており、 このような画像から形状特徴を抽出し た場合、 対象物以外の輪郭線等の影響が大きいため意味のある形状特徴は得られ ない。  Repeat this process for each scanning line! / Integrates the distance between the coordinate values between adjacent scan lines for the coordinate values obtained from the results obtained by performing the above steps. Based on this integrated value, if it is larger than the predetermined value, it is determined that there is no compatibility. In the case of the image data 210 that satisfies the preconditions as shown in FIG. 15 (a), the distance between the stored coordinate values becomes small. On the other hand, for the key image data 200 shown in Fig. 15 (b), another object is drawn in the background other than the object (house), and the shape features are extracted from such an image. In this case, meaningful shape features cannot be obtained because the influence of contour lines other than the object is large.
このような画像データの場合には、 記憶した座標値間の距離は相対的に大きく なるため、 この判定方法により適合性なしと判定できる。  In the case of such image data, since the distance between the stored coordinate values becomes relatively large, it is possible to determine that there is no compatibility by this determination method.
第 5図に戻り、 ステップ S B 3では、 特徴量データ抽出部 1 0 3は、 ステップ S B 2で抽出された各特徴量データ (色レイアウト特徴量、 テクスチャ特徴量お よび形状特徴量) を特徴量データベース 1 2 0 (第 3図参照) に格納する。  Returning to FIG. 5, in step SB3, the feature data extraction unit 103 converts each feature data (color layout feature, texture feature, and shape feature) extracted in step SB2 into feature data. Stored in database 120 (see Figure 3).
ステップ S B 4では、 特徴量データ抽出部 1 0 3は、 画像データベース 1 1 0 における全ての画像データを処理 (特徴量データの抽出、 格納) したか否かを判 断し、 この^^、 判断結果を 「No」 とする。 以後、 残りの画像データについて 上述した処理が実行される。 In step SB4, the feature data extraction unit 103 sets the image database 110 It is determined whether or not all the image data in (process of extracting and storing feature amount data) has been processed, and ^^, and the result of the determination is “No”. Thereafter, the above-described processing is performed on the remaining image data.
そして、 処理が終了すると、 ステップ S B 4の判断結果が 「Y e s」 とされ、 特徴量データ格納処理が終了する。  When the process is completed, the result of the determination in step SB4 is set to “Y e s”, and the feature amount data storage process ends.
そして、 ユーザより画像検索に関する要求があると、 第 4図に示したステップ SA2の判断转果が 「Y e s」 とされる。 ステップ SA4では、 キー画像データ に類似する画像データを検索するための検索処理が実行される。  Then, when there is a request for image retrieval from the user, the result of the determination in step SA2 shown in FIG. 4 is set to “Yes”. In step SA4, a search process for searching for image data similar to the key image data is executed.
具体的には、 第 6図に示したステップ S C 1では、 ユーザは、 入力部 1 0 1よ り、 例えば、 第 8図 (a) に示したキー画像データ 2 00を入力する。 このキー 画像データ 200は、 第 8図 (d) に示した画像データ 1 1 13 と同じ場所の風 景を異なる角度から撮影した写真画像に対応している。 Specifically, in step SC1 shown in FIG. 6, the user inputs, for example, key image data 200 shown in FIG. 8A from the input unit 101. The key image data 200 corresponds to the photographic images taken from the image data 1 1 1 3 different angles scenery in the same location as shown in Figure 8 (d).
ステップ S C 2では、 キー画像データ 200について、 色レイアウト特敫量、 テクスチャ特徴量、 形状特徴量の各々に対する適合性を判定するための適合性判 定処理が実行される。  In step S C2, a suitability determination process is performed for the key image data 200 to determine suitability for each of the color layout features, the texture features, and the shape features.
具体的には、 第 7図に示したステップ SD 1では、 適合性判定部 1 04は、 色 レイアウト特徴量の適合性を判定する。 すなわち、 適合性判定部 1 04は、 キー 画像データ 200を縦横に分割する。  Specifically, in step SD1 shown in FIG. 7, the suitability determination unit 104 determines suitability of the color layout feature. That is, the suitability determining unit 104 divides the key image data 200 vertically and horizontally.
ここでは、 キー画像データ 200が、 第 9図に示したように、 縦を 4等分、 横 を 4等分した 1 6個の部分画像データ(I u 〜144 )に分割されたものとする。 つぎに、 適合性判定部 1 04は、 キー画像データ 2 00の部分画像 ( I t i 〜 I 44 ) ごとに、 RGB色空間の R、 G、 Bを各々 4等分したときの各部分色空 間に含まれる画素数の割合値を計算し、 最大の割合値を持つ部分色空間の割合値 を第 1 0図に示す値として求める。 Here, the key image data 200 is, as shown in FIG. 9, the vertical four equal parts, and those divided transversely to 4 equally divided 1 6 partial image data (I u ~1 44) I do. Next, the suitability determining unit 104 determines, for each of the partial images (I ti to I 44 ) of the key image data 200, each partial color space obtained by dividing R, G, and B in the RGB color space into four equal parts. The ratio value of the number of pixels included in the space is calculated, and the ratio value of the partial color space having the maximum ratio value is obtained as the value shown in FIG.
ここで、 割合値は、 [0. 0, 1. 0] の範囲をとり、 値が大きいほど割合が 大きいとする。  Here, the ratio value ranges from [0.0, 1.0], and the larger the value, the larger the ratio.
また、 色レイアウト特徴量について、 前述した条件(1 A)の判定方法における 部分画像代表色であるための割合値の閾値が 0. 3とすると、 すべての部分画像 は、 閾値以上の割合値を持つ部分色空間を持ち、 部分画像の代表色を持つことに なる。 In addition, regarding the color layout feature amount, in the determination method of the condition (1 A) described above, Assuming that the threshold value of the ratio value for the partial image representative color is 0.3, all the partial images have a partial color space having a ratio value equal to or larger than the threshold value, and have the representative color of the partial image.
また、 色レイアウト特徴量の条件(2 A)の判定方法における集中度 SCを求め るための (1) 式 (第 13図参照) の Nを 6として、 第 10図の割合値を持つ部 分画像代表色の集中度 s Cを計算した結果、第 11図に示した値になったとする。 集中度 SCは、 [0. 0, 1. 0] の範囲をとり、 値が大きいほど集中している とする。  In addition, assuming that N in Equation (1) (see FIG. 13) for determining the degree of concentration SC in the method of determining the condition (2 A) of the color layout feature is 6, the portion having the ratio value shown in FIG. It is assumed that the calculation result of the degree of concentration s C of the image representative color is a value shown in FIG. The degree of concentration SC is in the range of [0.0, 1.0], and the higher the value, the more concentrated.
ここで、 色レイアウト特徴量の条件 ( 2 A)の判定方法における集中度 S Cの閾 値を 0. 6とすると、 第 11図に示した右下の部分画像以外は、 閾値以上の集中 度を持っため条件(2 A)を満たす。 同右下の部分画像は、 条件(2A)を満たさな いということになる。  Here, assuming that the threshold value of the degree of concentration SC in the determination method of the condition (2A) of the color layout feature amount is 0.6, except for the partial image at the lower right shown in FIG. Satisfy condition (2 A). The partial image at the lower right does not satisfy the condition (2A).
最後に、 色レイァゥト特徴との適合性を判定する基準である条件(1 A)と条件 ( 2 A)を共に満たす部分画像数の閾値を 14個とした場合、 キー画像データ 20 0は、第 1 1図に示した右下の部分画像を除く 15個の部分画像について条件(1 A)と条件( 2 A)をともに満たすので、色レイアウト特徴との適合性があると判定 される。  Lastly, when the threshold value of the number of partial images that satisfies both the condition (1A) and the condition (2A), which are criteria for judging the compatibility with the color layout features, is 14, key image data 200 11 Since the conditions (1 A) and (2 A) are both satisfied for the 15 partial images except the lower right partial image shown in FIG. 11, it is determined that there is compatibility with the color layout feature.
第 7図に示したステップ SD 2では、 適合性判定部 104は、 テクスチャ特徴 量の適合性を判定する。 すなわち、 適合性判定部 104は、 第 14図 (a) に示 したように、 キー画像データ 200を縦横二等分で四分割し、 各部分画像からテ タスチヤ特徴量をべクト /レ値として抽出する。  In step SD2 shown in FIG. 7, the suitability determining unit 104 determines the suitability of the texture feature. That is, as shown in FIG. 14 (a), the suitability determination unit 104 divides the key image data 200 into two equal parts vertically and horizontally and divides the test feature amount from each partial image into a vector / value. Extract.
つぎに、 適合性判定部 104は、 各ベクトル値の間の分散値を、 例えば、 0. 7として計算する。  Next, the suitability determining unit 104 calculates the variance between the vector values as, for example, 0.7.
ここで、 分散値は、 [0. 0, 1. 0] の範囲をとり、 値が大きいほど分散が 大きいとする。  Here, the variance value ranges from [0.0, 1.0], and it is assumed that the larger the value, the greater the variance.
ここで、 キー画像データ 200とテクスチャ特徴量との適合性を判定する分散 値に対する閾値が 0. 6であったとすると、 キー画像データ 200の分散値が閾 値以上である。 従って、 この場合には、 キー画像データ 2 0 0は、 テクスチャの 一様性がないということで、 テクスチャ特徴量との適合性がないと判定され^)。 第 7図に示したステップ S D 3では、 適合性判定部 1 0 4は、 形状特徴量の適 合性を判定する。 すなわち、 適合性判定部 1 0 4は、 第 1 5図 (b ) に示したよ うに、 キー画像データ 2 0 0の中心から角度が 22. 5度ごとに放射状に引いた線分 に沿って、 画像中心に向かう方向で画素を走査する。 Here, assuming that the threshold value for the variance value for judging the compatibility between the key image data 200 and the texture feature amount is 0.6, the variance value of the key image data 200 is Is greater than or equal to the value. Therefore, in this case, it is determined that the key image data 200 does not have the uniformity of the texture, and that the key image data 200 is not compatible with the texture feature amount ^). In step SD3 shown in FIG. 7, the suitability determination unit 104 determines the suitability of the shape feature. That is, as shown in FIG. 15 (b), the suitability judging unit 104 divides the key image data 200 along a line segment radially drawn every 22.5 degrees from the center of the key image data 200. The pixels are scanned in the direction toward the center of the image.
■ ここで、 適合性判定部 1 0 4は、 走査の過程で連続する画素の輝度値の差分を 逐次計算し、所定の閾値を超える差分となった画素の座標値 (x,y)を記憶する。差 分の閾値は、 例えば、 差分の値の範囲が [ 0 . 0, 1 . 0 ] である場合、 0 . 8 である。  ■ Here, the suitability determination unit 104 sequentially calculates the difference between the luminance values of successive pixels in the scanning process, and stores the coordinate value (x, y) of the pixel having a difference exceeding a predetermined threshold. I do. For example, the threshold value of the difference is 0.8 when the range of the difference value is [0.0, 1.0].
以上を各走査線分について行った結果から得られる座標値について、 隣り合う 走査線分間の座標値の距離を積算した結果が 1 1 5 0であったとする。 ここで、. この積算値に対する閾値が 1 0 0 0であったとすると、キー画像データ 2 0 0は、 閾値より大きい積算値を持つことになり、 形状特徴量に対する適合性がないと判 定される。  It is assumed that the result obtained by integrating the distance between the coordinate values between adjacent scanning lines is 1150 with respect to the coordinate values obtained from the results of performing the above for each scanning line segment. Here, if the threshold value for this integrated value is 10000, the key image data 2000 has an integrated value larger than the threshold value, and it is determined that there is no suitability for the shape feature amount. You.
以上より、 キー画像データ 2 0 0については、 色レイァゥト特徴量とは適合性 があるが、 テクスチャ特徴量と形状特徴量とは適合性がないと判定される。  Based on the above, it is determined that the key image data 200 is compatible with the color layout feature, but is incompatible with the texture feature and the shape feature.
第 6図に戻り、 ステップ S C 3では、 特徴量データ抽出部 1◦ 3は、 キー画像 データ 2 0 0から、 適合性があるタイプ (この場合、 上記色レイアウト特徴量) に対応する特徴量データを抽出する。  Referring back to FIG. 6, in step SC3, the feature data extraction unit 1◦3 extracts the feature data corresponding to the compatible type (in this case, the color layout feature) from the key image data 200. Is extracted.
ステップ S C 4では、 特 ί敫量データ抽出部 1 0 3は、 ステップ S C 3で抽出さ れた特徴量データ (色レイアウト特徴量) を、 キー画像データ 2 0 0に対応する 画像 I D (= 0 0 0 0 0 0 4 ) と対応付けて、 特徴量データベース 1 2 0の色レ ィアウト特徴量データテーブル 1 2 1 (第 3図参照) へ格納する。  In step SC4, the feature data extraction unit 103 converts the feature data (color layout feature) extracted in step SC3 into an image ID (= 0) corresponding to the key image data 200. The data is stored in the color layout feature data table 12 1 (see FIG. 3) of the feature database 120 in association with 0 0 0 0 0 4).
なお、 第 3図では、 テクスチャ特徴量データテーブル 1 2 2および形状特徵量 データテーブル 1 2 3において、 画像 I D (= 0 0 0 0 0 0 4 ) に対応する特徴 量データが格納されているが、 実際には格納されていない。 第 6図に示したステップ SC5では、 類似度計算部 105は、 第 3図に示した 色レイアウト特徴量データテーブル 121から、 画像 I D (=0000004) に対応する特徴量データ (キー画像データ 200の色レイアウト特徴量) を取得 する。 この特徴量データは、 ステップ S C 2で、 キー画像データ 200と適合性 があると判定されたタイプ (色レイアウト特 ί敷量) に対応している。 In FIG. 3, in the texture feature amount data table 122 and the shape feature amount data table 123, feature amount data corresponding to the image ID (= 0000 004) is stored. , But not actually stored. In step SC5 shown in FIG. 6, the similarity calculation unit 105 obtains feature amount data (of the key image data 200) corresponding to the image ID (= 0000004) from the color layout feature amount data table 121 shown in FIG. Color layout features). This feature amount data corresponds to the type (color layout special amount) determined to be compatible with the key image data 200 in step SC2.
つぎに、 適合性判定部 104は、 上記タイプ (色レイアウト特徴量) と、 画像 データベース 110に格納されている検索対象の各画像データとの間で適合性の 有無を判定する。  Next, the compatibility determination unit 104 determines whether or not there is compatibility between the above type (color layout feature amount) and each image data to be searched stored in the image database 110.
具体的には、 適合性判定部 104は、 第 7図に示したステップ SD 1と同様に して、上記色レイァゥト特徴量と各画像データとの間で適合性の有無を判定する。 なお、 上記タイプがテクスチャ特徴量である場合、 適合性判定部 104は、 第 7図に示したステップ S D 2と同様にして、 上記テクスチヤ特徴量と各画像デー タとの間で適合性の有無を判定する。  Specifically, the suitability determination unit 104 determines whether or not there is compatibility between the color layout feature amount and each image data in the same manner as in step SD1 shown in FIG. If the type is a texture feature, the suitability determination unit 104 determines whether or not there is compatibility between the texture feature and each image data in the same manner as in step SD2 shown in FIG. Is determined.
また、 上記タイプが形状特徴量である場合、 適合性判定部 104は、 第 7図に 示したステップ SD 3と同様にして、 上記形状特徴量と各画像データとの間で適 合性の有無を判定する。  If the type is a shape feature, the suitability determination unit 104 determines whether or not there is compatibility between the shape feature and each image data in the same manner as in step SD3 shown in FIG. Is determined.
つぎに、 類似度計算部 105は、 検索対象の全画像データの中から、 上記適合 性判定部 104で適合性が無いと判定された画像データを除外し、 適合性が有り と判定された画像データ (例えば、 画像 ID (=0000001 000000 2 0000003) に対応する画像データ) に検索対象を絞り込む。  Next, the similarity calculation unit 105 excludes the image data determined to be incompatible by the compatibility determination unit 104 from all the image data to be searched, and removes the image data determined to be compatible. The search target is narrowed down to data (for example, image data corresponding to an image ID (= 0000001 000000 2 0000003)).
つぎに、 類似度計算部 105は、 上記画像 I D (=0000001 0000 002 0000003) に対応する特徴量データ (画像データ 111 11 12および 1113 の色レイァゥト特徴量) を取得する。 Next, the similarity calculating unit 105 obtains the image ID (= 0000001 0000 002 0000003) corresponding feature quantity data (the image data 111 11 1 2 and 111 3 colors Reiauto features).
つぎに、 類似度計算部 105は、 キー画像データ 200に対応する特徴量デー タ (色レイァゥト特徴量) と、 キー画像データ 1 1 1 1 1 12 および 1 1 1 a にそれぞれ対応する特徴量データ (色レイアウト特徴量) との間の クリツ ド距離を計算する。 小数点第二位以下を四捨五入すると、 結果 (ユークリッド距 離) は、 次のようになる。 Next, the similarity calculation unit 105 calculates the feature data (color layout feature) corresponding to the key image data 200 and the feature data corresponding to the key image data 1 1 1 1 1 1 2 and 1 1 1a, respectively. Calculate the critical distance from the data (color layout features). Rounding off to two decimal places, the result (Euclidean distance Is as follows.
•キー画像データ 2 0 0と画像データ 1 1 1 i: 1 1 1 . 6  • Key image data 200 and image data 1 1 1 i: 1 1 1.6
•キー画像データ 2 0 0と画像データ 1 1 1 2: 1 0 1 . 7 • Key image data 200 and image data 1 1 1 2 : 101.7
•キー画像データ 2 0 0と画像データ 1 1 1 3: 7 . 1 • Key image data 200 and image data 1 113 : 7.1
上記結果においては、 ユークリッド距離が短いほど、 キー画像データ 2 0 0と 検索対象の画像データとの類似度が高い。  In the above result, the shorter the Euclidean distance, the higher the similarity between the key image data 200 and the image data to be searched.
従って、 キー画像データ 2 0 0 (色レイアウト特徴量) に対する類似度の順序 は、 第一位が画像データ 1 1 1 3 (第 8図 (d ) 参照) 、 第二位が画像データ 1Therefore, the order of the similarity to the key image data 200 (color layout feature) is as follows: image data 1 1 1 3 (see FIG. 8 (d)) in the first place, and image data 1 in the second place.
1 1 2 (第 8図 (c ) 参照) 、 第三位が画像データ 1 1 (第 8図 (b ) ) 参照 となる。 1 1 2 (FIG. 8 (c) refer), the third of the image data 1 1 (Figure 8 (b)) as a reference.
第 6図に示したステップ S C 6では、 検索部 1 0 6は、 ステップ S C 5で求め られた類似度の順序で、 画像データベース 1 1 0 (第 2図参照) 力 ら検索結果と しての画像データ 1 1 1 3 、画像データ 1 1 1 2 および画像データ 1 1 1 i を取 得する。 In step SC6 shown in FIG. 6, the search unit 106 obtains the search result from the image database 110 (see FIG. 2) in the order of the similarity obtained in step SC5. Image data 1 1 1 3 , image data 1 1 1 2 and image data 1 1 1 i are obtained.
つぎに、 検索部 1 0 6は、 表示部 1 0 2に、 第 1 6図に示した検索結果画面 3 0 0を表示させる。 この検索結果画面 3 0 0では、 色レイアウト特徴量を利用し た場合の検索結果を表しており、同図左から右にかけて、キー画像データ 2 0 0、 類似度が高い順に画像データ 1 1 1 3 、画像データ 1 1 1 2 および画像データ 1Next, the search unit 106 causes the display unit 102 to display the search result screen 300 shown in FIG. This search result screen 300 shows the search results when the color layout feature is used. From left to right in the figure, the key image data 200 and the image data 1 1 1 are arranged in descending order of similarity. 3 , image data 1 1 1 2 and image data 1
1 1! が表示されている。 1 1! Is displayed.
また、 検索結果画面 3 0 0からわかるように、 キー画像データ 2 0 0 (風景写 真) に対して、 人間にとってより似ていると感じる画像データ 1 1 1 3 (風景写 真) が最も類似度が高い位置に表示され、 似ていると感じられない画像データ 1 1 1 2 および画像データ 1 1 1 3 がその後に表示される。 Further, search results can be seen from the screen 3 0 0, for the key image data 2 0 0 (landscape photograph), image data 1 1 1 3 feel is more similar to humans (landscape photograph) is most similar The image data 1 1 1 2 and the image data 1 1 1 3 which are displayed at a position with a high degree and do not seem similar are displayed thereafter.
ここで、'仮に、 前述した適合性判定をせずに、 テクスチャ特徴量に対応する特 徴量データを利用して画像検索を行った場合には、 テクスチャ特徴量データテー ブノレ 1 2 2 (第 3図参照) に格納された特徴量データ (テクスチャ特 ί敷量) を用 いて、 キー画像データ 2 0 0と検索対象画像データ (画像データ 1 1 1 〜 1 1 1 3 ) との間の クリッド距離は次のようになる。 Here, suppose that, if the image search is performed using the feature data corresponding to the texture feature without performing the suitability determination described above, the texture feature data table 1 2 2 (3rd The key image data 200 and the search target image data (image data 11 1 to 11 1) are used by using the feature amount data (texture space) stored in the The distance between 1 and 3 ) is as follows.
•キー画像データ 2 0 0と画像データ 1 1 1 i: 9 . 2  • Key image data 200 and image data 1 1 1 i: 9.2
' ·キー画像データ 2 0 0と画像データ 1 1 1 2: 1 2. 8 '· Key image data 200 and image data 1 1 1 2 : 12.8
•キー画像データ 2 0 0と画像データ 1 1 1 3: 6 4. 7 • Key image data 200 and image data 1 1 1 3 : 64.7
従って、キー画像データ 2 0 0 (テクスチャ特徴量)に対する類似度の順序は、 第一位が画像データ 1 1 1 (第 8図 (b ) 参照) 、 第二位が画像データ 1 1 1 2 (第 8図 (c ) 参照) 、 第三位が画像データ 1 1 1 3 (第 8図 (d ) 参照) とな る。 Therefore, the order of the similarity with respect to the key image data 200 (texture feature) is as follows: the image data 1 1 1 is the first place (see FIG. 8 (b)), and the image data 1 1 1 2 is the second place the reference 8 view (c)), that Do a third of the image data 1 1 1 3 reference (Figure 8 (d)).
この場合、 検索部 1 0 6は、 表示部 1 0 2に、 第 1 7図に示した検索結果画面 3 1 0を表示させる。 この検索結果画面 3 1 0では、 テクスチャ特徴量を利用し た場合の検索結果を表しており、同図左から右にかけて、キー画像データ 2 0 0、 類似度が高い順に画像データ 1 1 1 、画像データ 1 1 1 2 および画像データ 1In this case, the search unit 106 causes the display unit 102 to display the search result screen 310 shown in FIG. This search result screen 310 shows the search results when the texture feature amount is used. From left to right in the figure, the key image data 200, the image data 1 1 1 Image data 1 1 1 2 and image data 1
1 1 3 が表示されている。 1 1 3 is displayed.
また、 検索結果画面 3 1 0からわかるように、 キー画像データ 2 0 0 (風景写 真) に対して、 人間にとって似ていると感じられない画像データ 1 1 が最も 類似度が高レ、位置に表示され、 より似ていると感じられる画像データ 1 1 1 3 が 最も類似度が低い位置に表示される。 Also, as can be seen from the search result screen 310, the image data 111, which does not seem similar to humans, has the highest similarity to the key image data 200 (landscape photograph). , And the image data 1 1 1 3 which is felt to be more similar is displayed at the position with the lowest similarity.
また、 仮に、 前述した適合性判定をせずに、 形状特徴量に対応する特徴量デー タを利用して画像検索を行った場合には、 形状特徴量データテーブル 1 2 3 (第 3図参照) に格納された特徴量データ (形状特徴量) を用いて、 キー画像データ 2 0 0と検索対象画像データ (画像データ 1 1 1^ 1 1 1 3 ) との間のユーク リッド距離は次のようになる。 Also, if an image search was performed using feature data corresponding to the shape feature without performing the suitability determination described above, the shape feature data table 1 2 3 (see FIG. 3) The Euclidean distance between the key image data 200 and the search target image data (image data 1 1 1 1 1 1 3 ) is calculated using the feature amount data (shape feature amount) stored in Become like
•キー画像データ 2 0 0と画像データ 1 1 1 3 . 7  • Key image data 200 and image data 1 1 1 3 .7
•キー画像データ 2 0 0と画像データ 1 1 1 2: 6 6 . 3 • Key image data 200 and image data 1 1 1 2 : 66.3
·キー画像データ 2 0 0と画像データ 1 1 1 3: 3 1 . 7 · Key image data 200 and image data 1 113 : 31.7
従って、 キー画像データ 2 0 0 (形状特徴量) に対する類似度の順序は、 第一 位が画像データ 1 1 1 (第 8図 (b ) 参照) 、 第二位が画像データ 1 1 1 3 (第 8図 (d ) 参照) 、 第三位が画像データ 1 1 1 2 (第 8図 (c ) 参照) となる。 この場合、 検索部 1 0 6は、 表示部 1 0 2に、 第 1 8図に示した検索結果画面 3 2 0を表示させる。 この検索結果画面 3 2 0では、 形状特徴量を利用した場合 の検索結果を表しており、 同図左から右にかけて、 キー画像データ 2 0 0、 類似 度が高い順に画像データ 1 1 1 丄 、画像データ 1 1 1 3 および画像データ 1 1 1 2 が表示されている。 Therefore, the order of the similarity with respect to the key image data 200 (shape feature amount) is as follows: image data 1 1 1 is the first place (see Fig. 8 (b)), and image data 1 1 1 3 is the second place. No. Figure 8 see (d)), the third largest image data 1 1 1 2 (FIG. 8 (c) refer). In this case, the search unit 106 causes the display unit 102 to display the search result screen 320 shown in FIG. The search result screen 320 shows the search results when the shape feature is used. From left to right in the figure, the key image data 200, the image data 1 1 1 丄Image data 1 1 1 3 and image data 1 1 1 2 are displayed.
また、 検索結果画面 3 2 0からわかるように、 キー画像データ 2 0 0 (風景写 真) に対して、人間にとって似ていると感じられない画像データ 1 1 1 丄 が類似 度が高い位置に表示され、 より似ていると感じられる画像データ 1 1 1 3 が類似 度が中の位置に表示される。 In addition, as can be seen from the search result screen 320, the image data 111, which is not felt to be similar to humans, is located at a position with a high similarity to the key image data 200 (landscape photograph). The image data 1 1 1 3 which are displayed and felt to be more similar are displayed in the middle position of the similarity.
以上説明したように、 一実施の形態によれば、 キー画像データ 2 0 0から抽出 された各特徴量のタイプ(色レイァゥト特徴量、テクスチャ特徴量、形状特徴量) について、 人間の類似感覚に合致した類似度が計算されるか否かを適合性の有無 として判定し、 この判定結果に基づいて、 キー画像データ 2 0 0と検索対象の各 画像データとの類似度を計算し、 類似度に対応する画像データを検索結果 (第 1 6図〜第 1 8図参照) として出力することとしたので、 類似度を計算する際に適 用される特徴量のタイプの選択ミスが防止され、検索精度を高めることができる。 また、 一実施の形態によれば、 第 6図に示したステップ S C 5で、 キー画像 2 As described above, according to the embodiment, the types (color layout feature, texture feature, shape feature) of each feature extracted from the key image data 200 correspond to human similarity. It is determined whether or not the matching similarity is calculated as the suitability. Based on the determination result, the similarity between the key image data 200 and each image data to be searched is calculated, and the similarity is calculated. Is output as search results (see FIGS. 16 to 18), so that the selection of the type of the feature amount applied when calculating the similarity is prevented, and Search accuracy can be improved. Also, according to one embodiment, in step S C5 shown in FIG.
0 0について適合性が有ると判定された特徴量のタイプと検索対象の各画像デー タとの適合性の有無を判定し、 各画像データについて適合性が無しと判定された 画像データを検索対象から除外し、 適合性が有ると判定された各画像データを検 索対象として絞り込み、 タイプの特徴量を用いて、 キー画像 2 0 0と該検索対象 の各画像データとの類似度を計算することとしたので、 検索対象の絞り込みによ り、 さらに検索精度や検索効率を高めることができる。 0 Determines the compatibility of the type of feature value determined to be compatible with 0 with each image data to be searched, and searches the image data determined to be unsuitable for each image data for the search target , And narrows down each image data determined to be relevant as search targets, and calculates the similarity between the key image 200 and each image data of the search target using the type feature amount. Therefore, the search accuracy and search efficiency can be further improved by narrowing down the search targets.
以上本発明にかかる一実施の形態について図面を参照して詳述してきたが、 具 体的な構成例はこの一実施の形態に限られるものではなく、 本発明の要旨を逸脱 しない範囲の設計変更等があっても本発明に含まれる。 例えば、 前述した一実施の形態においては、 第 1図に示した画像検索装置 1 0 0の機能を実現するためのプログラムを第 1 9図に示したコンピュータ読み取り 可能な記録媒体 5 0 0に記録して、 この記録媒体 5 0 0に記録されたプログラム をコンピュータ 4 0 0に読み込ませ、 実行することにより画像検索装置 1 0 0の 機能を実現してもよい。 Although one embodiment according to the present invention has been described in detail with reference to the drawings, a specific configuration example is not limited to this embodiment, and a design within a range not departing from the gist of the present invention. Modifications are included in the present invention. For example, in the above-described embodiment, a program for realizing the functions of the image search device 100 shown in FIG. 1 is recorded on the computer-readable recording medium 500 shown in FIG. Then, the function of the image search device 100 may be realized by causing the computer 400 to read and execute the program recorded on the recording medium 500.
'コンピュータ 4 0 0は、上記プログラムを実行する C P U (Central Processing Unit) 4 1 0と、 キーポード、 マウス等の入力装置 4 2 0と、 各種データを記憶 する R OM (Read Only Memory) 4 3 0と、 演算パラメータ等を記憶する R AM (Random Access Memory) 4 4 0と、 記録媒体 5 0 0からプログラムを読み取る 読取装置 4 5 0と、 ディスプレイ、 プリンタ等の出力装置 4 6 0と、 装置各部を 接続するパス 4 7 0とから構成されている。  'The computer 400 has a CPU (Central Processing Unit) 410 for executing the above program, an input device 420 such as a keyboard and a mouse, and a ROM (Read Only Memory) 430 for storing various data. , A RAM (Random Access Memory) 440 that stores calculation parameters, etc., a reading device 450 that reads a program from a recording medium 500, an output device 460 such as a display and a printer, and various parts of the device. The connection path is made up of 470.
C P U 4 1 0は、 読取装置 4 5 0を経由して記録媒体 5 0 0に記録されている プログラムを読み込んだ後、 プログラムを実行することにより、 画像検索装置 1 0 0の機能を実現する。 なお、 記録媒体 5 0 0としては、 光ディスク、 フレキシ ブルディスク、 ハードディスク等が挙げられる。  The CPU 410 reads the program recorded on the recording medium 500 via the reading device 450 and executes the program to realize the function of the image search device 100. Note that examples of the recording medium 500 include an optical disk, a flexible disk, and a hard disk.
また、 一実施の形態においては、 適合性判定部 1 0 4により適合性が有ると判 定されたタイプ (色レイアウト特徴量、 テクスチャ特徴量等) が複数存在する場 合、 類似度計算部 1 0 5で、 タイプ毎に計算された類似度を統合した結果を類似 度の計算結果とするように構成してもよい。  Further, in one embodiment, when there are a plurality of types (color layout features, texture features, etc.) determined to be compatible by the compatibility determination unit 104, the similarity calculation unit 1 In step 05, a result obtained by integrating similarities calculated for each type may be used as a similarity calculation result.
この構成によれば、 適合性が有ると判定されたタイプが複数存在する場合、 タ イブ毎に計算された類似度を統合した結果を類似度の計算結果とすることとした ので、 総合的な観点より検索精度を高めることができる。  According to this configuration, when there are a plurality of types determined to be compatible, the result obtained by integrating the similarities calculated for each type is used as the similarity calculation result. Search accuracy can be improved from the viewpoint.
また、 一実施の形態では、 適合性判定部 1 0 4により適合性が有ると判定され たタイプ (色レイアウト特徴量、 テクスチャ特徴量等) が複数存在する場合、 複 数のタイプの中から一つのタイプをユーザに選択させ、 ユーザにより選択された タイプの特徴量を用いて、 キー画像データ 2 0 0と検索対象の各画像データとの 類似度を類似度計算部 1 0 5で計算するように構成してもよい。 また、 一実施の形態では、 適合性判定部 1 0 4における適合性の判定結果につ いてユーザに承認させ、 ユーザの承認を受けた判定結果に基づいて、 キー画像デ ータ 2 0 0と検索対象の各画像データとの類似度を類似度計算部 1 0 5で計算す るように構成してもよい。 Further, in one embodiment, when there are a plurality of types (color layout feature amount, texture feature amount, etc.) determined to be compatible by the compatibility determination section 104, one of the plurality of types is selected. The user is allowed to select one type, and the similarity between the key image data 200 and each image data to be searched is calculated by the similarity calculation unit 105 using the feature amount of the type selected by the user. May be configured. Further, in one embodiment, the user is allowed to approve the determination result of the suitability by the suitability determination unit 104, and the key image data 200 is determined based on the determination result that has been approved by the user. The similarity calculation unit 105 may calculate the similarity with each image data to be searched.
かかる構成によれば、 ユーザに対して、 最適な特徴量のタイプの選択に関する 支援を行うことができ、 画像検索にかかるユーザインタフェースを向上させるこ とができる。  According to such a configuration, it is possible to support the user in selecting the type of the optimal feature amount, and it is possible to improve the user interface related to the image search.
以上説明したように、 本発明によれば、 キー画像から抽出された各特徴量のタ イブについて、 人間の類似感覚に合致した類似度が計算されるか否かを適合性の 有無として判定し、 この判定結果に基づいて、 キー画像と検索対象の各画像との 類似度を計算し、 類似度に対応する画像を検索結果として出力することとしたの で、 類似度を計算する際に適用される特徴量のタイプの選択ミスが防止され、 検 索精度を高めることができるとレヽぅ効果を奏する。  As described above, according to the present invention, for each type of feature extracted from a key image, it is determined whether or not a similarity matching a human similar sensation is calculated as the suitability. Based on the determination result, the similarity between the key image and each image to be searched is calculated, and the image corresponding to the similarity is output as the search result. The selection effect of the type of the feature quantity to be prevented can be prevented, and if the search accuracy can be improved, the effect is obtained.
また、 本発明によれば、 キー画像について適合性が有ると判定された特徴量の タイプと検索対象の各画像との適合性の有無を判定し、 各画像について適合性が 無しと判定された画像を検索対象から除外し、 適合性が有ると判定された各画像 を検索対象として絞り込み、 タイプの特徴量を用いて、 キー画像と該検索対象の 各画像との類似度を計算することとしたので、 検索対象の絞り込みにより、 さら に検索精度や検索効率を高めることができるという効果を奏する。  Further, according to the present invention, it is determined whether or not there is compatibility between the type of the feature amount determined to be suitable for the key image and each image to be searched, and it is determined that there is no compatibility for each image. Excluding images from the search target, narrowing down each image determined to be relevant as search targets, and calculating the similarity between the key image and each image of the search target by using the type feature amount. Therefore, by narrowing down the search targets, there is an effect that the search accuracy and the search efficiency can be further improved.
また、本発明によれば、適合性が有ると判定されたタイプが複数存在する場合、 タイプ毎に計算された類似度を統合した結果を類似度の計算結果とすることとし たので、 総合的な観点より検索精度を高めることができるという効果を奏する。 また、本発明によれば、適合性が有ると判定されたタイプが複数存在する場合、 複数のタイプの中から一つのタイプをユーザに選択させ、 選択されたタイプの特 徴量を用いて、 キー画像と検索対象の各画像との類似度を計算することとしたの で、 ユーザに対して、 最適な特徴量のタイプの選択に関する支援を行うことがで き、 画像検索にかかるユーザィンタフェースを向上させることができるという効 果を奏する。 Further, according to the present invention, when there are a plurality of types determined to be compatible, the result obtained by integrating the similarities calculated for each type is used as the similarity calculation result. This brings about an effect that the search accuracy can be improved from a simple viewpoint. Further, according to the present invention, when there are a plurality of types determined to be compatible, the user is allowed to select one type from among the plurality of types, and using the characteristic amount of the selected type, Since the similarity between the key image and each of the images to be searched is calculated, it is possible to assist the user in selecting the optimal feature type. Can be improved Play a fruit.
また、 本発明によれば、 適合性の判定結果についてユーザに承認させ、 承認を 受けた判定結果に基づいて、 キー画像と検索対象の各画像との類似度を計算する こととしたので、 ユーザに対して、 最適な特徴量のタイプの選択に関する支援を 行うことができ、 画像検索にかかるユーザインタフェースを向上させることがで きるという効果を奏する。 産業上の利用可能性  Also, according to the present invention, the user is allowed to approve the determination result of suitability, and the similarity between the key image and each image to be searched is calculated based on the approved determination result. In this case, it is possible to provide support for selecting an optimal feature type and to improve a user interface related to image search. Industrial applicability
以上のように、 本発明にかかる画像検索プログラムは、 複数タイプ (例えば、 色レイアウト特徴量、 テクスチャ特徴量、 形状特徴量) の特徴量データを用いた 画像検索に対して有用である。  As described above, the image search program according to the present invention is useful for image search using feature amount data of a plurality of types (for example, color layout feature amount, texture feature amount, shape feature amount).

Claims

請 求 の 範 囲 The scope of the claims
1 . コンピュータを、 1. Computer
キー画像から複数タイプの特徴量を抽出する特徴量抽出手段、  Feature amount extracting means for extracting a plurality of types of feature amounts from the key image,
前記特徴量抽出手段により抽出された各特徴量のタイプについて、 人間の類似 感覚に合致した類似度が計算されるか否かを適合性の有無として判定する適合性 判定手段、  For each type of feature quantity extracted by the feature quantity extraction means, suitability determination means for determining whether or not a similarity matching human similarity is calculated as compatibility or not,
前記適合性判定手段の判定結果に基づいて、 前記キー画像と検索対象の各画像 との類似度を計算する類似度計算手段、  A similarity calculating unit configured to calculate a similarity between the key image and each image to be searched based on a determination result of the suitability determining unit;
前記類似度に対応する画像を検索結果として出力する検索結果出力手段、 として機能させるための画像検索プログラム。  An image search program for functioning as a search result output unit that outputs an image corresponding to the similarity as a search result.
2 . 前記適合性判定手段は、 前記キー画像について適合性が有ると判定された特 徴量のタイプと検索対象の各画像との適合性の有無を判定し、 前記類似度計算手 段は、 各画像について適合性が無しと判定された画像を検索対象から除外し、 適 合性が有ると判定された各画像を検索対象として絞り込み、 前記タイプの特徴量 を用いて、 前記キー画像と該検索対象の各画像との類似度を計算することを特徴 とする請求の範囲第 1項に記載の画像検索プロダラム。 2. The suitability determining means determines whether or not the type of the feature quantity determined to be compatible with the key image is compatible with each image to be searched, and the similarity calculation means includes: For each image, images determined to have no suitability are excluded from the search target, and each image determined to have suitability is narrowed down as a search target, and the key image and the 2. The image search program according to claim 1, wherein a similarity with each image to be searched is calculated.
3 . 前記類似度計算手段は、 前記適合性判定手段により適合性が有ると判定され たタイプが複数存在する場合、 タイプ毎に計算された類似度を統合した結果を類 似度の計算結果とすることを特徴とする請求の範囲第 1項または第 2項に記載の 画像検索プログラム。 3. When there are a plurality of types determined to be compatible by the compatibility determination unit, the similarity calculation unit integrates the similarity calculated for each type with the similarity calculation result. 3. The image search program according to claim 1, wherein the image search program performs a search.
4 . 前記適合性判定手段は、 適合性が有ると判定されたタイプが複数存在する場 合、 複数のタイプの中から一つのタイプをユーザに選択させ、 前記類似度計算手 段は、 前記ユーザにより選択されたタイプの特徴量を用いて、 前記キー画像と検 索対象の各画像との類似度を計算することを特徴とする請求の範囲第 1項または 第 2項に記載の画像検索プログラム。 4. If there are a plurality of types determined to be compatible, the suitability determining means allows the user to select one type from among the plurality of types, and the similarity calculation means includes: The feature image of the type selected by 3. The image search program according to claim 1, wherein a similarity between each image to be searched and each image is calculated.
5 . 前記適合性判定手段は、 前記適合性の判定結果についてユーザに承認させ、 前記類似度計算手段は、 前記ユーザの承認を受けた判定結果に基づいて、 前記キ 一画像と検索対象の各画像との類似度を計算することを特徴とする請求の範囲第 1項または第 2項に記載の画像検索プログラム。 5. The suitability judging unit allows the user to approve the judgment result of the suitability, and the similarity calculating unit calculates each of the key image and the search target based on the judgment result approved by the user. 3. The image search program according to claim 1, wherein a similarity to an image is calculated.
PCT/JP2002/012135 2002-11-20 2002-11-20 Image search program WO2004047026A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2002/012135 WO2004047026A1 (en) 2002-11-20 2002-11-20 Image search program
JP2004553119A JP4160050B2 (en) 2002-11-20 2002-11-20 Image search program
CNB02829713XA CN100346339C (en) 2002-11-20 2002-11-20 Image search program
US11/124,107 US20050210019A1 (en) 2002-11-20 2005-05-09 Method and apparatus for retrieving image from database, and computer product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2002/012135 WO2004047026A1 (en) 2002-11-20 2002-11-20 Image search program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/124,107 Continuation US20050210019A1 (en) 2002-11-20 2005-05-09 Method and apparatus for retrieving image from database, and computer product

Publications (1)

Publication Number Publication Date
WO2004047026A1 true WO2004047026A1 (en) 2004-06-03

Family

ID=32321512

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/012135 WO2004047026A1 (en) 2002-11-20 2002-11-20 Image search program

Country Status (3)

Country Link
JP (1) JP4160050B2 (en)
CN (1) CN100346339C (en)
WO (1) WO2004047026A1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006190192A (en) * 2005-01-07 2006-07-20 Sony Corp Information processing device and method, and program
JP2006313524A (en) * 2005-04-07 2006-11-16 Hiroshima Univ Data storage device, data retrieval device, data reproduction device, data retrieval program
JP2007164648A (en) * 2005-12-16 2007-06-28 Ricoh Co Ltd Similar image search device, similar image search method, program and information recording medium
JP2009253751A (en) * 2008-04-08 2009-10-29 Fuji Xerox Co Ltd Image processing apparatus and image processing program
JP2010182295A (en) * 2008-12-31 2010-08-19 Intel Corp Object recognition using classification method based on global similarity
JP2011070244A (en) * 2009-09-24 2011-04-07 Yahoo Japan Corp Device, method and program for retrieving image
JP2012243197A (en) * 2011-05-23 2012-12-10 Morpho Inc Image identification device, image identification method, image identification program and recording medium
JP2013196701A (en) * 2012-03-16 2013-09-30 Fujitsu Ltd Image processing device, image processing method, and facility
JP2020095757A (en) * 2020-03-23 2020-06-18 キヤノン株式会社 Information processing device, information processing method, and program

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4951373B2 (en) * 2007-03-13 2012-06-13 株式会社リコー Image search apparatus, image search method, and computer program
US8165406B2 (en) * 2007-12-12 2012-04-24 Microsoft Corp. Interactive concept learning in image search
CN101911077B (en) * 2007-12-27 2016-05-11 皇家飞利浦电子股份有限公司 For the method and apparatus of hierarchical search
JP2011010275A (en) * 2009-05-26 2011-01-13 Sanyo Electric Co Ltd Image reproducing apparatus and imaging apparatus
JP6091217B2 (en) * 2013-01-08 2017-03-08 キヤノン株式会社 Image search device, image search method, search source image providing device, search source image providing method, and program
CN105959561A (en) * 2016-06-13 2016-09-21 Tcl集团股份有限公司 Photographing method and system
CN107798325B (en) * 2017-08-18 2021-04-16 中国银联股份有限公司 Card recognition method and apparatus, computer storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187731A (en) * 1998-12-21 2000-07-04 Ricoh Co Ltd Picture feature extraction method and recording medium which records program for making computer execute respective processes of the same and which computer can read
JP2001195415A (en) * 2000-01-13 2001-07-19 Omron Corp Method for displaying retrieval information, and information retrieving device using the same

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5802361A (en) * 1994-09-30 1998-09-01 Apple Computer, Inc. Method and system for searching graphic images and videos
US6072904A (en) * 1997-12-31 2000-06-06 Philips Electronics North America Corp. Fast image retrieval using multi-scale edge representation of images
KR100319151B1 (en) * 1999-02-01 2002-01-05 구자홍 Data structure of multi-level image and method for image checking using this structure
KR100677096B1 (en) * 2000-05-31 2007-02-05 삼성전자주식회사 Similarity measuring method of images and similarity measuring device
KR100788643B1 (en) * 2001-01-09 2007-12-26 삼성전자주식회사 Searching method of image based on combination of color and texture

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187731A (en) * 1998-12-21 2000-07-04 Ricoh Co Ltd Picture feature extraction method and recording medium which records program for making computer execute respective processes of the same and which computer can read
JP2001195415A (en) * 2000-01-13 2001-07-19 Omron Corp Method for displaying retrieval information, and information retrieving device using the same

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006190192A (en) * 2005-01-07 2006-07-20 Sony Corp Information processing device and method, and program
JP4556121B2 (en) * 2005-01-07 2010-10-06 ソニー株式会社 Information processing apparatus and method, and program
JP2006313524A (en) * 2005-04-07 2006-11-16 Hiroshima Univ Data storage device, data retrieval device, data reproduction device, data retrieval program
JP2007164648A (en) * 2005-12-16 2007-06-28 Ricoh Co Ltd Similar image search device, similar image search method, program and information recording medium
JP2009253751A (en) * 2008-04-08 2009-10-29 Fuji Xerox Co Ltd Image processing apparatus and image processing program
JP2010182295A (en) * 2008-12-31 2010-08-19 Intel Corp Object recognition using classification method based on global similarity
JP2011070244A (en) * 2009-09-24 2011-04-07 Yahoo Japan Corp Device, method and program for retrieving image
JP2012243197A (en) * 2011-05-23 2012-12-10 Morpho Inc Image identification device, image identification method, image identification program and recording medium
JP2013196701A (en) * 2012-03-16 2013-09-30 Fujitsu Ltd Image processing device, image processing method, and facility
JP2020095757A (en) * 2020-03-23 2020-06-18 キヤノン株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
CN100346339C (en) 2007-10-31
CN1685365A (en) 2005-10-19
JPWO2004047026A1 (en) 2006-03-16
JP4160050B2 (en) 2008-10-01

Similar Documents

Publication Publication Date Title
JP5229744B2 (en) Image classification device and image classification program
WO2004047026A1 (en) Image search program
US20050210019A1 (en) Method and apparatus for retrieving image from database, and computer product
US6927874B1 (en) Image processing method, apparatus and storage medium therefor
US9311889B1 (en) Image-based color palette generation
JP2776295B2 (en) Image index generation method and image index generation device
US8264488B2 (en) Information processing apparatus, information processing method, and program
KR101459268B1 (en) Image processing device, and method for controlling image processing device
US8542951B2 (en) Image retrieval device and computer program for image retrieval applicable to the image retrieval device
JP2002170117A (en) Method and apparatus for measuring color-texture distance and method and apparatus for dividing image into domains using them
US20080219563A1 (en) Configuration of a plurality of images for multi-dimensional display
CN108377351A (en) Image processing apparatus and image processing method for the laying out images in template
JP2006055213A (en) Image processor and program
JP4772819B2 (en) Image search apparatus and image search method
JP4674257B2 (en) Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus
JP6363547B2 (en) Information processing apparatus and sentence imaging program
GB2380888A (en) Automatic determination of regions of interest in an image
JP2006013722A (en) Unit and method for processing image
KR102126561B1 (en) Method and system for adaptive 3D space generating
JP2001117936A (en) Three-dimensional similar image retrieving device
JP2003303188A (en) System and method for presenting similar image
US7330589B2 (en) Image partitioning apparatus and method
JP2006221520A (en) Image feature value extraction system and method
JP4074791B2 (en) House floor plan search program and house exterior search program
JP2006000126A (en) Image processing method, apparatus and program

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP US

WWE Wipo information: entry into national phase

Ref document number: 2004553119

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2002829713X

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 11124107

Country of ref document: US